La Inteligencia Artificial (IA): ¿aliada o enemiga en el ámbito laboral? La IA, una de las innovaciones más significativas de la humanidad, se ha infiltrado en todos los aspectos de nuestra vida, tanto social como laboral. A pesar de sus contribuciones al progreso humano—como la reducción de tareas arduas y la mejora en la predicción de soluciones a problemas críticos—también plantea serios riesgos. Entre estos se encuentra la “fatiga digital”, un fenómeno que ha sido objeto de estudio por parte del LARPSICO, tal como se detalla en el documento titulado FCT-P 2/02-2022: Fatiga informática y desconexión digital en trabajo: protocolos de salud.
Si bien la promesa de una productividad ilimitada es tentadora, la realidad puede ser muy diferente. El uso intensivo de tecnologías digitales, incluida la IA, ha revelado su lado oscuro: el “agotamiento psicosocial”. Filósofos y expertos han advertido sobre los peligros de la sobrecarga digital y su impacto en el rendimiento humano. H. Byung Chul, conocido por su análisis sobre cómo hemos pasado de una “sociedad del rendimiento” a una “sociedad del cansancio”, destaca cómo la conectividad constante difumina las fronteras entre trabajo y ocio, promoviendo formas de autoexplotación.
El impacto negativo del uso intensivo de IA
La niebla mental y la fatiga emocional son consecuencias directas del uso excesivo de herramientas basadas en IA. Un estudio reciente realizado por la Universidad de Harvard revela que este tipo de tecnología puede generar un estado perjudicial para la salud mental conocido como “niebla cognitiva”. Publicado en marzo de 2026 por Harvard Business Review bajo el título “When Using AI Leads to ‘Brain Fry’”, el estudio identifica el uso intensivo de IA como un factor crítico que contribuye a esta problemática.
La investigación también señala que esta fatiga mental no solo aumenta debido al uso repetitivo, sino que se ve exacerbada por lo que se denomina “hipervigilancia”. Plataformas como Gas Town, donde los trabajadores deben coordinar múltiples agentes a velocidades superiores a las capacidades humanas, ilustran esta insostenibilidad cognitiva. Cuando las empresas evalúan el rendimiento basado en métricas como el consumo de tokens o líneas de código generadas—como ocurre con gigantes tecnológicos como Meta—no están midiendo eficiencia, sino resistencia mental.
Un redescubrimiento económico sobre rendimientos decrecientes
El estudio también pone en evidencia una ruptura crucial en la curva de productividad relacionada con el uso de IA. Mientras que utilizar dos herramientas puede ser beneficioso si se mantiene un equilibrio adecuado, añadir una tercera podría resultar contraproducente. Este fenómeno recuerda a la conocida “ley económica de los rendimientos decrecientes”, donde agregar recursos adicionales no solo deja de aumentar el rendimiento, sino que lo reduce.
A partir de este análisis, es fundamental distinguir entre dos tipos diferentes de interacción con la IA:
- IA como herramienta auxiliar: Reduce el agotamiento mental hasta un 15% al sustituir tareas mecánicas.
- IA como estresor agudo: Incrementa la carga cognitiva y puede aumentar los errores hasta un 39% debido a la constante supervisión.
Mediadas preventivas ante los efectos nocivos
Dada la gravedad del fenómeno denominado "niebla mental", es imperativo implementar medidas preventivas para evitar que la supervisión mediante IA termine afectando negativamente a los trabajadores. Esta situación no solo representa un costo humano significativo, sino también un impacto económico considerable a largo plazo. Los síntomas asociados llevan a muchos empleados a buscar nuevas oportunidades laborales; esto no refleja falta de talento, sino una respuesta biológica ante entornos laborales perjudiciales.
Las organizaciones deben considerar estas nuevas dinámicas como factores organizacionales relacionados con la fatiga mental digital y no simplemente atribuirlas a debilidades cognitivas individuales. Es esencial establecer límites claros y adaptar las métricas utilizadas para evaluar el desempeño laboral, enfocándose no solo en la intensidad del trabajo sino también en sus impactos reales.
Si no se protege adecuadamente la salud mental frente a estos desafíos derivados del uso algorítmico, corremos el riesgo de colapsar nuestro potencial humano. Las empresas deben diseñar estrategias equilibradas para integrar efectivamente la inteligencia artificial sin comprometer las capacidades humanas. Esto incluye crear herramientas más intuitivas y reducir las tareas que requieren supervisión constante.