Un reciente informe revela que un número notable de empleados están usando inteligencia artificial (IA) en su trabajo — muchas veces sin contarlo ni a sus jefes ni a sus compañeros — lo que les permite cumplir con sus tareas en mucho menos tiempo. Por ejemplo, un ingeniero de software redujo su carga de trabajo de 40 a 20 horas semanales, dedicando el resto del tiempo a ocio. Esta tendencia plantea cuestiones éticas, de productividad real, de confianza en el lugar de trabajo y de impacto en el empleo a medio plazo.
¿De qué va todo esto?
Según un artículo reciente de Entrepreneur, referenciando datos de un informe compartido por KPMG y la University of Melbourne, alrededor del 57 % de los trabajadores encuestados (más de 30.000) admitió haber utilizado herramientas de IA en el trabajo sin informar a sus empleadores.
Un caso paradigmático —y citado en la noticia— es el de un ingeniero de software que trabajaba en una pequeña empresa: usaba agentes de IA como Cursor o Claude Code para automatizar buena parte de sus tareas: “copiaba y pegaba todas mis tareas en un agente de IA… y dejaba que él hiciera el trabajo”, confesó. Según él, gracias a eso pasó de trabajar unas 40 horas semanales a aproximadamente 20.
La razón detrás de esta práctica parece clara: la IA genera resultados “limpios” —informes, presentaciones o código— que parecen producto de horas reales de trabajo. Como señala un consultor en IA citado en el artículo: “Si no sabes que lo ha hecho una IA, pensarías que alguien ha tardado horas en crear algo así”.
¿Qué implicaciones técnicas y laborales tiene este fenómeno?
La capacidad actual de las herramientas de IA generativa para producir contenido coherente, estructurado y de aspecto “profesional” permite automatizar tareas rutinarias o repetitivas: combinación de datos, redacción de informes, generación de presentaciones, escritura de propuestas o incluso desarrollo básico de software. En muchos casos, la automatización con IA reduce dramáticamente el tiempo necesario: lo que antes podía llevar 4 o 5 horas puede completarse en minutos.
Un estudio reciente (publicado en abril de 2025) analiza cómo la adopción de IA en entornos de oficina reduce el tiempo dedicado a correos electrónicos en unas 3 horas semanales de promedio, lo que supone aproximadamente un 25 % menos de tiempo en esa tarea.
Este ahorro de tiempo —aunque no siempre intencionado para “trabajar menos”— permite que los empleados reorienten su jornada hacia trabajo creativo o estratégico, o incluso hacia ocio. Pero cuando esta práctica se mantiene en secreto, se plantean varias tensiones:
-
Ética profesional: presentar trabajo generado parcialmente por IA como propio puede considerarse engañoso.
-
Riesgo de errores: la IA no es infalible; su uso indiscriminado puede generar imprecisiones o “alucinaciones” —información incorrecta que pasa como legítima—. Por ejemplo, ya hubo casos en informes profesionales en los que se detectaron citas académicas ficticias generadas por IA.
-
Desigualdad entre empleados: quienes usan IA obtienen (temporalmente) ventajas sobre quienes no la usan o no la conocen, lo que puede distorsionar la valoración de rendimiento. De hecho, un estudio académico reciente mostró que muchas personas reducen la compensación a trabajadores que utilizan IA aunque su output sea equivalente al de otros. a
Un vistazo al “producto principal”: usar IA en el día a día laboral
Cuando un empleado decide usar IA como herramienta diaria, no se trata solo de acortar tiempos. En ciertos entornos —como desarrollo de software, redacción, informes o análisis de datos— la IA puede integrarse como co-piloto. Herramientas como Cursor o Claude Code pueden generar fragmentos de código, corregir errores básicos, completar secciones repetitivas o proponer estructuras de documento. Esto permite convertir una tarea rutinaria de 2-3 horas en un proceso mucho más veloz.
Pero esta eficiencia no está exenta de precariedades: la IA suele generar salidas homogéneas, lo que significa que partes del trabajo creativo o estratégico siguen demandando supervisión humana. Además, hay que dedicar tiempo a verificar lo generado. Si no se hace con rigor, los errores —tanto técnicos como de contexto— pueden derivar en fallos, documentos imprecisos o decisiones equivocadas.
Por ello, aunque la herramienta funciona como “producto principal” en esta nueva modalidad, su uso responsable exige formación, revisión crítica y transparencia.
¿Qué nos dice esto sobre el futuro del trabajo con IA?
Este fenómeno evidencia que la adopción de IA en entornos laborales ya no es solo una tendencia tecnológica, sino una transformación real —aunque en muchos casos oculta— de cómo “hacemos el trabajo”.
Por un lado, supone una oportunidad: automatizar tareas repetitivas puede liberar tiempo para tareas con valor añadido, creatividad, aprendizaje o desarrollo. Para algunos empleados, puede mejorar su calidad de vida, reducir cargas innecesarias, o permitir un enfoque distinto de su jornada.
Por otro lado, conlleva riesgos: la falta de transparencia, la posible generación de errores, y la desigualdad entre quienes usan IA y quienes no. Además, plantea dilemas a las empresas: ¿cómo evaluar el rendimiento cuando parte del trabajo se hace con ayuda de IA? ¿Cómo garantizar la calidad, la responsabilidad y la ética de los resultados?
También hay un coste social: estudios muestran que cuando el uso de IA es visible, muchos tienden a descontar parte de la compensación a quienes la usan. arXiv Esto puede disuadir su adopción abierta, fomentar el secreto y generar desconfianza en los equipos.
Finalmente, la situación evidencia una brecha estructural: aunque según una encuesta reciente el 74 % de los trabajadores en 2025 afirma usar IA en su empleo en algún momento, solo un tercio recibe formación formal sobre su uso.
Reflexiones finales
La irrupción de la IA en el entorno laboral está provocando lo que podría describirse como un reajuste silencioso de las reglas del juego: ya no basta con “trabajar muchas horas”, sino que quienes saben usar IA eficientemente tienen una ventaja concreta. Ese “hábito invisible” es tanto una puerta a la eficiencia como un desafío para la confianza, la transparencia y la ética profesional.
Para que este fenómeno tenga un impacto positivo, parece necesario que las empresas adopten políticas claras sobre el uso de IA, ofrezcan formación, fomenten la transparencia —y redefinan cómo miden la productividad y el rendimiento. Si no, existe el riesgo de que este uso clandestino genere tensiones internas, desigualdades y pérdida de confianza.
En definitiva, la IA ya no es solo una herramienta emergente, sino una realidad presente; depende de nosotros —trabajadores, responsables o directivos— decidir si la usamos como un aliado legítimo o la mantenemos como un truco oculto.
285