Aunque la inteligencia artificial (IA) se presenta como autónoma y capaz de realizar tareas complejas, su funcionamiento depende en gran medida del trabajo humano, especialmente en países de ingresos bajos y medios. Miles de trabajadores etiquetan, anotan y refinan datos esenciales para los modelos de IA, desempeñando labores repetitivas y con frecuencia mal remuneradas. Este artículo analiza la naturaleza de este trabajo, sus implicaciones éticas y económicas, y cómo iniciativas como Fairwork buscan mejorar las condiciones de los trabajadores en la industria de la IA, centrándose en la experiencia de empresas y centros de datos en África y Asia.

El trabajo humano detrás de la IA

La percepción común es que los modelos de IA aprenden de manera independiente a partir de grandes volúmenes de datos, pero la realidad es mucho más compleja. Según expertos, entre el 70% y 90% del entrenamiento de sistemas de lenguaje natural, visión artificial y reconocimiento de patrones depende directamente de trabajadores humanos que etiquetan, corrigen y refinan los datos. Estas tareas pueden incluir desde la identificación de objetos en miles de imágenes hasta la transcripción y verificación de audio, con un volumen que oscila entre 1.500 y 3.000 unidades de datos procesadas por trabajador cada día. La precisión de los modelos de IA depende críticamente de esta labor humana: incluso pequeños errores en la anotación pueden reducir la exactitud de predicciones de visión por computador o de generación de texto en un 5-10%.

El proyecto Fairwork liderado por el profesor Mark Graham de la Universidad de Oxford, se centra precisamente en esta dimensión. Desde 2018, Fairwork ha desarrollado un marco basado en cinco principios fundamentales: pago justo, condiciones justas, contratos claros, gestión transparente y representación de los trabajadores. Su objetivo es auditar empresas que externalizan trabajo digital, incluidos los centros de anotación de datos de IA, y proporcionar puntuaciones que reflejen el grado de cumplimiento de estos principios. Entre las compañías auditadas se encuentra Sama, que proporciona servicios de etiquetado de datos para Meta y otros gigantes tecnológicos. En auditorías recientes, Sama recibió puntuaciones que oscilaban entre 3 y 5 sobre 10, reflejando mejoras parciales pero aún insuficientes en las condiciones laborales.

Condiciones laborales y repercusiones económicas

Los trabajadores de datos suelen encontrarse en países de bajos ingresos, como Kenia, Uganda o Filipinas, y desempeñan jornadas largas con salarios bajos, que en muchos casos se sitúan entre 2 y 5 dólares por hora. A esto se suman riesgos relacionados con la salud mental debido a la exposición constante a contenido sensible o la presión por cumplir objetivos de productividad muy exigentes. El desequilibrio entre el valor generado por los modelos de IA y la remuneración de quienes sostienen su entrenamiento es evidente: mientras una empresa puede generar millones de dólares gracias a un modelo entrenado, los trabajadores responsables de la calidad de los datos reciben compensaciones mínimas.

El mantenimiento de este sistema se asemeja al de otras industrias globales de bajo coste, como la moda rápida. Al igual que ocurrió con los informes sobre talleres de explotación en el sector textil en los años 90 y 2000, la exposición de las malas condiciones laborales en el entrenamiento de IA puede generar presión social y regulatoria, obligando a las empresas a implementar mejoras costosas si no se abordan los problemas desde el inicio. Como recuerda Graham, la visibilidad de la explotación puede afectar directamente a la reputación y competitividad de las compañías, especialmente en regiones con regulaciones más estrictas, como la Unión Europea. Según el Global AI Regulatory Landscape report, las compañías alineadas desde el principio con estándares internacionales de IA tendrán ventajas frente a la competencia cuando las regulaciones se apliquen de manera más estricta. Esto se traduce en auditorías internas, certificaciones y sistemas de control de calidad para el trabajo de anotación de datos, lo que también incrementa la profesionalización de los centros de datos en países de ingresos bajos.

Estudios de Fairwork en España

El segundo informe del equipo español de Fairwork analizó siete plataformas utilizando la metodología y principios del proyecto. Entre ellas, cinco ya habían sido estudiadas en el informe de 2024, y dos se incorporaron por primera vez: Cuideo, en el sector de cuidado de mayores a domicilio, y Livo, vinculado a la enfermería hospitalaria. También se examinaron Glovo y Just Eat en reparto de comida, Uber y Cabify en transporte de pasajeros, y Taskrabbit en servicios de mantenimiento y mudanzas. Aunque algunas plataformas mostraron mejoras en salarios mínimos y gestión justa, la mayoría no alcanzó estándares mínimos de trabajo justo. El informe refleja un progreso en la transición hacia un modelo basado en empleo formal, pero persisten desafíos estructurales, como la subcontratación, fragmentación de responsabilidades, bajos salarios y opacidad algorítmica. La formalización representa un primer paso, pero se requiere un esfuerzo continuado para establecer relaciones laborales más justas en la economía de plataformas.

Reformas posibles y desafíos regulatorios

Fairwork propone cambios prácticos que no necesariamente implican costes elevados. Establecer líneas de comunicación claras entre trabajadores y supervisores, limitar la duración de turnos, definir contratos transparentes y garantizar derechos básicos de representación pueden mejorar significativamente la calidad de vida laboral. Estas reformas no solo benefician a los trabajadores, sino que también contribuyen a la estabilidad y eficiencia de la cadena de suministro de IA.

Un desafío importante es el denominado “race to the bottom”: los países de bajos ingresos compiten por atraer inversión ofreciendo mano de obra barata, lo que ejerce presión a la baja sobre salarios y condiciones laborales. Filipinas, por ejemplo, es un mercado clave para anotación de datos, y la competencia internacional obliga a mantener costes bajos incluso frente a iniciativas de mejora laboral. Graham subraya que muchas mejoras son relativamente sencillas de implementar y no implican necesariamente un incremento significativo de costes, desde la transparencia en contratos hasta límites en la duración de turnos o supervisión adecuada, lo que respalda Nature en sus estudios sobre ética y sostenibilidad en IA.

Reflexiones finales

El creciente escrutinio sobre las condiciones laborales en la IA refleja una tendencia global hacia la transparencia y responsabilidad en la tecnología. A medida que los consumidores y reguladores toman conciencia del trabajo humano detrás de los algoritmos, la presión sobre las empresas para garantizar un entorno laboral justo aumenta. Esto no solo contribuye a la ética empresarial, sino que también mejora la calidad y fiabilidad de los modelos de IA, mostrando que la sostenibilidad tecnológica no se limita a la eficiencia de los algoritmos, sino que también incluye a las personas que los entrenan.

382
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x