IA: ¿progreso o peligro? La verdad que no te quieren contar
Detrás de las nuevas herramientas de IA de los gigantes tecnológicos, hay trabajadores "invisibles". Esto es lo que hacen quienes la entrenan.
Para entrenar a los algoritmos de aprendizaje automático, los datos en bruto requieren un proceso inicial de "etiquetado" realizado por humanos, y también es necesario que una persona evalúe su precisión. Este etiquetado consiste en asignar etiquetas o categorías a cada elemento del conjunto de datos, proporcionando contexto y permitiendo que el algoritmo aprenda. Puede ir desde lo más sencillo, como identificar farolas en imágenes o comparar productos similares de e-commerce, hasta tareas más complejas, como la moderación de contenido, en la que se clasifica el contenido violento, discurso de odio o imágenes para adultos de los datos extraídos de todo Internet.
Este tipo de trabajo "invisible" es crucial para la IA y las grandes empresas tecnológicas suelen subcontratarlo a trabajadores externos, especialmente del sur global, a través de plataformas de crowdsourcing online como Toloka, Appen, Clickworker, OneForma y Teemwork.AI. Según Business Insider, algunos de estos trabajadores remotos han ganado menos de dos euros por hora por etiquetar escenas de abuso sexual a menores, zoofilia y otros contenidos por el estilo para OpenAI, la empresa detrás de ChatGPT —una remuneración ridículamente baja en comparación con los salarios de sus empleados—. ¿Y quiénes son? Repartidores, presos, refugiados, operarios de bodegas...y niños.
Así es. Investigadores de Estados Unidos y China encontraron pruebas de que hay muchos niños y adolescentes expuestos a este tipo contenido —claramente no apto para menores—, trabajando para entrenar diferentes modelos de IA alrededor del mundo, según reporta el portal Wired. Hassan (pseudónimo), un joven pakistaní de 18 años que comenzó a trabajar para Toloka a los 15, dio su testimonio al medio de comunicación y dice que el contenido explícito que tuvo que moderar sigue pesando en su salud mental, pero continuó por la necesidad de ganarse la vida. Estos menores, en su mayoría, entre 7 y 17 años, viven en Pakistán, Venezuela, Kenia, Filipinas, India, África Oriental y China. ¿Pero cómo es posible que las plataformas contraten a menores? ¿Sus clientes tecnológicos lo saben?
Las plataformas exigen a sus usuarios que tengan mínimo 18 años. Algunas solo les piden que lo declaren. Otras usan controles de edad más avanzados con tecnología de reconocimiento facial para comparar la foto del documento de identidad con el rostro de los trabajadores. Sin embargo, los menores simplemente usan la identificación de sus padres o algún familiar. Y, si es necesario, acercan su móvil a la cara de un adulto, lo cual es suficiente para pasar los controles. Según el reporte de Wired, la práctica es bastante común en Pakistán y Kenia.
Otra forma en que los menores acceden a estas plataformas es mediante una cuenta compartida en familia. Julian Posada, profesor de la Universidad de Yale, quien estudia el trabajo humano en la industria de la IA, conoce hogares venezolanos donde los niños sustituyen a los padres cuando estos toman un descanso del etiquetado de datos.
Empresas como Amazon, Google, Nvidia, Adobe, Microsoft Azure, Salesforce y Boeing son clientes de estas plataformas. Estas publican las microtareas de sus clientes, y los trabajadores entran y eligen alguna. El asunto es los gigantes tecnológicos no se involucran en el proceso precisamente por tratarse de una subcontratación. Todo esto deja en evidencia una "esclavitud digital infantil" por falta de supervisión y de reglas adecuadas que protejan los derechos de adultos y menores.