Monsumi Murmu, de 26 años, trabaja desde el porche de su casa en Jharkhand clasificando contenido para una gran plataforma tecnológica. Su jornada implica ver hasta 800 videos e imágenes diarias de violencia, abuso y daño, incluida agresión sexual explícita, para entrenar algoritmos de inteligencia artificial. "Los primeros meses no podía dormir. Cerraba los ojos y seguía viendo la pantalla cargando", relata Murmu a The Guardian. Ahora, dice, "al final no te sientes perturbada, te sientes vacía". Su caso ejemplifica la realidad cotidiana de miles de "trabajadoras fantasma" en la India rural, cuya salud mental es sacrificada en el altar del contenido que nutre a la Inteligencia Artifical internacional.

Esta fuerza de trabajo, en un 80% procedente de zonas rurales o comunidades marginadas como los dalits y adivasis, es deliberadamente reclutada por empresas que se instalan en ciudades pequeñas para abaratar costes salariales. Las mujeres son consideradas "confiables, detallistas y más propensas a aceptar trabajo basado en el hogar", explica la investigadora Priyam Vadaliya. Sin embargo, esta "respetabilidad" y la rareza del empleo remunerado en estos entornos crean "una expectativa de gratitud" que silencia las quejas por el daño psicológico, agrega Vadaliya. Esto es algo que las empresas tecnológicas escogen conscientemente. El mercado de anotación de datos en India valía 250 millones de dólares en 2021, con el 60% de sus ingresos procedentes de Estados Unidos.

La carga traumática en estas trabajadoras es sistémica y deliberadamente oculta. Raina Singh, otra trabajadora, fue asignada sin previo aviso a moderar contenido de abuso sexual infantil y luego a categorizar pornografía durante horas. "Ni siquiera puedo contar a cuánto porno estuve expuesta. Era constante, hora tras hora... la idea del sexo empezó a asquearme", describe Singh. Cuando protestó, le respondieron que "esto es trabajo de Dios: estás manteniendo a los niños a salvo". La socióloga Milagros Miceli, que lidera una investigación sobre trabajadores de datos, afirma que la moderación de contenido "pertenece a la categoría de trabajo peligroso, comparable a cualquier industria letal".

Las empresas, por supuesto, eluden toda responsabilidad. De ocho compañías consultadas por el Guardian, solo dos afirmaron proporcionar algún tipo de "apoyo psicológico", sin dar muchos detalles. Los estrictos acuerdos de confidencialidad (NDA) prohíben a las trabajadoras hablar del contenido incluso con sus familias, intensificando el aislamiento que padecen. La legislación laboral india no reconoce el daño psicológico como riesgo laboral, dejando a las trabajadoras sin protección alguna. Murmu, con un sueldo de unos 260 euros mensuales, teme más al desempleo que a los traumas: "Encontrar otro trabajo me preocupa más que el trabajo en sí". Mientras, busca alivio en paseos por el bosque: "Me siento bajo el cielo abierto e intento notar el silencio a mi alrededor".