Los trabajadores que hicieron que ChatGPT fuera menos dañino piden a los legisladores que frenen la supuesta explotación por parte de las grandes tecnológicas

Los trabajadores de Kenia que ayudaron a eliminar contenido dañino en ChatGPT, el motor de búsqueda inteligente de OpenAI que genera contenido basado en las sugerencias de los usuarios, solicitaron a los legisladores del país que inicien investigaciones sobre la externalización de la moderación de contenido del trabajo de inteligencia artificial y gran tecnología en Kenia.
Los signatarios quieren que se investigue la «naturaleza del trabajo, las condiciones laborales y las operaciones» de los servicios de subcontratación de grandes tecnologías a Kenia a través de empresas como Sama, que está en el centro de numerosas controversias sobre supuesta explotación, represión sindical y despidos ilegales. masa de moderadores de contenido.
La petición sigue a un informe de Time que detallaba la lamentable remuneración de los trabajadores de Sama que hacían que ChatGPT fuera menos tóxico y la naturaleza de su trabajo, que requería leer y etiquetar texto gráfico, incluida la descripción de escenas de asesinato, bestialidad y violación. El informe indicó que, a fines de 2021, OpenAI le encargó a Sama que «etiquetara descripciones textuales de abuso sexual, discurso de odio y violencia» como parte del trabajo para construir una herramienta (integrada en ChatGPT) para detectar contenido tóxico.
Los trabajadores dicen que han sido explotados y no han recibido apoyo psicosocial, pero han estado expuestos a contenido dañino que los ha dejado con una «enfermedad mental grave». Los trabajadores quieren que los legisladores “regulen la subcontratación de tecnología dañina y peligrosa” y protejan a los trabajadores que lo hacen.
También les piden que promulguen una legislación que regule «la subcontratación de trabajos tecnológicos dañinos y peligrosos y proteja a los trabajadores que participan en tales compromisos».
Sama dice que cuenta con el 25% de las empresas de Fortune 50, incluidas Google y Microsoft, como sus clientes. El negocio principal de la empresa con sede en San Francisco es la anotación, conservación y validación de datos de visión artificial. Emplea a más de 3000 personas en sus centros, incluido uno en Kenia. A principios de este año, Sama abandonó sus servicios de moderación de contenido para centrarse en anotar datos de visión artificial, despidiendo a 260 trabajadores.
La respuesta de OpenAI a la supuesta explotación reconoció que el trabajo fue un desafío y agregó que estableció y compartió estándares éticos y de bienestar (sin proporcionar más detalles sobre las medidas exactas) con sus registradores de datos para que el trabajo se entregara «humanamente y de buena gana».
Señalaron que para construir una IA segura y beneficiosa, anotar datos humanos fue una de las muchas corrientes de su trabajo para recopilar comentarios humanos y guiar modelos hacia un comportamiento más seguro en el mundo real.
«Reconocemos que este es un trabajo desafiante para nuestros investigadores y anotadores en Kenia y en todo el mundo. Sus esfuerzos para garantizar la seguridad de los sistemas de IA han sido inmensamente valiosos», dijo el portavoz de OpenAI.
Sama le dijo a – que está abierto a trabajar con el gobierno de Kenia «para garantizar que todas las empresas cuenten con protecciones básicas». Dijo que da la bienvenida a las auditorías de terceros de sus condiciones de trabajo, y agregó que los empleados tienen múltiples canales para plantear inquietudes y que ha «realizado múltiples evaluaciones y auditorías externas e internas para garantizar que estamos pagando salarios justos y brindando un ambiente de trabajo decente».