Los especialistas en ética responden a la carta de ‘Pausa de la IA’ que dice ‘Ignorar los daños reales’


Un grupo de conocidos expertos en ética de la IA escribió un contrapunto a la controvertida carta de esta semana pidiendo una «pausa» de seis meses en el desarrollo de la IA, criticándola por centrarse en amenazas futuras hipotéticas cuando los daños reales son atribuibles al mal uso de la tecnología actual. .

Miles de personas, incluidos nombres conocidos como Steve Wozniak y Elon Musk, firmaron la carta abierta del instituto Future of Life a principios de esta semana, proponiendo detener el desarrollo de modelos de IA como GPT-4 para evitar «fugas». de control de nuestra civilización”, entre otras amenazas.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major y Margaret Mitchell son figuras importantes en los dominios de la inteligencia artificial y la ética, conocidas (además de por su trabajo) por haber sido expulsadas de Google por un artículo que criticaba las capacidades del AI. Actualmente están trabajando junto con el Instituto DAIR, un nuevo grupo de investigación destinado a estudiar, exponer y prevenir los daños asociados con la IA.

Pero no estaban en la lista de signatarios y ahora emitieron una reprimenda alegando la incapacidad de la carta para abordar los problemas existentes causados ​​por la tecnología.

“Esos riesgos hipotéticos están en el corazón de una peligrosa ideología llamada longtermismo que ignora los daños reales de la actual propagación de los sistemas de IA”, escribieron, citando la explotación de los trabajadores, el robo de datos, los medios sintéticos que defienden las estructuras de poder existentes y la mayor concentración de esos. estructuras de poder en menos manos.

Elegir preocuparse por un apocalipsis de robot tipo Terminator o Matrix es una pista falsa cuando, al mismo tiempo, tenemos informes de compañías como Clearview AI que la policía utiliza para incriminar a un hombre inocente. No es necesario un T-1000 cuando tiene cámaras de anillo en todas las puertas de entrada accesibles a través de fábricas de garantía de sellos de goma en línea.

Si bien el equipo de DAIR está de acuerdo con algunos de los objetivos de la carta, como la identificación de medios sintéticos, enfatizan que debemos actuar ahora, en los problemas actuales, con los remedios que tenemos a nuestra disposición:

Lo que necesitamos es una regulación que imponga la transparencia. No solo siempre debe quedar claro cuando nos encontramos con medios sintéticos, sino que también se debe exigir a las organizaciones que construyen estos sistemas que documenten y divulguen datos de capacitación y arquitecturas de modelos. La responsabilidad de crear herramientas que sean seguras de usar debe recaer en las empresas que construyen y distribuyen sistemas generativos, lo que significa que los constructores de estos sistemas deben ser responsables de los resultados producidos por sus productos.

La carrera actual hacia «experimentos de IA» cada vez más grandes no es un camino predeterminado en el que nuestra única opción es cuán rápido correr, sino más bien un conjunto de decisiones impulsadas por el afán de lucro. Las acciones y elecciones comerciales deben estar moldeadas por una regulación que proteja los derechos e intereses de las personas.

Realmente es hora de actuar: pero en el centro de nuestra preocupación no deberían estar las «mentes digitales poderosas» imaginarias. En cambio, deberíamos centrarnos en las prácticas explotadoras muy reales y muy presentes de las empresas que dicen construirlas, que están centralizando rápidamente el poder y aumentando las desigualdades sociales.

Por cierto, esta carta hace eco de un sentimiento que escuché de la fundadora de Uncharted Power, Jessica Matthews, en el evento AfroTech de ayer en Seattle: “No deberías tenerle miedo a la IA. Deberías tener miedo de las personas que lo construyen. (Su solución: convertirse en las personas que lo construyen).

Si bien es extremadamente improbable que una gran empresa acepte suspender sus esfuerzos de investigación de acuerdo con la carta abierta, está claro, a juzgar por el compromiso recibido, que los riesgos, reales e hipotéticos, de la IA son motivo de gran preocupación en muchos segmentos de la sociedad. Pero si no lo hacen, tal vez alguien tendrá que hacerlo por ellos.