No descuides la independencia en la IA responsable


La llegada de ChatGPT y otros modelos de lenguaje extenso (LLM) trajo la noción de ética de IA a la discusión principal. Esto es bueno porque arroja luz sobre el área de trabajo que lleva tiempo lidiando con estos temas. Este es el campo de la IA responsable, y no solo se aplica a ChatGPT y LLM, sino a cualquier aplicación de IA o aprendizaje automático que pueda impactar a las personas en el mundo real. Por ejemplo, los modelos de IA podrían decidir si aprobar su solicitud de préstamo, llevarlo a la siguiente ronda de entrevistas de trabajo, presentarlo como candidato para atención médica preventiva o determinar si reincide cuando está en libertad condicional.

Si bien el campo de la IA responsable está ganando terreno en la empresa (impulsado en parte por una regulación inminente como la Ley de IA de la UE), existen problemas con los enfoques actuales para implementar la IA responsable. Tal vez debido a la IA y el analfabetismo de datos en las grandes organizaciones, el trabajo de IA responsable a menudo se subcontrata a equipos de ciencia de datos. Estos equipos suelen estar compuestos por científicos que tienen la tarea de diseñar y construir modelos de IA efectivos y precisos (la mayoría de las veces utilizan técnicas de aprendizaje automático).

La conclusión clave aquí es que no es el enfoque correcto establecer los equipos (y por asociación, las tecnologías que usan) que construyen los modelos para evaluarlos objetivamente.

Los campos fuera de la IA tienen una larga y exitosa historia de demanda de independencia en las auditorías. Según lo exige la Comisión de Bolsa y Valores (SEC) de los Estados Unidos, el auditor financiero de una empresa debe ser completamente independiente de la empresa en cuestión. De la SEC: “Asegurar la independencia del auditor es tan importante como asegurar que los ingresos y gastos se informen y clasifiquen correctamente.

La independencia también es un requisito clave en el proceso de Gestión de riesgos de modelos (MRM), un proceso mediante el cual los modelos estadísticos desarrollados en instituciones financieras se prueban y verifican de forma independiente. Cada uno de los tres niveles de MRM (desarrollo de modelos, validación de modelos y auditoría interna) debe mantener una estricta independencia entre sí.

Por lo tanto, no debemos ignorar este valioso historial de independencia de auditoría al implementar IA responsable. En este campo, los modelos y datos de IA deben medirse para que aspectos como la equidad, la desigualdad, la privacidad, la solidez, etc. puede cuantificarse y evaluarse frente a los procesos, principios y marcos de una organización.

La independencia en la IA responsable debe aplicarse tanto a las personas que realizan las evaluaciones como a la tecnología que utilizan para realizarlas. Esto es importante porque:

  • Las personas pueden estar a la defensiva de los modelos que han construido. Esto es bastante comprensible ya que probablemente invirtieron mucho tiempo y esfuerzo en este modelo; sin embargo, con esto en mente no puedo evaluar objetivamente mi propio trabajo.
  • Los modelos de IA a menudo se construyen y entrenan utilizando código personalizado escrito por científicos de datos. Las personas cometen errores en todas las líneas de trabajo, en este contexto daría lugar a errores o errores en el código. Las buenas prácticas de software promueven la reutilización del código, por lo que es probable que se utilice el mismo código para la evaluación del modelo.
  • Al diseñar un modelo de IA y curar los datos, las personas hacen suposiciones y juicios en el proceso (y estos a menudo están codificados en el software). Un proceso completamente independiente no necesita estar basado en estas suposiciones.
  • Las herramientas de software automatizadas pueden crear modelos para un científico de datos (estas tecnologías a menudo se denominan herramientas AutoML). Se venden como más rápidos, más fáciles y más baratos para construir un modelo que un enfoque manual. Sin embargo, si proporcionan la medida técnica de los modelos que acaban de construir, simplemente están evaluando sus propias tareas.
  • Es probable que una organización comercial (o gubernamental) tenga muchas plantillas, no solo una. Para tener una gobernanza efectiva de estos modelos a gran escala, las métricas cuantitativas deben ser comparables entre modelos. Si los equipos de creación de modelos crean nuevas métricas que consideran apropiadas para cada uno de sus modelos, será casi imposible compararlas con los estándares corporativos a escala.

Al involucrar equipos y tecnologías más amplios en el proceso de IA responsable, también se beneficiará al incorporar un conjunto diverso de habilidades y puntos de vista. La IA responsable requiere experiencia en ética, legal, gobernanza, cumplimiento y derecho (por nombrar solo algunos), y los profesionales de estas habilidades deben estar armados con métricas cuantitativas independientes en las que puedan confiar.

A medida que tecnologías como ChatGPT crean conciencia sobre los problemas éticos asociados con la IA, cada vez más ejecutivos se dan cuenta de las consecuencias no deseadas de su propia IA. Incluso si no entienden los tecnicismos de su IA, un proceso de IA eficaz y responsable les da la confianza de que existen las medidas de seguridad adecuadas.

Si bien los campos de la inteligencia artificial y el aprendizaje automático están evolucionando rápidamente y los equipos solo están lidiando con los problemas éticos y regulatorios asociados con ellos, los principios de auditoría efectivos no son nuevos. A medida que los equipos diseñan sus procesos de IA responsable, vale la pena tomarse un momento para ver lo que ya se sabe.

Sobre el Autor

El Dr. Stuart Battersby es Director de Tecnología de Chatterbox Labs y tiene un doctorado en Ciencias Cognitivas. Chatterbox Labs es una empresa de software de IA responsable cuya plataforma AI Model Insights valida de forma independiente modelos y datos de IA empresarial.

Regístrese para recibir el boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: https://twitter.com/InsideBigData1

Únase a nosotros en LinkedIn: https://www.linkedin.com/company/insidebigdata/

Únase a nosotros en Facebook: https://www.facebook.com/insideBIGDATANOW