Soy responsable de ética para la IA: me aseguro de que la tecnología se despliega de forma segura en el mundo, pero no soy un oráculo

Aaron Mok
| Traducido por: 
sdfsdfsdf

Cortesía Giada Pistilli

  • Giada Pistilli, de 31 años, es la principal especialista en ética de Hugging Face y su trabajo consiste en garantizar que la IA se despliega de forma segura. 
  • El objetivo principal de su investigación es conocer cómo el público puede utilizar la IA para el bien. 
  • Esto es lo que implica su trabajo como responsable de ética de la IA, según declara a Business Insider.

Este artículo se basa en una entrevista con Giada Pistilli, de 31 años, que reside en París, sobre su trabajo como responsable de ética en la empresa de IA Hugging Face. El texto se ha editado por motivos de extensión y claridad.

Soy experta en ética de la IA y mi trabajo consiste en que esta tecnología se despliega de forma segura en el mundo. 

Pero no nos engañemos: no soy ningún oráculo. 

Mi trabajo podría resumirse en que planteo retos éticos, políticos y de derecho para establecer el marco en el que impulsar la IA dentro de Hugging Face y por extensión al resto del público. La pregunta principal que impulsa mi trabajo es: ¿cómo puede la gente utilizar la IA para el bien?

Antes trabajaba como asesora política del Parlamento Europeo en temas de derechos humanos, pero lo dejé para cursar un máster en Filosofía Política y Ética en la Universidad de la Sorbona y, más tarde, me saqué el doctorado en Filosofía en la misma universidad, donde ahora estoy terminando mi tesis sobre la ética de la IA conversacional. 

Una vez finalizado el máster, trabajé en una empresa de chatbot con sede en París, donde colaboré como experta en ética con diseñadores e ingenieros de aprendizaje automático en investigación ética aplicada. 

Más tarde entré en BigScience, un proyecto que forma parte de Hugging Face, una plataforma de recursos de IA y aprendizaje automático de código abierto, para hacer público el modelo de lenguaje GPT.

Primero me puse en contacto con Hugging Face para saber cómo podía ayudar a construir Bloom, su gran modelo lingüístico. Colaboré con la empresa como parte de su grupo de trabajo jurídico y ético, y 3 meses después, en mayo de 2022, me contrataron como su principal responsable de ética. Trabajo allí desde entonces.

El 60% de mi tiempo lo dedico a investigar, lo que incluye leer artículos académicos sobre ética y estudios técnicos de IA, así como publicar mis propias investigaciones sobre temas como los estatutos y las directrices éticas para las empresas. El resto lo dedico a colaboraciones y a la redacción de informes sobre los proyectos internos.

Formo parte de un equipo llamado ML and Society formado por varios investigadores científicos, un asesor jurídico y un director de políticas. Nos reunimos una vez a la semana para investigar y debatir las tensiones de la IA, como los sesgos en los modelos, las aplicaciones seguras de la IA y las políticas públicas.

¿Qué es la inteligencia artificial general? Cómo la tecnología podría dejar completamente obsoletos a los seres humanos

También proporciono asesoramiento ético y orientación para proyectos externos. Uno de ellos ha sido llevar Stable Diffusion a nuestra plataforma e investigar cómo desplegar de forma segura la IA en el espacio sanitario. 

A primera hora de la mañana, dedico entre 30 y 45 minutos a comprobar los últimos informes de moderación de contenidos de Hugging Face. Después, investigo o trabajo en nuevos documentos hasta la hora de comer.

Hacia el mediodía, ayudo a mis colegas en proyectos específicos, como la actualización de la política de moderación de contenidos de nuestra compañía. Hace poco asesoré a un cliente del sector sanitario sobre cómo desplegar la IA de forma ética, haciéndole preguntas orientativas, por ejemplo, si tenía las licencias adecuadas o si hará públicos sus modelos.

Algunos días me encargo de resolver situaciones urgentes en la plataforma, como discusiones tensas entre usuarios o casos de IA que han causado problemas, mientras que el resto del día lo dedico a la investigación.

El principal reto al que me enfrento es que la gente me ve como una policía moral que tiene el poder de determinar lo que está bien y lo que está mal. Esta percepción puede ser peligrosa porque no tengo todas las respuestas y hay cuestiones muy complicadas de resolver éticamente. Cuanto más estudio la ética, menos segura estoy de lo que sé.

Por ejemplo, un periodista acusó a Hugging Face de que el modelo lingüístico de la empresa había plagiado uno de sus artículos. Por supuesto, estuve encantada de ayudar, pero es una situación delicada de abordar.

Europa quiere ser la vanguardia ética de los algoritmos, pero tiene un oscuro pasado: así son las IA financiadas por Bruselas que ya pueden generar discriminación

Tampoco es justo que nos pongan en un aprieto cada vez que pasa algo malo. No hay más que ver cómo han tratado las grandes empresas tecnológicas a sus especialistas en ética: ha sido una carnicería.

Los filósofos —y, en general, todas las humanidades— son muy necesarios a medida que avanza la inteligencia artificial. Los responsables de ética plantean situaciones complicadas que rodean a nuestra humanidad y que pueden ponerla en peligro. 

También ayudan a proyectar —no a predecir— un futuro ideal para la sociedad, de modo que esté más cerca de la utopía que de la distopía. Por eso espero que la comunidad tecnológica se tome más en serio el papel de los especialistas en ética de la IA.

Conoce cómo trabajamos en Business Insider.