Pasar al contenido principal

Los 5 puntos éticos que Amazon plantea para regular la inteligencia artificial

Jeff Bezos, CEO de Amazon
Jeff Bezos, CEO de Amazon Wikimedia Commons
  • Amazon lanza cinco propuestas para regular las tecnologías de reconocimiento facial, con el foco puesto en que los gobiernos no se salten los derechos civiles en el uso de la inteligencia artificial.
  • En su lista de normas apenas hay referencias al uso empresarial de la inteligencia artificial, a diferencia de las propuestas realizadas por otros competidores como Microsoft, Samsung o Telefónica.
  • Amazon ha sido duramente criticada por los sesgos de su tecnología de IA, que discrimina de forma constante a mujeres y minorías étnicas.

Los dilemas éticos en torno a la inteligencia artificial no son nada nuevo. Ante la falta de regulación en este tema, Microsoft propuso el pasado curso cinco principios (que sea inclusiva, transparente, cuantificable, justa, fiable y segura) que podrían seguir los principales actores en estas lides. Unas normas muy parecidas replicó Telefónica en otra guía. Hasta Samsung se lanzó a la piscina por boca de su CEO, H.S. Kim, en el reciente CES de Las Vegas, resumiendo su aportación en tres claves: justa, responsable y transparente.

La última empresa en sumarse a esta lista es Amazon, firma que ha hecho su particular propuesta de cinco normas éticas para seguir impulsando la inteligencia artificial -el reconocimiento facial, para ser más exactos- mientras se mantiene el respeto a los derechos civiles básicos.

Leer más: Los deberes de Europa para convertirse en referente en Inteligencia Artificial

En una entrada publicada en el blog de la compañía, el vicepresidente de políticas públicas globales de Amazon Web Services, Michael Punke, exponía su petición de que las autoridades (norteamericanas en este caso) creen "un marco legislativo nacional apropiado que proteja los derechos civiles individuales y garantice que los gobiernos sean transparentes en su uso de la tecnología de reconocimiento facial".

¿Cómo lograr estos objetivos? Amazon propone, como decíamos, cinco elementos fundamentales que deberían incluirse en cualquier ley sobre inteligencia artificial que se precie de cara al futuro:

  • "El reconocimiento facial siempre debe usarse de acuerdo con la ley, incluidas las leyes que protegen los derechos civiles".
  • "Cuando la tecnología de reconocimiento facial se utiliza en la aplicación de la ley, la revisión humana es un componente necesario para garantizar que el uso de una predicción para tomar una decisión no viole los derechos civiles". 
  • "Cuando la aplicación de la ley utiliza la tecnología de reconocimiento facial para la identificación de personas, o de una manera que podría amenazar las libertades civiles, se recomienda un umbral de 99% de confianza". 
  • "Las agencias de aplicación de la ley deben ser transparentes en la forma en que usan la tecnología de reconocimiento facial".
  • "Debería haber un aviso cuando la tecnología de videovigilancia y reconocimiento facial se utilicen juntas en entornos públicos o comerciales".

Sugerencias que, como puede verse, están más orientadas a evitar que los gobiernos aprovechen las lagunas legislativas en el uso de la inteligencia artificial. Por el contrario, las menciones al uso empresarial de esta tecnología -como el que hace la propia AWS- son prácticamente residuales, lo que deja bastante lejos las aspiraciones de este código moral respecto al propuesto por Microsoft, Samsung o Telefónica.

Leer más: Robots con valores: los desafíos éticos de la Inteligencia Artificial

La ironía es que la propia Amazon Web Services se salta algunos derechos civiles básicos en su técnica comercial. De hecho, la compañía ha sido recientemente criticada por los sesgos discriminatorios de su tecnología de inteligencia artificial. Según un estudio del MIT Media Lab (disponible aquí), sus sistemas discriminan de forma constante a las minorías. 

En concreto, los investigadores han comprobado que la tecnología de Amazon clasificaba a las mujeres de piel oscura como hombres el 31% de las veces, mientras que las mujeres de piel más clara se identificaron erróneamente solo el 7% de las veces. Al mismo tiempo, los hombres de piel más oscura tenían una tasa de error del 1%, mientras que los hombres de piel más clara no tenían ninguna.

Y además