25 preguntas que nos tenemos que plantear para saber si una inteligencia artificial es ética o no

Alberto Iglesias Fraga
La película 'Her' plantea una relación romántica entre el protagonista y una inteligencia artificial, Samantha, presente en su móvil y su ordenador.
La película 'Her' plantea una relación romántica entre el protagonista y una inteligencia artificial, Samantha, presente en su móvil y su ordenador.
  • La Unión Europea publicó este año un documento con unos principios básicos para el desarrollo de la inteligencia artificial ética. 
  • Dentro de esa propuesta existen decenas de preguntas que podemos plantearnos para determinar si un sistema de inteligencia artificial es ético o no.
  • En Business Insider España hemos seleccionado y contextualizado las 25 preguntas más relevantes.
  • Descubre más historias en Business Insider España.

Que la inteligencia artificial es la tendencia más nombrada del momento no es ninguna novedad. Que la IA es el gran campo de inversión de los grandes players de la industria tecnológica, tampoco.

Y tampoco es ningún secreto que existen numerosos temores en base al impacto laboral de esta tecnología y sus implicaciones éticas sobre la discriminación social, la personalidad humana o la seguridad física y cibernética.

En base a estas preocupaciones, la Unión Europea publicó este año un documento con unos principios básicos para el desarrollo de la inteligencia artificial ética.

Se trata todavía de una versión preliminar de las propuestas para que empresas y organismos públicos se aseguren de que cualquier desarrollo de IA cumple con unos mínimos morales básicos, pero, lo que es más: también establece una serie de cuestiones que podemos formularnos a nosotros mismos para saber si un sistema es ético o no.

De entre las decenas y decenas de preguntas que propone la Comisión Europea (y sobre las que algunos grupos de expertos y think tanks, como We The Humans en España, están trabajando para establecer códigos más concretos y específicos), destacamos a continuación 25 de ellas que nos pueden indicar, fuera de toda duda, si tenemos algo que temer al crear o usar un determinado servicio inteligente.

Leer más: Así es la inteligencia artificial ética que Pedro Sánchez propone desarrollar en España

Aspectos básicos

la inteligencia artificial será clave para el conocimiento del universo
Getty Images
  1. ¿El sistema de inteligencia artificial interactúa con las decisiones de los usuarios humanos (por ejemplo, recomendando acciones o decisiones a tomar)? O, dicho de otro modo, ¿podría el sistema de IA afectar la autonomía humana al interferir con la toma de decisiones del usuario?
  2. En el caso de un chatbot u otra tecnología conversacional basada en inteligencia artificial, ¿son los usuarios humanos conscientes de que están interactuando con un agente no humano?
  3. Una cuestión fundamental es si nos beneficia o perjudica, en última instancia, el avance tecnológico. Por ello, siempre debemos preguntarnos si el sistema de inteligencia artificial mejora o aumenta las capacidades humanas y si hemos tomado salvaguardas suficientes para evitar el exceso de confianza en las soluciones automatizadas.
  4. ¿El sistema de inteligencia artificial aprende por sí mismo? En caso afirmativo, ¿qué mecanismos existen para controlar ese aprendizaje?
  5. Poniéndonos en el peor escenario, el de una mente artificial malvada, ¿qué mecanismos de detección y respuesta se han establecido en caso de que algo vaya mal? ¿Hay algún botón de "abortar" que suspenda el funcionamiento del sistema? Piensen sin ir más lejos en un coche autónomo que, por cualquier error, se vuelva loco: el usuario tiene que ser capaz de suspender el sistema y tomar el control manual del vehículo.

Ciberseguridad y privacidad

seguridad ciberseguridad
  1. ¿Se han considerado diferentes tipos y naturalezas de vulnerabilidades, tales como la contaminación de datos, caída de la infraestructura o ciberataques, en el diseño del sistema de inteligencia artificial?
  2. ¿Has comprobado si el sistema de IA puede ser empleado como un arma de doble filo? En caso afirmativo, ¿has tomado precauciones para evitar que esto pueda suponer un peligro? La UE incluso llega a recomendar que, si existen dudas en este punto, directamente no despleguemos la solución de IA, no publiquemos su diseño y no la usemos bajo ningún concepto.
  3. ¿Existe una póliza de seguro para lidiar con el daño potencial provocado por la inteligencia artificial? ¿Está claro quién es el responsable legal de un incidente que involucre a la tecnología como autor material? 
  4. ¿Se han estimado los riesgos de que el sistema de IA proporcione resultados incorrectos, inaceptables socialmente (sesgos discriminatorios) o directamente no arroje ningún resultado?
  5. Respecto a los sesgos, ¿cómo se ha asegurado de que los datos sobre los que se entrena el algoritmo son representativos y justos para evitar discriminaciones raciales, de sexo o cualquier otra consideración?
  6. ¿Se están respetando los principios básicos de privacidad, establecidos por el GDPR, a la hora de captar, procesar y obtener resultados en base a datos personales?
  7. ¿Has considerado otras formas de desarrollar el sistema de inteligencia artificial o entrenar el modelo sin o con un uso mínimo de datos potencialmente sensibles o personales? Aquí el que menos juegue con información sensible es el que gana la partida.
  8. ¿Existen estándares relevantes (por ejemplo, ISO, IEEE) o protocolos ampliamente adoptados para la gestión diaria de datos y la gobernanza de los datos?
  9. ¿Hay mecanismos de supervisión para la recolección, el almacenamiento, el procesamiento y el uso de los datos?  
  10. ¿Cómo estás verificando que los conjuntos de datos no hayan sido comprometidos o pirateados previamente?

Precisión y sesgos

La inteligencia artificial podría mejorar la calidad de la música que escuchas
  1. La propuesta de la Comisión Europea recomienda evaluar qué nivel y definición de precisión se requiere en el contexto particular de cada sistema de inteligencia artificial, en proporción al caso de uso que se pretende resolver.
  2. Y una vez establecidos esos niveles óptimos, ¿cómo se evalúa y controla esa precisión? ¿Qué mecanismos se han establecido para corregir al sistema si se produce alguna alteración imprevista?
  3. ¿Se han implementado medidas para garantizar que los datos utilizados sean completos y estén actualizados? ¿Afectan los conjuntos de datos de manera negativa a la precisión o a los sesgos de la IA? ¿Consideraste la diversidad y representatividad de los usuarios en los datos? ¿Has probado el sistema en poblaciones o casos de uso problemáticos?
  4. ¿Existe alguna estrategia para monitorizar y probar si el sistema de IA cumple los objetivos, propósitos y objetivos establecidos en un inicio?
  5. ¿Se han probado los sistemas previamente? ¿Se pueden reproducir esos tests por parte de laboratorios, entidades o autoridades independientes para comprobar la fiabilidad de los sistemas de inteligencia artificial?

Y mucho más

Inteligencia artificial
Getty Images
  1. ¿Hasta qué punto se pueden entender las decisiones y, por tanto, el resultado realizado por el sistema de inteligencia artificial? ¿En qué medida la decisión del sistema influye en los procesos de toma de decisiones de una empresa o un particular?
  2. ¿Se ha etiquetado el sistema de IA como tal? ¿Se ha informado los usuarios sobre las razones y los criterios detrás de la tecnología en cuestión? ¿Y acerca de los riesgos potenciales, como el sesgo discriminatorio o la fatiga cognitiva?
  3. Con el fin de favorecer la universalidad de la inteligencia artificial, la UE recomienda evaluar si el sistema de IA es utilizable por aquellos con necesidades especiales o discapacidades físicas o psíquicas, así como por parte de personas en riesgo de exclusión social.
  4. Las implicaciones de la inteligencia artificial va mucho más allá de las líneas de código usadas en los algoritmos. En esa línea, también debemos comprobar si existen mecanismos establecidos para medir el impacto ambiental del desarrollo de esta tecnología, su implementación y su uso (por ejemplo, en el consumo energético de los centros de datos que den soporte a estos sistemas).
  5. Finalmente, nos hemos de cuestionar algunas preguntas mucho más profundas sobre la esencia misma de la inteligencia artificial. ¿Nos ayuda a desarrollar apego y empatía hacia el sistema? ¿El algoritmo se asegura de recordarnos claramente que toda su interacción social es simulada y no puede ni comprender ni sentir?  

Conoce cómo trabajamos en Business Insider.