Hacer más preguntas y hablar más sobre la ética en los algoritmos es algo "urgente" para lo que es imprescindible "invertir en educación", advierten los expertos

Un fotograma de 'Humans', una de las series de televisión que explora el debate sobre la ética en la inteligencia artificial.
Un fotograma de 'Humans', una de las series de televisión que explora el debate sobre la ética en la inteligencia artificial.

AMC / Channel 4

  • Varios expertos discuten por qué es más urgente que nunca hablar de ética en algoritmos ante el imparable desarrollo de la inteligencia artificial y el aprendizaje automático.
  • ¿Deben las máquinas inteligentes tener derechos? ¿De quién es una canción si la ha escrito una IA? ¿Somos más honestos cuando hablamos con Siri? Las preguntas que respondieron.
  • Descubre más historias en Business Insider España.

Un algoritmo en un banco que ofrece créditos más caros a las mujeres por el hecho de ser mujeres. Una inteligencia artificial que es capaz de simular una voz humana y engañar a una persona al teléfono. Un dron capaz de despegar solo, fijar un objetivo y disparar sin intervención humana.

Los desafíos de la tecnología son múltiples, y desde que se desarrolla con más intensidad la inteligencia artificial y sus derivadas, como el aprendizaje automático, más. Sin embargo, la sociedad está llegando tarde a un debate que resulta ineludible.

Se trata del debate de la ética en los algoritmos. Del impacto social de las IA. Varios expertos participaron hace unos días en un webinar organizado por SAS, una firma de soluciones analíticas, de la mano de la revista Forbes. Entre los participantes estuvieron el futurista Bernard Marr, escritor superventas especializado en IA y digitalización empresarial, y Ieva Martinkenaite, vicepresidenta de Telenor para asuntos de Analítica e IA.

El primero comenzó reivindicando el potencial de la inteligencia artificial para, por ejemplo, democratizar y agilizar diversos sectores como puede ser el de la salud. Pero tardó poco en recordar los riesgos que apareja esta tecnología. También desde un punto de vista psicológico.

La propiedad y la responsabilidad humana en la IA

Para ello, ejemplificó con el procesado del lenguaje natural y cómo la IA y el machine learning de asistentes de voz —como Alexa o Siri— son constantemente entrenados para mejorar su comprensión sobre cómo se comunican los humanos. En España, una startup ya trabaja para hacer las máquinas empáticas a la hora de mantener conversaciones, para entender cómo se sienten sus interlocutores.

“Si el certificado nos facilita la vida, habrá que implementarlo”: el jefe del Área Normativa en el Centro Criptológico Nacional, a favor del pasaporte de vacunación

"Parece que somos más honestos cuando hablamos con un asistente de voz que cuando lo hacemos con un ser humano", detalló Marr, al tiempo que acentuó los peligros que supone por ser una nueva vía para propagar noticias falsas o manipulaciones. Por ejemplo, losdeepfakes, vídeos en los que una IA es capaz de reemplazar un rostro humano como demostró recientemente un anuncio de una cerveza en España con el rostro de Lola Flores.

"Necesitamos una regulación ya", adujo el escritor. "El de la IA es un problema moral que requiere de urgencia". Por ejemplo, ¿quién es el responsable cuando un dron autónomo es capaz de despegar, marcar un objetivo y disparar contra el mismo sin que interactúe ningún ser humano? "Es básicamente asegurarnos de que los humanos controlamos ese bucle, que pulsamos el botón".

"Otro desafío es el de la propiedad". Son varios los titulares en prensa que detallan cómo una IA es capaz de crear obras de arte, como canciones o poemas. "¿Quién es el propietario de esa creación? ¿Quién ostenta la propiedad intelectual?", se pregunta el futurista.

Los humanos se hacen a menudo preguntas y dilemas morales. Un tren no tiene frenos y puede arrollar o cinco desconocidos o a un amigo tuyo: ¿a quién salvas? "Tenemos que exponer a las máquinas a este tipo de decisiones. Asegurarnos de que los programas entienden cuáles son nuestras preferencias éticas".

La innovación conlleva riesgos empresariales

Martinkenaite habló desde un punto de vista más empresarial. "Cuando se introduce la IA en un negocio muchas veces me hacen la pregunta sobre qué es la ética o qué es la ética en algoritmos", explica. "Para mí es algo que va sobre lo que está bien y lo que está mal". "¿Cuál es el valor de una vida humana? ¿Qué es la justicia? Es muy complicado", resume.

La directiva de Telenor, una teleco estadounidense, reivindicó en su exposición los principios y recomendaciones que ha marcado la Comisión Europea para el desarrollo y despliegue de tecnologías de inteligencia artificial. Unos principios que resumía en cuatro puntos: respetar la autonomía humana, prevenir daños, no discriminar y garantizar que la tecnología sea explicable y comprensible.

Pero también recordó que cuando una empresa apuesta por el desarrollo de estas tecnologías lo hace asumiendo ciertos riesgos. "Algo natural en los negocios". "No hay que olvidar que invertir en esta tecnología es hacer equilibrios entre experimentar e innovar y riesgos". Para Martinkenaite tampoco se puede obviar el hecho de que solo el 10% de las firmas tecnológicas son disruptoras en estos entornos, y el resto de empresas dependen de ellas: Google, Microsoft...

Los ciberataques a la administración se disparan tras el golpe al SEPE: un organismo de Hacienda alerta de que lo están suplantando con correos maliciosos

Pero la especialista reivindicó el papel de la educación. "No se puede hablar de ética en la IA si no se tiene IA. Para colmar las ambiciones sobre el aprendizaje automático hay que invertir en talento. En científicos de datos, en ingenieros, en desarrolladores de software". "Hay que potenciar esas inversiones en educación, también en el sector público".

Cómo surgen los sesgos en la IA

Algo en lo que Bernard Marr concuerda. "Hay un sesgo cultural" que se puede derribar con educación. "Hay mucho sesgo en la IA". "Si buscas colegial vas a tener unos resultados en plataformas de búsqueda y si buscas colegiala obtendrás otros tantos, pero con connotaciones sexuales", ejemplificaba, para detallar cómo es el sesgo de género que existen en estas maquinarias.

"Hablar de ética en algoritmos es a fin de cuentas hablar de derechos. ¿Los robots inteligentes tendrán derechos? Creo que es necesario hacer un ejercicio tanto como sociedad como empresas, necesitamos hablar más sobre esto y explicarle a la gente qué es y qué puede hacer la inteligencia artificial".

En España la especialista Gemma Galdon es la principal experta en ética de algoritmos. En Business Insider España ya ha explicado cómo surgen estos algoritmos y cómo se puede combatirlos, así como pueden afectar a las mujeres que están bancarizadas o por qué las tecnológicas todavía no han querido exponerse verdaderamente a este debate.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.