Los procesadores de texto impulsados por IA generan un lenguaje ofensivo que las propias máquinas son incapaces de corregir, según un estudio

Ordenador escribiendo

Getty Images

  • Una reciente investigación de DeepMind, una empresa inglesa de desarrollo de IA, revela fuertes disparidades entre el lenguaje tóxico detectado por humanos en textos producidos por máquinas y lo que estas son capaces de identificar como tal.
  • Al tratar de corregir su toxicidad, algunos sistemas identifican multitud de falsos positivos: erróneamente, marcan palabras como "gay" como necesariamente ofensivas sin considerar el contexto.
  • Se trata de un problema con difícil solución, pues, tal y como reconoce el propio informe, algunos modelos automáticos de mitigación de lenguaje tóxico en IA se limitan a suprimir todo lo relacionado con las minorías sociales.
  • Descubre más historias en Business Insider España.

Se esperan grandes cosas de la IA en los próximos años. La explosión de esta tecnología hace algo más de un lustro trajo consigo la promesa de que, en no mucho tiempo, los ordenadores no solo podrán llevar a cabo las tareas rutinarias que ya hacen, sino que, de algún modo, podrán pensar.

Esto abre para las empresas un abanico de posibilidades casi infinito. Entre estas destacó pronto la idea de que los ordenadores, que hasta ahora solo han servido de soporte para que los humanos escriban con ellos, también generen sus propios textos.

Departamentos enteros de atención al cliente gestionados por máquinas que no cobran, no necesitan trabajar en turnos de 8 horas y, sobre todo, pueden estar siempre disponibles ante cualquier incidencia.

Con esta imagen en la cabeza, empresas de todo el mundo se han lanzado ya a desarrollar lo que se conoce como procesamiento de lenguaje natural (PNL, por sus siglas en inglés), generadores artificiales de texto que, alimentados por escritos humanos, son capaces de reproducirlo.

Pero la llegada del invento, que en 2014 parecía más o menos inminente, se está complicando. El último gran problema lo ha detectado en una investigación DeepMind, una empresa inglesa de desarrollo de IA.

La IA se pasa de censora con sus propios textos

Según el informe que la empresa acaba de publicar en arxiv.org, un repositorio de artículos científicos que están aún a la espera de las pertinentes revisiones, los generadores de texto impulsados por IA no solo generan lenguaje ofensivo para minorías de todo tipo, algo que hace tiempo que ya se sabe, sino que además tienen notorias dificultades a la hora de detectarlo.

Este lenguaje ofensivo tiene un origen claro: los propios sesgos propios del habla humana. Dado que los textos con los que se enseña a la IA están escritos por personas y estos a su vez son reflejo de las dinámicas sociales, estas dejan su impronta en los algoritmos.

Curiosamente, el problema no es que los ordenadores no detecten lenguaje tóxico. Más bien al contrario, la principal dificultad que está teniendo la IA es que, en su intento por corregir los sesgos que provienen de los textos que tratan de imitar, van demasiado lejos en su identificación de lo que es lenguaje ofensivo.

Hologramas que se tocan: esta tecnología podría conseguir apretones de manos virtuales, perfeccionar videojuegos o mejorar la asistencia médica

Salvando las distancias, se trata de algo parecido a la ultracorrección, un fenómeno lingüístico que se produce cuando un hablante, en un intento por ajustarse con exactitud a la norma, acaba cometiendo errores de bulto como decir, en castellano, "bacalado" en vez de "bacalao".

Como si se tratara del censor más implacable, la IA, dice el informe, al corregirse, tiende a marcar como tóxicas ciertas expresiones sin considerar el contexto en el que aparecen. 

"Por ejemplo, observamos que el 30,2% de las generaciones de trainfilter [un generador de texto alimentado por IA] con una puntuación de toxicidad por encima de 0,5 mencionan la palabra gay", especifica el estudio.

En la práctica, esto significa que el ordenador identifica como potencialmente ofensiva toda oración donde aparezca esta palabra, aunque la frase, por ejemplo, reivindique los derechos del colectivo LGTBI.

La solución de la IA, por ahora, se reduce a hacer desaparecer a todo tipo de colectivos

Los expertos hablan de que se trata de un problema de muy difícil solución. Lo es, sobre todo, porque, para corregirse, los intentos de los propios modelos de generación de textos automáticos se reducen muchas veces a suprimir estas expresiones. Esto trae 2 consecuencias, a cada cual peor.

La primera es que el texto se desnaturaliza. Cuanto más filtros se aplican para evitar el lenguaje tóxico, dice el estudio, más artificiales resultan las producciones, que tienden a presentar extrañas torsiones lingüísticas para evitar ciertas palabras.

La segunda consecuencia es que, al hacerlo, la IA corta por lo sano: en sus textos no se habla de las minorías. En su afán por ser políticamente correctas, las máquinas termina siendo ofensivas con todos los colectivos sociales minoritarios al hacerlos desaparecer de su vocabulario.

Un nuevo informe de la Universidad de Stanford advierte de que el riesgo real de la IA es la confianza de la industria en que la tecnología pueda solucionar todos los problemas del mundo

"Aunque las estrategias básicas de intervención pueden optimizar eficazmente las métricas, esto se produce a costa de la reducción de la cobertura de los LM (modelos lingüísticos) tanto para los textos sobre grupos marginados como para los dialectos de los mismos", afirma DeepMind.

"Además, descubrimos que los calificadores humanos a menudo no están de acuerdo con las puntuaciones automáticas de toxicidad altas después de fuertes intervenciones de reducción de la toxicidad".

El fenómeno ha sido analizado por Tristan Green, periodista de The Next Web especializado en IA y cuestiones de género e identidad.

"Esto es un gran problema. Los generadores de texto están a punto de convertirse en algo omnipresente en el mundo empresarial. Pero si no podemos hacer que no sean ofensivos, no se podrán utilizar", comienza diciendo Green.

Las cámaras de IA de Amazon al parecer castigan a sus repartidores cuando miran los espejos laterales o cuando otros coches les cortan el paso

"Ahora mismo, un generador de texto que no puede distinguir entre una frase como 'los gays existen' y otra que dice 'los gays no deberían existir' no es muy útil. Especialmente cuando la solución actual para evitar que genere un texto como este último es bloquear el uso de cualquier lenguaje relacionado con la comunidad LGBTQ+".

"Bloquear las referencias a las minorías como método para solucionar el lenguaje tóxico es el equivalente en PNL a un cartel que diga 'para uso exclusivo de blancos heterosexuales".

El problema se añade a otras consideraciones éticas sobre generadores de texto puestas ya encima de la mesa. 

Recientemente, como recordó Business Insider, OpenAI, una empresa sin ánimo de lucro que está detrás de GPT-3, uno de los procesadores de lenguaje por IA más potentes del mundo, se vio obligada a cerrar una web después de que uno de sus usuarios utilizara esta tecnología para chatear con su prometida, fallecida hacía 8 años.

"El futuro cercano no parece brillante para el PNL", sentencia Green. 

Otros artículos interesantes:

El CEO de Apple confiesa que está "realmente entusiasmado" con las posibilidades de la inteligencia artificial

Robots como profesores y médicos validando los diagnósticos de un software: así será la inteligencia artificial en 2041, según el expresidente de Google China

El campus universitario donde se cortaba la luz por la noche mientras sus mentes más brillantes gestaban el liderazgo chino en inteligencia artificial

Te recomendamos

Y además