Google desconcierta a los expertos en inteligencia artificial con propuestas radicales para la reforma de su motor de búsqueda: "¿Qué podría salir mal?"

Página de búsqueda en Google

REUTERS/Francois Lenoir

Un equipo de investigadores de Google ha publicado sus propuestas para rediseñar radicalmente el motor de búsqueda del gigante tecnológico. 

Sin embargo, las propuestas han provocado la indignación y la confusión de varios expertos en inteligencia artificial en internet, que han advertido que esta reforma fomentaría resultados inexactos o discriminatorios. 

El documento, titulado "Rethinking Search: Making Experts out of Dilettantes" ("Repensando la búsqueda: cómo hacer expertos de los diletantes"), considera cómo podría responder Google a las consultas de búsqueda con respuestas generadas por inteligencia artificial, en lugar de una serie de enlaces a páginas web. 

Google ya ofrece respuestas directas a determinadas preguntas en sus cuadros de resultados "La gente también pregunta", pero la nueva investigación plantea la posibilidad de utilizar la inteligencia artificial para que esas respuestas sean más precisas. 

En palabras de Will Douglas Heaven, del MIT Technology Review: "Es como si pidieras consejo a tu médico y recibieras una lista de artículos para leer en lugar de una respuesta directa". 

Sin embargo, la investigación ha suscitado críticas por citar modelos lingüísticos de aprendizaje automático que los expertos han advertido que podrían promover resultados discriminatorios

La regulación de los algoritmos de la ley de 'riders' va mucho más allá de apps como Glovo o Deliveroo: así te afecta aunque no seas repartidor

En diciembre, la destacada investigadora en ética de la inteligencia artificial Timnit Gebru dijo que había sido despedida tras una disputa por un artículo académico en el que estaba trabajando sobre el sesgo de la inteligencia artificial. El documento, titulado "On the Dangers of Stochastic Parrots" ("Sobre los peligros de los loros estocásticos"), advertía de la posibilidad de que tales modelos reprodujeran "ideologías racistas, sexistas, discriminatorias, extremistas u otras manifestaciones perjudiciales". 

Margaret Mitchell, coautora junto a Gebru de ese artículo y codirectora del equipo de IA ética, también fue despedida tres meses después, tras un conflicto con la dirección. 

Emily M. Bender, experta en lingüística computacional y coautora de ese mismo documento, ha criticado la nueva investigación de Google por no abordar los riesgos de discriminación, y ha dicho que el documento está "plagado de afirmaciones engañosas".

"Cuando los motores de búsqueda tratan de 'responder a las preguntas' presentando fragmentos de texto descontextualizados, puede producirse una confusión de la que puede ser más difícil recuperarse... incluso para los usuarios expertos en tecnología", ha escrito en Twitter. 

"Es preocupante ver que una organización con los recursos y el peso en el mercado de Google promueva la investigación de "castillos en el aire" sin prestar atención a cómo encaja en el mundo, y mucho menos a su impacto". 

Julien Cornesbie, experto en informática del University College de Londres, ha escrito: "¿Qué podría salir mal? Teniendo en cuenta todos los problemas recapitulados por @timnitGebru @emilymbender @mmitchell_ai en el artículo del loro estocástico. El bloqueo de Google de ese artículo parece más oscuro cada día". 

Lo que necesitas saber para estar informado

Lo que necesitas saber para estar informado

¿Te gusta lo que lees?

Comienza tu día sabiendo qué piensan y qué les preocupa a los ejecutivos de las principales empresas del mundo con una selección de historias enviada por Business Insider España a primera hora cada mañana.

Recibe la newsletter

Pero no todos se han mostrado igual de preocupados. 

"Ah, sí, es tan molesto cuando uso un motor de búsqueda y me da una lista de sitios web relevantes, que definitivamente no es el propósito de un motor de búsqueda", sentencia Emma Manning, candidata al doctorado en lingüística computacional en la Universidad de Georgetown. 

Business Insider ha intentado sin éxito recabar la postura de Google ante las críticas de las expertas.

Este artículo fue publicado originalmente en BI Prime.

Otros artículos interesantes:

Un algoritmo de Airbnb para fijar precios acabó provocando más discriminación a los anfitriones negros, según un estudio

"La ética en la IA tiene que liderar cualquier iniciativa empresarial", según Luis Ureta, country general manager de Globant en España

Contra los vendehumos y "la religión" de los datos: este referente mundial en computación advierte que algunos paradigmas de la IA se han estancado

Te recomendamos

Y además