Un importante investigador de IA dice que Google está más preocupada de generar revuelo mediático que de que la ciencia avance

Gary Marcus, en Nueva York en 2012.
Gary Marcus, en Nueva York en 2012.

Rick Friedman/Corbis/Getty Images

Aunque Google haya desmentido públicamente las afirmaciones de un empleado que decía que uno de sus chatbots había adquirido sensibilidad humana, un destacado investigador de IA acusa a la empresa de haber tenido parte de la culpa en el revuelo causado. 

En concreto, el investigador Gary Marcus ha argumentado que Google ha despertado activamente las altas expectativas que hay sobre su tecnología. Estas, dice, están por encima de cualquier investigación científica. 

"Los resultados positivos se celebran y el escepticismo se deja de lado", dijo Marcus, empresario y profesor de la escuela de ingeniería de la Universidad de Nueva York, el pasado miércoles en el podcast de tecnología Dead Cat, presentado por el autor de este artículo, Tom Dotan, y el periodista Eric Newcomer.

Un directivo de la división de inteligencia artificial de Amazon comparte los 4 pasos que ha tomado la compañía para convertirse en un referente tecnológico del sector

Los proyectos de IA de Google han sido noticia a principios de este mes cuando Blake Lemoine, ingeniero de Google y miembro de su departamento de IA, concluyó públicamente que el chatbot LaMDA de la empresa había adquirido sentimientos humanos

Aunque un portavoz de Google, junto con muchos científicos del mundo del ámbito de la IA, se mostraron en total desacuerdo con esa valoración, Marcus explica que la empresa lleva años haciendo anuncios y promesas al margen de todos.

Marcus, que vendió su startup de inteligencia artificial a Uber en 2016 y dirigió brevemente la división de IA de la empresa de viajes compartidos, también criticó a Google por no ser transparente en su investigación sobre IA y por no someter su trabajo a una revisión por pares.

Sobre LaMDA en concreto, se refirió a este tecnología como un "truco de magia" que extrae de trillones de palabras unas cuantas para dar a la gente la sensación de estar conversando con un ser sensible. 

Los inquietantes límites de la tecnología: OpenAI cierra una web de desarrollo de chats con inteligencias artificiales después de que un hombre reprodujera la personalidad de su difunta prometida

Sin embargo, detalló, estos modelos muestran muy poca continuidad en la conversación (no recuerdan conversaciones anteriores, por ejemplo) y, desde luego, no tienen ninguna conciencia de lo que están diciendo.

Marcus extendió su crítica al CEO de Google, Sundar Pichai, quien prometió hace un tiempo que el asistente de voz de la compañía, Duplex, ayudaría a las personas con sus tareas cotidianas. 

Pero cuatro años después, la tecnología apenas es mencionada por casi nadie. Aunque de cuando en cuando la empresa publica documentos que explican los avances de su tecnología, Marcus dice que estos no pasan el pertinente examen científico.

"Google publica unos artículos que parecen científicos. Tienen bibliografías, tienen citas... pero luego te fijas bien y les faltan ciertos denominadores y no se someten a una revisión por pares", explicó Marcus. "La empresa se presenta como un activo contribuyente a la ciencia, pero no juega a su juego".

El problema, según Marcus, se extiende a otros grandes nombres de la IA, como OpenAI, la empresa cofundada por Elon Musk y el antiguo jefe de Y Combinator, Sam Altman. 

OpenAI ha llamado la atención recientemente por su ilustrador DALL-E, una IA capaz de crear imágenes a partir de las indicaciones de los usuarios en un lenguaje sencillo. A pesar del nombre de la empresa, OpenAI no ha permitido que investigadores como él examinen la tecnología de DALL-E.

"La única forma de evitar una guerra nuclear desatada por una IA es no contar con ella": una inteligencia artificial se muestra contraria a su propio desarrollo

Marcus se mostró además especialmente crítico con los medios de comunicación por cubrir los grandes anuncios que hacen estas empresas pero hacer muy poco seguimiento de los mismos y no consultar con expertos que puedan arrojar algo de informado escepticismo a ciertas afirmaciones.

"¿Cuándo fue la última vez que pudimos leer un análisis sobre estas tecnologías que realmente revisara su historia y hablara de todas las promesas que no se han hecho realidad?", cuestionó Marcus.

Otros artículos interesantes:

Entrevista exclusiva con Elon Musk sobre su fama en Twitter, la soledad y el futuro de la inteligencia artificial

España quiere que las empresas empiecen a participar en el 'sandbox' del Reglamento de Inteligencia Artificial después de este verano

Inteligencia artificial contra el cáncer: una prueba abre el camino para detectar la combinación de fármacos más eficaz en menos de 48 horas

Te recomendamos