El antiguo CEO de Google tiene una solución muy simple ante la aterradora idea de que la IA tome el control

Ana Altchek
| Traducido por: 
Eric Schmidt, antiguo director ejecutivo de Google, invierte en varias startups científicas y de IA.
Eric Schmidt, antiguo director ejecutivo de Google, invierte en varias startups científicas y de IA.

Eugene Gologursky/Getty

  • El ex-CEO de Google, Eric Schmidt, ha participado en el encuentro tecnológico VivaTech, en París, y ha aprovechado la ocasión para compartir algunas predicciones inquietantes acerca de los riesgos de la inteligencia artificial.
  • Schmidt ha afirmado que podría tratarse de algo tan simple como: si los ordenadores desarrollan libre albedrío, "vamos a desenchufarlos". Y ha añadido que los ataques cibernéticos y biológicos podrían llegar dentro de tres o cinco años.

Eric Schmidt, antiguo director ejecutivo de Google, ha realizado algunas predicciones inquietantes sobre la inteligencia artificial. Lo ha hecho durante su intervención este miércoles en la conferencia del sector tecnológico VivaTech, que se celebra cada año en París (Francia).

Desde que dejó su puesto como máximo responsable del gigante de las búsquedas online, Schmidt ha invertido en varias empresas de IA y ha declarado que cualquier regulación de la inteligencia artificial debe encontrar un equilibrio para garantizar que no se estrangule la innovación.

El ex-CEO de Google ha reconocido que el desarrollo de la IA plantea varios riesgos, pero ha defendido que las mayores amenazas todavía no han llegado. Si esas amenazas llegan a materializarse, Schmidt parece confiar en que el mundo tendrá alguna forma de enfrentarse a ellas.

"Por cierto, ¿sabéis qué vamos a hacer cuando los ordenadores tengan libre albedrío?", ha preguntado Schmidt durante su intervención en el VivaTech 2024. "Vamos a desenchufarlos". Sin embargo, el cofundador y codirector ejecutivo de AI21 Labs (una startup de inteligencia artificial), Yoav Shoham, le ha replicado: "A ver quién desenchufa a quién".

Eric Schmidt, antiguo CEO de Google.

Sí, la idea de correr para desenchufar los sistemas de IA una vez que estos hayan tomado consciencia —además de darse cuenta a tiempo— no es exactamente el experimento más reconfortante, pero el antiguo director ejecutivo de Google ha indicado que los investigadores han realizado evaluaciones detalladas de los riesgos de la inteligencia artificial y que "la respuesta es: se puede ver venir".

Cabe señalar que Schmidt ha invertido en esfuerzos para combatir los riesgos de la IA. El ex-CEO de Google se asoció con OpenAI para lanzar un programa de subvenciones de 10 millones de dólares para apoyar la investigación técnica con el equipo Superalineación de la desarrolladora de ChatGPT, que hasta hace poco se dedicaba a gestionar los riesgos asociados a la inteligencia artificial. 

A pesar de que dicho equipo se disolvió la semana pasada, OpenAI planea seguir adelante con el programa de subvenciones, según ha asegurado un portavoz de la compañía a Business Insider.

Por el momento, Schmidt ha apuntado que la forma que tiene actualmente la IA no es tan peligrosa, salvo por la desinformación, que está "fuera de control" y plantea un "verdadero problema para las democracias".

La desinformación se ha convertido en un problema todavía mayor en los dos últimos años con la aparición de la inteligencia artificial. Estudios recientes sobre las herramientas de Meta —la matriz de Facebook, Instagram y WhatsApp— y OpenAI han constatado que varios sistemas de IA han aprendido a inducir sistemáticamente "falsas creencias para lograr algún resultado distinto de la verdad".

 

Los deepfakes también se han convertido en un problema mayor, con la aparición de pornografía generada por inteligencia artificial que suplanta la identidad de personas famosas

Además, se han dado casos como el de determinados votantes demócratas en Estados Unidos, que recibieron una serie de llamadas generadas por IA en las que un supuesto presidente Joe Biden les pedía que no votasen por él en las primarias. En 2022, unos estafadores se declararon culpables de utilizar llamadas automáticas para disuadir a los votantes de votar por correo.

El antiguo director ejecutivo de Google ha afirmado los verdaderos peligros de los grandes modelos lingüísticos que impulsan la inteligencia artificial son los ataques cibernéticos y biológicos, que todavía no han llegado, pero que "llegarán en tres o cinco años".

Conoce cómo trabajamos en Business Insider.