Por qué la IA puede poner en peligro a la humanidad en cinco años, según advierte el anterior CEO de Google

Blade Runner IA

Xataka

  • Eric Schmidt, antiguo CEO de Google, ha comparado los posibles efectos de la IA con la catástrofe de la bomba nuclear de Hiroshima y Nagasaki. 
  • El peligro de la IA es su capacidad de aprendizaje automático, que le puede llevar a ser capaz de tomar decisiones en cinco años. 

Eric Schmidt, antiguo CEO de Google y miembro de la National Security Commission on Artificial Intelligence, ha advertido en un congreso de Axios de los riesgos que supondrá la IA en el futuro. "Esta tecnología puede producir unos daños catastróficos", ha asegurado.

Schmidt ha comparado los posibles efectos de la IA con la catástrofe de la bomba nuclear de Hiroshima y Nagasaki en Japón en 1945. "Tomó 18 años llegar a un tratado para prohibir pruebas y eventos así", le aseguró al cofundador de Axios, Mike Allen. "Hoy no tenemos ese tipo de tiempo", recoge The Byte.

El antiguo CEO de Google asegura que la IA supone un "riesgo existencial": la compañía colabora con la Comisión Europea para establecer unas normas básicas.

Algunos gigantes tecnológicos como OpenAI y Google están poniendo límites al desarrollo y la implementación de la IA en sus empresas y productos. Schmidt cree que estas medidas de seguridad "no son suficientes".

Podrá tomar sus propias decisiones en cinco años

El peligro de la IA es su capacidad de aprendizaje automático, lo que le puede llevar a ser capaz de tomar decisiones en cinco años. Las máquinas podrían tomar decisiones simples como crear programas de entrenamiento personalizados, hasta acceder a sistemas de armamento

Esto último es precisamente lo que más preocupa al exjefe de Google, según The Byte. Schmidt ha asegurado que las Naciones Unidas deberían crear una organización no gubernamental similar al Panel Intergubernamental sobre Cambio Climático (IPCC).

Aún es prematuro hablar de amenaza a la humanidad

Yann LeCun, director de IA de Meta, ha quitado hierro al asunto en unas declaraciones a Financial Times y ha comentado recientemente que puede ser un peligro, aunque aún no es lo suficiente inteligente como para hablar a escala de amenaza a la humanidad. Al menos no si se habla de la IA por sí sola.

"El debate sobre el riesgo de la IA es prematuro hasta que tengamos un diseño para un sistema que pueda rivalizar con un gato en términos de capacidades de aprendizaje", ha explicado LeCun a Financial Times, "que aún no tenemos".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.