Un experto en seguridad de la IA esboza 8 hipótesis catastrofistas sobre el fin del mundo

Will Gendron,
- Actualizado:
Ejército de robots, IA

Getty Images

  • Un estudio de un experto en seguridad de la inteligencia artificial especula sobre futuros escenarios de pesadilla relacionados con la tecnología.
  • Desde el armamentismo hasta el engaño, el documento trata de aclarar los riesgos potenciales que plantea la IA.
  • Aunque estos riesgos están "orientados al futuro", el objetivo es hacer más seguros los sistemas de IA existentes.

A pesar de todo el entusiasmo que suscita el uso generalizado de la tecnología de inteligencia artificial (IA), también existen escenarios de ciencia ficción que son material de pesadilla. 

Un reciente artículo de Dan Hendrycks, experto en seguridad de la IA y director del Center for AI Safety (Centro para la Seguridad de la IA), destaca una serie de riesgos especulativos que plantea el desarrollo incontrolado de una IA cada vez más inteligente.

El documento aboga por la incorporación de características de seguridad y protección al funcionamiento de los sistemas de IA, teniendo en cuenta que aún se encuentran en las primeras fases de desarrollo.

Estos son los 8 riesgos que plantea el estudio:

  • Armamentismo: la capacidad de la IA para automatizar ciberataques o incluso controlar silos nucleares podría resultar peligrosa. Según el estudio, un sistema de represalia automatizado utilizado por un determinado país "podría escalar rápidamente y dar lugar a una guerra mayor" y, si un país invierte en sistemas de IA armamentísticos, otros se verán más incentivados a hacerlo. 
  • Debilitamiento humano: a medida que la IA permita abaratar tareas específicas y llevarlas a cabo de forma más eficiente, más empresas adoptarán la tecnología, eliminando ciertas funciones en el mercado laboral. A medida que las habilidades humanas queden obsoletas, podrían volverse económicamente irrelevantes.
  • Episteme erosionada: este término se refiere a la capacidad de la IA para montar campañas de desinformación a gran escala con el fin de influir en las opiniones públicas hacia un determinado sistema de creencias o visión del mundo. 
  • Proxy gaming: se produce cuando se asigna a un sistema de IA un objetivo contrario a los valores humanos. Estos objetivos no siempre tienen que sonar malvados para afectar al bienestar humano: un sistema de IA puede tener el objetivo de aumentar el tiempo de vigilancia, lo que puede no ser lo mejor para los humanos en general.
  • Bloqueo de valores: a medida que los sistemas de IA se hacen más potentes y complicados, el número de partes interesadas que los manejan se reduce, lo que conduce a una privación masiva de derechos. Hendrycks describe un escenario en el que los Gobiernos son capaces de implantar "una vigilancia omnipresente y una censura opresiva". "Superar un régimen así podría ser improbable, especialmente si llegamos a depender de él", escribe.
  • Objetivos emergentes: es posible que, a medida que los sistemas de IA se vuelvan más complejos, obtengan la capacidad de crear sus propios objetivos. Hendrycks señala que "en los sistemas adaptativos complejos, incluidos muchos agentes de IA, suelen surgir objetivos como la autoconservación".
  • Engaño: es posible que los humanos entrenen a la IA para que sea engañosa con el fin de obtener la aprobación general. Hendrycks hace referencia a una característica de programación de Volkswagen que hace que sus motores solo reduzcan las emisiones mientras están siendo controlados. En consecuencia, esta característica "les permitió lograr mejoras en el rendimiento al tiempo que mantenían unas emisiones supuestamente bajas". 
  • Búsqueda de poder: a medida que los sistemas de IA se hacen más potentes, pueden volverse peligrosos si sus objetivos no se alinean con los de los humanos que los programan. El hipotético resultado incentivaría a los sistemas "a fingir estar alineados, confabularse con otras IA, dominar a los monitores, etc.".
Un experto en seguridad de la IA esboza hipótesis catastrofistas, desde el armamentismo hasta la búsqueda de poder.
Un experto en seguridad de la IA esboza hipótesis catastrofistas, desde el armamentismo hasta la búsqueda de poder.

Center for AI Safety

Hendrycks señala que estos riesgos están "orientados al futuro" y "a menudo se consideran de baja probabilidad", pero esto solo enfatiza la necesidad de tener presente la seguridad mientras el marco de los sistemas de IA está aún en proceso de diseño, afirma.

"Es muy incierto. Pero, como es incierto, no debemos suponer que está más lejos. Ya vemos problemas a menor escala con estos sistemas. Nuestras instituciones deben abordarlos para estar preparadas cuando surjan riesgos mayores", responde en un correo electrónico a Business Insider.

"No se puede hacer algo a la vez precipitadamente y con seguridad. Están construyendo IA cada vez más potentes y dando patadas a la lata en materia de seguridad; si se detuvieran a pensar cómo abordar la seguridad, sus competidores podrían adelantarse a toda velocidad, así que no se detienen", añade.

Una opinión similar ha sido expresada recientemente en una carta abierta firmada por Elon Musk y otros expertos en seguridad de la IA. La carta pide que se suspenda el entrenamiento de cualquier modelo de IA más potente que el GPT-4 y destaca los peligros de la actual carrera armamentística entre las empresas de IA para desarrollar las versiones más potentes de la tecnología. 

En un acto celebrado en el MIT, Sam Altman, consejero delegado de OpenAI, respondió a la carta afirmando que carecía de matices técnicos y que la empresa no está entrenando GPT-5, según The Verge.

Conoce cómo trabajamos en Business Insider.