Pasar al contenido principal

La promesa de Elon Musk y Deep Mind de no construir una IA asesina pasa por alto el verdadero problema según una académica de Oxford

Inteligencia Artificial asesina
Esto no es lo que debería preocuparnos. Melinda Sue Gordon/Paramount/Terminator Genisys
  • Los líderes tecnológicos, incluidos Elon Musk y los cofundadores de DeepMind, han firmado un compromiso la semana pasada para no desarrollar nunca "armas letales autónomas".
  • La carta sostiene que, moralmente, la decisión de quitar la vida nunca debería delegarse en una máquina y que el armamento automático podría ser desastroso.
  • Una docente de Oxford, la doctora Mariarosaria Taddeo, dice a Business Insider que, si bien las intenciones de la promesa eran buenas, pasa por alto la amenaza real que representa la inteligencia artificial en la guerra.
  • Ella cree que el despliegue de inteligencia artificial en ciberseguridad ha pasado desapercibido, con consecuencias potencialmente dañinas.

Prometer no hacer nunca robots asesinos es algo bueno.

Eso es lo que los líderes tecnológicos, incluidos Elon Musk y los cofundadores de la compañía de inteligencia artificial (IA) de Google, DeepMind, han hecho al firmar un compromiso en la Conferencia Conjunta Internacional sobre Inteligencia Artificial (IJCAI por sus siglas en inglés)

Afirman que nunca desarrollarían "armas letales autónomas", citando dos grandes razones. La primera es que sería moralmente erróneo, en su opinión, delegar la decisión de matar a un humano en una máquina.

Segundo, creen que las armas autónomas podrían ser "peligrosamente desestabilizadoras para cada país e individuo".

Leer más: La empresa española que quiere dar lecciones de ética a las máquinas de inteligencia artificial

Te puede interesar