El CEO de Google explica por qué hay que regular los usos de la inteligencia artificial

El CEO de Google, Sundar Pichai, en una foto de archivo.
El CEO de Google, Sundar Pichai, en una foto de archivo.
REUTERS/Jim Young
  • La IA tiene el potencial de "mejorar miles de millones de vidas", según escribe Sundar Pichai, CEO de Google, para el Financial Times
  • Pichai reivindica en su artículo el poder transformador de la tecnología, pero hace un llamamiento para no ignorar las amenazas que derivan de su mal uso. 
  • El CEO de Google cree que empresas y gobiernos deben unirse para establecer un marco regulatorio común que guíe el desarrollo de la IA y garantice que los usuarios estén protegidos frente a sus malos usos. 
  • Sundar Pichai ofrece el "conocimiento, experiencia y herramientas" de Google para lograr ese objetivo. 
  • Descubre más historias en Business Insider España.

La inteligencia artificial (IA) es una de las tecnologías más prometedoras con potencial para "mejorar miles de millones de vidas", según escribe Sundar Pichai, CEO de Google, para el Financial Times

Solo en el último mes, Google ha presentado tres proyectos de IA en el ámbito de la salud, el cambio climático y las aerolíneas, recuerda el CEO de Alphabet. 

Pichai reivindica el poder transformador de la tecnología, pero advierte de que "la historia está llena de ejemplos que demuestran que las virtudes de la tecnología no están garantizadas", asegura. Para evitar que ocurra lo mismo con la inteligencia artificial, el CEO de Google afirma que es necesario regular sus aplicaciones mediante la ley para proteger a los usuarios de las consecuencias de los malos usos.

"Hay verdaderas preocupaciones sobre las posibles consecuencias negativas de la IA, desde los deepfakes hasta usos nefastos del reconocimiento facial", insiste. 

Sundar Pichai recuerda que Google tiene unas normas éticas que guían el desarrollo de su inteligencia artificial, pero advierte de que solo eso no es suficiente. 

Leer más: La verdadera amenaza de la inteligencia artificial son las personas detrás de los algoritmos, según una ingeniera del departamento científico de Google

"La coordinación internacional" en materia de regulación será esencial, señala. El CEO cree que las leyes existentes, como el GDPR, proporcionan una buena base sobre la que asentar futuras regulaciones.

"Un buen marco regulatorio tendrá en cuenta la seguridad, la transparencia, la equidad y responsabilidad para asegurarse de que desarrollamos las herramientas adecuadas de la manera correcta", explica. Sundar Pichai insiste en que las normativas tendrán que prever los posibles riesgos y amenazas que pueden derivarse de un mal uso de una aplicación concreta de la IA. 

"El papel de Google comienza con el reconocimiento de la necesidad de una regulación y unos principios para la aplicación de la IA, pero no termina ahí", concluye el CEO, que asegura que Google quiere ser un socio para los reguladores. "Ofrecemos nuestros conocimientos, experiencia y herramientas mientras nos enfrentamos juntos a estos asuntos", propone. 

El CEO también pone la responsabilidad en los hombros de las propias compañías: "Creemos que cualquier empresa que desarrolle nuevas herramientas de IA también debería adoptar principios que guíen el desarrollo y procesos de revisión rigurosos". 

LEER TAMBIÉN: De programar videojuegos con 10 años a ser el cerebro de la ciberseguridad de Google desde Málaga: así ha sido la trayectoria de Bernardo Quintero

LEER TAMBIÉN: Finlandia va a regalar uno de los mejores cursos online de inteligencia artificial que puedes estudiar: así te puedes apuntar

VER AHORA: Mascarillas, grupos burbuja o PCR masivos: cómo han preparado otros países la vuelta a las clases para prevenir contagios

    Más:

  1. Google
  2. Inteligencia Artificial
  3. Trending
  4. Reconocimiento Facial