Google sigue los pasos de Microsoft y Amazon y se suma a la inteligencia artificial ética con un comité asesor a escala global

Alberto Iglesias Fraga
Sundar Pichai, CEO de Google.
Sundar Pichai, CEO de Google.
  • Alphabet, matriz de Google, que ha anunciado este martes un consejo asesor global para considerar los temas éticos relacionados con la inteligencia artificial y otras tecnologías emergentes.
  • Este consejo está formado por expertos en tecnología, especialistas en ética digital y personas con experiencia en políticas públicas.
  • Se espera que estas autoridades publiquen un informe sobre el uso ético de la inteligencia artificial a finales de 2019.

El desarrollo de la ética como un pilar fundamental de la inteligencia artificial se ha convertido en un imperativo en las agendas de las principales multinacionales norteamericanas. No en vano, Microsoft fue la primera en lanzar el pasado curso sus cinco principios (que sea inclusiva, transparente, cuantificable, justa, fiable y segura) a los que siguieron sucesivas copias más o menos elaboradas de TelefónicaAmazon o Samsung.

La última en unirse a esta tendencia ha sido Alphabet, matriz de Google, que ha anunciado este martes un consejo asesor global para considerar los temas éticos relacionados con la IA y otras tecnologías emergentes.

Según ha informado la compañía en su blog corporativo y ha remarcado Kent Walker, vicepresidente senior de asuntos globales de Google, en una conferencia en el MIT, este consejo está formado por expertos en tecnología, especialistas en ética digital y personas con experiencia en políticas públicas.

Leer más: Los 5 puntos éticos que Amazon plantea para regular la inteligencia artificial

Entre los ocho miembros encontramos a Joanna Bryson, profesora asociada de informática en la Universidad de Bath; William J. Burns, exsubsecretario de Estado de Estados Unidos, y Dyan Gibbens, director ejecutivo de Trumbull, una empresa de drones con sede en Houston.

El objetivo del grupo es proporcionar recomendaciones de uso ético para Google y otros investigadores que trabajan en áreas como el software de reconocimiento facial, una forma de automatización que ha generado inquietudes acerca del sesgo racial y otras limitaciones.

Cabe recordar que, por el momento, Google ya dispone de sus propios principios internos de inteligencia artificial, que, entre otras disposiciones, prohíbe a la empresa californiana utilizar la inteligencia artificial para desarrollar armas.

El consejo se reunirá cuatro veces, a partir de este próximo mes de abril, con la misión de publicar un informe sobre el uso ético de la inteligencia artificial a finales de 2019.

Conoce cómo trabajamos en Business Insider.