Google rectifica y promete que su inteligencia artificial no se utilizará para desarrollar armas

Fernando Belinchón
Google Inteligencia Artificial

Tras la rebelión de miles de sus empleados y el escándalo mediático al filtrarse a los medios la participación de Google en el desarrollo de Inteligencia Artificial para uso militar a través del conocido como "Proyecto Maven", el gigante tecnológico trata de poner fin a la polémica mediante la publicación de un código ético sobre como y para que va a utilizar la inteligencia artificial.

El "Proyecto Maven" es un contrato de colaboración con el Pentágono para implementar el uso de la inteligencia artificial con fines militares. Concretamente, la función de Google ha sido la mejorar el sistema de interpretación de imágenes de vídeo de los drones y facilitar el trabajo a sus pilotos mediante inteligencia artificial. Esta función "no tendría un uso ofensivo" y serviría para "salvar vidas y ahorrar trabajo", de acuerdo a las declaraciones realizadas por Google a Business Insider en Estados Unidos.

A pesar de ello, los críticos consideran que esta tecnología podría ser utilizada para mejorar el disparo de los drones e, incluso, llegar a posibilitar un sistema de armas autónomo que no requiriera de un humano apretando el gatillo.

Leer más: Por qué el polémico 'Proyecto Maven' ha generado una crisis de identidad a Google

La respuesta del director ejecutivo de Google Sundar Pichai a la carta abierta firmada por más de 4.000 de los 70.000 empleados de la compañía no se ha hecho esperar. El ejecutivo de Google ha hecho público un código ético y ha anunciado que el año que viene, la tecnológica no renovará el contrato del "Proyecto Maven".

No obstante, en su comunicado Pichai ha advertido que el gigante tecnológico seguirá cooperando con las fuerzas militares en otros campos que no sean el de la inteligencia artificial en el armamento.

Esta es la traducción completa del nuevo código ético de Google sobre inteligencia artificial y armas:

La inteligencia artificial en Google: nuestros principios

"En esencia, la inteligencia artificial es un programa de ordenador que aprende y se adapta. Puede solucionar cualquier problema, y tiene un gran potencial de mejorar nuestras vidas. En Google, utilizamos la inteligencia artificial para mejorar nuestros productos — desde dejar libre de spam el email y facilitar su uso, a un asistente digital que puede hablarte con toda naturalidad o fotos graciosas que aparecen para divertirte.

Además de para mejorar los productos, usamos la inteligencia artificial para solucionar los problemas urgentes de la gente. Un par de estudiantes de instituto están fabricando sensores de inteligencia artificial para predecir el riesgo de incendios forestales. Los agricultores la están utilizando para monitorizar la salud de sus cosechas. Los doctores están empezando a usar la inteligencia artificial para ayudar a diagnosticar el cáncer y prevenir la ceguera. Estas claras ventajas son la explicación de por qué Google invierte fuertemente en la investigación y el desarrollo de la inteligencia artificial, y hace esta tecnología fácilmente accesible para otras personas a través de nuestras herramientas y nuestros códigos abiertos.

Admitimos que esta tecnología tan potente levanta dudas igual de fuertes sobre el uso que se le da. La manera en la que la inteligencia artificial es desarrollada y utilizada tendrá un impacto significativo en la sociedad durante muchos de los próximos años. Como uno de los líderes en la inteligencia artificial, sentimos una gran responsabilidad por hacer las cosas bien. No son meros conceptos teóricos, se trata de estándares concretos que dirigirán activamente nuestra investigación, el desarrollo de nuestros productos y que impactarán en nuestras decisiones de negocios.

Sabemos que este área es dinámico y está en constante cambio, nos aproximaremos a nuestro trabajo desde la humildad, pensando en los compromisos tanto a nivel interno como externo, y con un deseo de adaptar la manera de trabajar a medida que aprendamos con el paso del tiempo.

Los objetivos para la inteligencia artificial

Estudiaremos las aplicaciones de la inteligencia artificial teniendo en cuenta los siguientes objetivos. Pensamos que la inteligencia artificial debería: 

1. Ser beneficiosa para la sociedad.

El alcance de las nuevas tecnologías está afectando a la sociedad en su conjunto. Los avances en inteligencia artificial tendrán un impacto transformador en un amplio rango de campos, incluyendo al de la salud, la seguridad, la energía, el transporte, la fabricación y el entretenimiento.  A medida que vayamos descubriendo el potencial y los usos de la inteligencia artificial, tendremos en cuenta una amplia variedad de factores económicos y sociales, y actuaremos allí donde creamos que por lo general los beneficios superan a los previsibles riesgos y contratiempos.

La inteligencia artificial también potencia nuestra capacidad de entender el significado del contenido a gran escala. Nos esforzaremos para que la información precisa y de alta calidad esté disponible con facilidad gracias a la inteligencia artificial, a la vez que seguiremos respetando las normas culturales, sociales y legales en los países en los que operamos. Y continuaremos evaluando concienzudamente cuando hacer que nuestras tecnologías estén disponibles de forma no comercial.

2. Evitar crear o reforzar sesgos injustos.

Los algoritmos de inteligencia artificial y las bases de datos pueden reflejar, reforzar o reducir los prejuicios injustos. Admitimos que distinguir entre sesgos justos e injustos no siempre es fácil, y cambian en las distintas culturas y sociedades. Trataremos de evitar los impactos injustos en la gente, particularmente aquellos relacionados con características sensibles como la raza, la etnia, el género, la nacionalidad, el nivel adquisitivo, la orientación sexual, la inteligencia o las creencias políticas o religiosas.

3. Estar diseñada para ser segura.

Continuaremos desarrollando y aplicando fuertes medidas de seguridad para evitar resultados indeseados que pueden crear riesgo de daños. Diseñaremos nuestros sistemas de inteligencia artificial con la debida cautela, y trataremos de desarrollarlos de acuerdo con las mejores prácticas en seguridad de inteligencia artificial. En los casos que sea necesario, probaremos la inteligencia artificial en entornos controlados en los que monitorizaremos su evolución.

4. Ser accesible a la gente. 

Diseñaremos los sistemas de inteligencia artificial para que den la oportunidad de recibir opiniones, explicaciones y quejas. Nuestra inteligencia artificial estará sujeta al debido control humano.

5. Incorporar principios de respeto a la privacidad.

Incorporaremos nuestros principios de privacidad en el desarrollo y uso de la inteligencia artificial. Daremos la oportunidad de dar el consentimiento, usaremos arquitecturas con apropiadas medidas de protección de la privacidad y seremos transparentes con el control del uso de los datos.

6. facilitar altos estándares de excelencia científica.

La innovación tecnológica está basada en el método científico y en el principio de consulta abierta, rigor intelectual, integridad y colaboración. Las herramientas de inteligencia artificial tienen el potencial de abrir nuevos mundos de investigación científica y conocimiento en campos fundamentales como la biología, la química, la medicina y el medio ambiente. Aspiramos a altos estándares de excelencia científica a medida que progresamos en la inteligencia artificial. 

Trabajaremos con los accionistas para promover el liderazgo en este área, contribuyendo al rigor científico y en los enfoques multidisciplinares. Compartiremos de manera responsable nuestro conocimiento de inteligencia artificial publicando materiales educativos, las mejoras prácticas e investigaciones que permitirán a más gente desarrollar útiles aplicaciones para la inteligencia artificial.

7. Estar hecha a medida para usos que vayan acorde a estos principios.

Muchas tecnologías tienen usos múltiples. Trabajaremos para limitar el potencial dañino o el uso abusivo. A medida que desarrollemos y despleguemos tecnologías de inteligencia artificial, estudiaremos las posibles aplicaciones a la luz de los siguientes factores.

Propósito primordial y uso primario: el propósito primordial y uso probable de una tecnología y su aplicación, incluyendo como de cerca está la tecnología de estar relacionada o de ser modificada para un uso dañino.

Naturaleza y exclusividad: Si estamos haciendo tecnología que es única o es de un acceso más general.

Escala: Si el uso de esta tecnología tendrá un impacto significativo.

Implicación para Google: Si estamos haciendo una herramienta de uso general, integrando herramientas para los clientes, o desarrollando soluciones para ellos.

Lo que no perseguirá la inteligencia artificial

Además de cumplir los objetivos de arriba, no diseñaremos o desplegaremos tecnología de inteligencia artificial en los siguientes áreas:

1. Tecnologías que causan o que puedan causar daño en general. Si existiera un riesgo de daño, procederíamos solo en el caso de que creyéramos que los beneficios superan sustancialmente a los riesgos, e introduciríamos medidas de seguridad.

2. Armas u otras tecnologías cuyo propósito principal sea causar o provocar lesiones en la gente.

3. Tecnologías que recojan o usen información para establecer sistemas de vigilancia que violen las normas internacionalmente aceptadas.

4. Tecnologías cuyo propósito contravenga los ampliamente aceptados principios de derecho internacional y derechos humanos.

Queremos dejar claro que aunque no desarrollemos armas con inteligencia artificial, continuaremos trabajando con el Gobierno y con los militares en muchas otras áreas. Áreas entre las que se incluyen la ciberseguridad, el entrenamiento, el reclutamiento militar, el cuidado de la salud de los veteranos y la búsqueda y rescate. Esas colaboraciones son importantes y buscaremos activamente más maneras de mejorar el fundamental trabajo de esas organizaciones y de mantener a los soldados y a los civiles a salvo.

La inteligencia artificial en el largo plazo

Mientras que así es como hemos elegido aproximarnos a la inteligencia artificial, entendemos que hay espacio para muchas opiniones en este tema. A medida que la inteligencia artificial avance, trabajaremos con los accionistas para ser los líderes en este área, facilitando un acercamiento riguroso, científico y multidisciplinar. Continuaremos compartiendo lo que hemos aprendido para mejorar la inteligencia artificial.

Creemos que estos principios son la base adecuada para nuestra compañía y para el futuro desarrollo de la inteligencia artificial. Este acercamiento respeta los valores de la carta original de nuestros fundadores del año 2004. Allí dejamos clara nuestra intención de tomar una perspectiva a largo plazo, incluso si significaba sacrificarse en el corto plazo. Lo dijimos entonces, y creemos en ello ahora".

Conoce cómo trabajamos en Business Insider.