Dos empleados de Google intentaron evitar el lanzamiento de Bard porque les preocupaban las respuestas peligrosas o falsas

Beatrice Nolan
| Traducido por: 
Google

Getty

  • Algunos empleados de Google han dado la voz de alarma sobre el desarrollo de la IA en la empresa, según The New York Times.
  • 2 trabajadores intentaron impedir que la empresa lanzara su chatbot de IA, Bard.
  • A ambos les preocupaba que el chatbot generara respuestas peligrosas o falsas.

Algunos empleados de Google han dado la voz de alarma sobre el desarrollo de inteligencia artificial de la empresa, según ha informado The New York Times.

2 empleados de Google encargados de revisar los productos de IA intentaron impedir que la empresa lanzara su herramienta de IA generativa, Bard. A ambos les preocupaba que el chatbot generara declaraciones peligrosas o falsas.

En marzo, los 2 revisores que trabajaban bajo las órdenes de Jen Gennai, directora del grupo de Innovación Responsable de Google, recomendaron bloquear el lanzamiento de Bard en una evaluación de riesgos, según 2 personas familiarizadas con el proceso. Los empleados consideraron que, a pesar de las medidas de protección el chatbot no estaba listo. 

Sin embargo, los empleados aseguran que les dijeron que Gennai alteró el documento para eliminar la recomendación y restar importancia a los riesgos de seguridad de Bard.

Gennai, por su parte, defiende que había "corregido suposiciones inexactas y de hecho añadido más riesgos y daños que necesitaban consideración" y que los revisores no debían opinar sobre la conveniencia de seguir adelante

Google también ha asegurado que lanzó Bard como un experimento limitado debido a estos debates. 

Google Bard ya va por detrás en la guerra de la IA con OpenAI y Microsoft

La compañía estadounidense no ha respondido inmediatamente a la solicitud de comentarios de Business Insider, que también ha contactado a Gennai sin respuesta.

En los últimos meses, el mundo de la tecnología se ha apresurado a desplegar productos de IA generativa. Al parecer, la carrera se vio impulsada por el lanzamiento y la popularidad de ChatGPT de OpenAI, pero la velocidad de desarrollo está haciendo saltar las alarmas en otros ámbitos. 

En marzo, varios pesos pesados de la IA firmaron una carta abierta en la que pedían una pausa de 6 meses en el desarrollo de IA avanzada. En la carta se afirmaba que las empresas de IA estaban inmersas en una "carrera fuera de control" y se citaban los profundos riesgos que esta tecnología avanzada entraña para la sociedad.

John Burden, uno de los firmantes de la carta e investigador asociado del Centro para el Estudio del Riesgo Existencial, declaró anteriormente a Business Insider que el ritmo de desarrollo de la IA había aumentado a una velocidad sin precedentes.

"Cosas que hace 5 años hubieran parecido poco realistas esperar para la próxima década han aparecido y desaparecido. A gran escala, no estamos preparados para el impacto que esta tecnología podría tener, teniendo en cuenta que no sabemos realmente cómo estos modelos están haciendo lo que están haciendo", advierte.

Conoce cómo trabajamos en Business Insider.