Google cree que el reglamento de IA en el que trabaja Bruselas es "una buena manera" de abordar los desafíos de esta tecnología y confía en alcanzar acuerdos globales

Falla el reconocimiento facial con mascarilla
Reuters

La ética en la tecnología cada vez preocupa más a las compañías. Charina Chou, responsable de las Políticas Globales para Tecnologías Emergentes en Google, lo sabe bien: formó parte en 2017 del equipo que diseñó los principios éticos para la inteligencia artificial que suscribió la multinacional.

Por eso la propia Chou también cree que las propuestas de regulación en materia de inteligencia artificial (IA) como la que presentó en abril del año pasado la Comisión Europea son muy necesarias. "La IA es una tecnología muy poderosa, tiene muchas oportunidades y no solo para los productos, sino por su potencial para transformar drásticamente la sociedad", opina Chou.

Chou hizo estas declaraciones en una mesa redonda con varios medios a la que acudió Business Insider España. Preguntada específicamente por la regulación que prepara Bruselas, la experta incidió en que no se trata de catalogar la IA "de buena o de mala": "Siempre dependerá de los seres humanos".

"Pensamos que la regulación es importante y estamos muy contentos de ver cómo la Unión Europea está trabajando en este sentido. Es importante reconocer las oportunidades, pero pensando cuáles serán las reglas correctas de las que habrá que disponer", enfatizó.

La propuesta de reglamento para la IA cuyo borrador ya presentó Europa el año pasado destaca por catalogar en varios niveles de riesgo algunos despliegues de inteligencia artificial, como los modelos de reconocimiento facial o de reconocimiento de otros datos biométricos. Con la catalogación que aparecía en ese borrador, casi ningún despliegue estará exento de ese "riesgo".

"Silicon Valley está matando la innovación": por qué hay que empezar a auditar los algoritmos a las tecnológicas para evitar distopías, según una experta

Para Chou, ese es "un buen comienzo". Pone el foco en las aplicaciones de alto riesgo "y es una buena manera de abordar esto, porque se trata de poner límites en esos desafíos [tecnológicos] que conlleven más riesgos, identificando primero qué riesgos y teniéndolos también presentes mientras seguimos permitiendo la investigación y la innovación en otras áreas que no tienen por qué ser arriesgadas".

"Disponer de ese equilibrio" es "un buen comienzo", aseveró la experta de Google, que también se refirió a las propuestas de regulación que están apareciendo en otras partes del mundo. "Al ver qué se hace en Europa mucha gente se pregunta cómo puede hacer algo así en su propio país", concedió Chou, que llevó la idea algo más allá.

"Lo ideal sería que se creara una armonización sobre estas reglas que se están haciendo". "Creo que es una buena oportunidad para alcanzar un gran acuerdo global".

Chou compartió su opinión sobre la regulación de estas tecnologías después de detallar mediante varios casos reales cómo la propia multinacional había llegado a esa postura, la necesidad de abordar la regulación en inteligencia artificial. Un ejemplo muy conciso fue una tecnología capaz de leer los labios que un hospital solicitó a la multinacional de Google para ayudar a pacientes afónicos.

Las preguntas que se empezaron a formular los desarrolladores de Google al cargo de esa iniciativa no tardaron en llegar. "Es una tecnología que podría usarse para espiar a tu vecino".

Los desafíos para conseguir una IA sin sesgos como a la que aspira Europa: "Hay un fallo de mercado, se intenta vender el mismo software a todo el mundo"

Otro algoritmo con el que experimentaron en Google es uno que es capaz de limpiar una fotografía en el caso de que la cámara esté teniendo problemas porque está lloviendo y hay gotas en el cristal. Ese algoritmo era capaz de limpiar la imagen eliminando elementos de la misma. Las preguntas que en Google se hicieron no tardaron en llegar: ¿qué se puede llegar a borrar? ¿Una persona? ¿Por qué?

El borrador que presentó Europa de reglamento para la IA no es perfecto. Algunas voces en el continente han reclamado que la norma vete sistemas de reconocimiento facial en la vía pública. En el Congreso, Unidas Podemos ha pedido transparencia y algoritmos auditables en los modelos que se instalen en las nuevas fronteras inteligentes de Ceuta o Melilla.

Las primeras referencias por parte de Google a la necesidad de regular la IA llegaron en realidad a principios de 2020, con una publicación del propio CEO, Sundar Pichai. 

Sin embargo, la compañía también ha tomado decisiones que han llevado a voces críticas a cuestionar si detrás de la firma hay un interés genuino por abrazar la ética algorítmica o no. Por ejemplo, dos de sus expertas en ética e inteligencia artificial, Margaret Mitchell y Timnit Gebru fueron despedidas el año pasado.

La experta en auditoría algorítmica Gemma Galdon recordó entonces en Business Insider España que "la ética ya no es sostenible como discurso". "Hay que pasar a la acción", expuso entonces.

En Europa se están dando pasos en ese sentido. En España también: la Secretaría de Estado de Digitalización e Inteligencia Artificial ofreció al país el año pasado como región en la que hacer una prueba piloto del futuro reglamento sobre la IA que se desarrolla ahora mismo en Bruselas. Ya ha recibido incluso ofertas del sector privado para participar de ese piloto.

Otros artículos interesantes:

La inteligencia artificial es capaz de quitar tatuajes de las fotos para ayudar al reconocimiento facial

Google quiere que sus wearables del futuro se controlen con la piel como superficie táctil para que no tengas que usar tu móvil

Google espera que las tablets sobrepasen a los ordenadores portátiles "en un futuro no muy distante" y reclama más aplicaciones específicas

Te recomendamos