Pasar al contenido principal

La verdadera amenaza de la inteligencia artificial son las personas detrás de los algoritmos, según una ingeniera del departamento científico de Google

Cassie Kozyrkov
Google
  • "No confíes en nadie, no confíes en nada", es la máxima de Cassie Kozyrkov, Chief Decision Scientist en Google. 
  • Kozyrkov supervisa el trabajo de miles de empleados de Google y coordina la toma de decisiones de sus proyectos de inteligencia y datos. 
  • A pesar de lo apocalíptico de su lema, Cassie Kozyrkov es una entusiasta de la IA y de sus posibilidades para el futuro. 
  • La directiva inauguró la Big Things Conference con un claro mensaje para los consumidores y desarrolladores de IA: "cuando el sistema falla, la culpa no es de la tecnología, es de las personas". 
  • Descubre más historias en Business Insider España.

"No confíes en nadie, no confíes en nada", es la máxima de Cassie Kozyrkov. Un lema que puede dar miedo si uno echa un vistazo al currículum de Kozyrkov y descubre que dirige la toma decisiones en los procesos que involucran el tratamiento de datos de Google. 

Resumiendo, entre otras muchas cosas, Kozyrkov sabe mucho de inteligencia artificial. 

Entonces, ¿no podemos confiar en los sistemas inteligentes? Es justo el mensaje contrario a lo que Cassie Kozyrkov quiere transmitir desde el escenario de la Big Things Conference, donde habla de cómo construir sistemas de inteligencia artificial seguros para todo el mundo. 

Kozyrkov habla con entusiasmo de las posibilidades de la inteligencia artificial y desprecia el miedo creado en torno a que pueda llegar a funcionar mejor que los seres humanos. Para Cassie Kozyrkov es evidente que será mejor que los humanos, igual que un martillo es mejor que la mano para clavar algo. 

"Cualquier herramienta que no sea mejor que los humanos es una herramienta que no necesitamos", sentencia. Sin embargo, la directiva, que supervisa a miles de empleados de Google como parte de su trabajo, es plenamente consciente de los riesgos que puede entrañar una inteligencia artificial mal entrenada, pero pone el foco en los culpables: las personas detrás de los algoritmos. 

Leer más: El misterioso laboratorio Google X está apostando por usar inteligencia artificial para crear robots que puedan aprender por su cuenta

Cómo entrenar una IA: el propósito decide qué respuesta es correcta 

¿Gato o no gato? Una IA puede tener que enfrentarse a esa simple decisión: analizar si el animal que aparece en una imagen es o no un gato.

¿Qué pasa cuándo aparece un tigre? ¿Cómo lo clasifica el sistema? Cassie Kozyrkov lo explica así: "depende de lo que necesite que haga el sistema la persona que toma las decisiones". 

Es decir, "la respuesta correcta depende del propósito para el que se haya construido el algoritmo". Si el sistema de inteligencia artificial solo tiene que clasificar felinos, el tigre podría entrar dentro de la categoría de 'gato'.

Sin embargo, ¿y si el sistema tiene que servir para recomendar mascotas? Mejor para todos que sepa que un tigre no es un animal de compañía. 

Leer más: Las profesiones mejor pagadas también van a sufrir el impacto de la revolución de los robots y la inteligencia artificial

La persona que toma las decisiones: la clave detrás de los algoritmos 

"El objetivo es subjetivo", señala Kozyrkov. "El propósito para el que sirva el sistema dependerá de quién lo haya construido", concluye. 

Y la directiva no se refiere a todo el equipo de desarrolladores de software e ingenieros que programan como locos. Ella habla del líder que supervisa a todos esos equipos y que establece los objetivos para los sistemas de inteligencia artificial. 

"El decision maker es la persona más importante en el proceso. Decide cuál es el propósito de la máquina y cómo se va a evaluar ese sistema". 

Y por eso Cassie Kozyrkov insiste en que una persona al mando con malas habilidades puede ser una enorme "amenaza" cuando se trata de construir sistemas inteligentes cuyas misiones son críticas y tendrán un gran impacto en la vida de las personas. 

"¿Sabes dónde está el verdadero peligro de la inteligencia artificial?", reflexiona la directiva. "En esos jefes cuyos empleados dicen: 'no he hecho lo que me ha pedido, sino lo que creo que quería en realidad'", ejemplifica. 

Porque cuando se trata de construir sistemas inteligentes, no hay nada peor que un líder que no sepa establecer los objetivos de forma clara. 

Leer más: El CEO de Intuit, valorada en más de 60.000 millones, tiene un plan para evitar que la IA destruya empleo: usar las máquinas para hacer un mejor uso de los humanos

Di lo que quieres decir: el problema de que la IA haga exactamente lo que le pides

"La inteligencia artificial no puede leerte la mente e interpretar que quieres de ella", advierte Kozyrkov, sí le das mal las instrucciones, puede que no haga nada. O puede "que haga exactamente lo que le has pedido". 

La directiva muestra lo desastrosos que puede llegar a ser que un sistema haga exactamente lo que le has pedido con una serie de tuits de la cuenta @fjamie013, que recoge las peticiones de la gente para que modifique sus fotografías y las cumple de manera literal. 

Una inteligencia artificial podría llegar a funcionar de la misma manera. "Esto ocurre cuándo los ejemplos suministrados para entrenar a una IA fueron mal elegidos o los objetivos no fueron especificados con claridad", señala Kozyrkov

No confíes nunca en el sistema. No confíes en ti. Ten siempre un plan B

"¿En qué no has pensado? ¿Qué puede fallar? ¿Y tienes redes para solventarlo cuando algo falle?", pregunta Kozyrkov. 

Porque para ella, hay algo evidente: "algo va a fallar siempre". Uno de los mayores errores que puede cometer un equipo que ha desarrollado un sistema inteligente es pensar que lo ha cubierto todo y que ha pensado en todo.

Un sistema construido con esa mentalidad no tiene sistemas que prevengan los posibles errores que puedan ocurrir. La trabajadora de Google recuerda el caso del hombre en Georgia que no pudo entrar en su casa cuándo su sistema de seguridad inteligente identificó al Batman de su camiseta como un desconocido.

De nuevo, la IA interpretó las instrucciones de una forma excesivamente literal. Sin embargo, gracias a que los desarrolladores habían previsto posibles fallos, existían mecanismos alternativos para entrar en la casa. 

"Ten siempre un plan B.  Los errores siempre van a ocurrir", asegura Cassie Kozyrkov. 

Leer más: Así está siendo entrenada la inteligencia artificial para reconocer a las personas más allá del reconocimiento facial

Cómo evaluar la inteligencia artificial: "tenemos que aspirar a crear sistemas que representen lo mejor de nosotros" 

Contar con que el sistema va a fallar no es una licencia para "ser un idiota", asegura Kozyrkov, que reflexiona sobre los sesgos implícitos que adquieren las IA en los procesos de entrenamientos.  

"Cuando tienes un conjunto de datos, es como tener un manual de texto", señala la directiva. "Esos datos también tienen autores y hay que preguntarse quiénes son esos autores". 

"Si un estudiante solo tiene un manual de texto, no hay que extrañarse si aprende los sesgos que hay en ese manual. Con la inteligencia artificial funciona igual", advierte. 

"¿Es posible entonces construir un sistema que no tenga sesgos?", reflexiona. "Debemos preocuparnos de quiénes son nuestros autores para aspirar a crear sistemas que representen lo mejor de nosotros". 

De nuevo, la responsabilidad recae en las personas detrás de los algoritmos. "¿Qué tipo de profesor no revisa primero el manual de texto?", afirma.

Para evaluar un sistema de inteligencia artificial hay que ponerlo a prueba, igual que se haría con un estudiante. Al examinar una IA, Kozyrkov advierte de que hay que asegurarse de que los buenos resultados no provienen de una simple memorización, que ocurre al poner a prueba al sistema con el mismo conjunto de datos con el que ha sido entrenado. 

Y resume el problema así: "El sesgo en la IA, entrenamiento inapropiado nunca examinado". 

Y además