Pasar al contenido principal

Los empleados de Apple que trabajan con Siri escuchan conversaciones reales sobre sexo, venta de drogas y salud

Apple contractors working on Siri 'regularly' hear recordings of sex, drug deals, and private medical information, a new report says
Florence Fu/Tech Insider
  • Los trabajadores independientes de Apple encargados de los controles de calidad de Siri, el asistente virtual de la compañía, tienen acceso a conversaciones privadas y confidenciales de los usuarios, según una información del medio The Guardian.
  • Según dicha información, los trabajadores independientes de Apple escuchan con regularidad conversaciones sobre "el historial médico de los usuarios, sobre intercambio de drogas y también grabaciones de parejas en plena actividad sexual".
  • Según la propia compañía, sus empleados sólo se ven expuestos a un porcentaje muy pequeño de grabaciones de Siri para evaluar la respuesta del asistente virtual, incluyendo casos en los que la activación de Siri se produce de forma accidental.

Se confirman nuestros peores temores; nuestras conversaciones privadas no están a salvo en presencia de los asistentes virtuales de las grandes tecnológicas (Siri en Apple, Alexa en Amazon y el asistente de Google, entre otros). 

Tal y como informábamos el pasado abril, dichas compañías cuentan con empleados cuyo trabajo es escuchar y revisar conversaciones reales de los usuarios con los asistentes virtuales, con el objetivo de mejorar su rendimiento. 

Pues bien, un nuevo informe publicado este viernes por el medio The Guardian arroja luces sobre cómo funciona exactamente el departamento de control de calidad de dichas compañías. El periodista de The Guardian Alex Hern contactó con un empleado de una empresa subcontrata de Apple, que confesó su preocupación ante la tendencia de Siri a seleccionar información especialmente delicada y confidencial.

Según dicha información, los empleados de dichas compañías de terceros suelen escuchar grabaciones que incluyen conversaciones entre médico y paciente, negociaciones empresariales, tráfico de drogas y grabaciones de parejas en plena actividad sexual.

Independientemente de si el asistente virtual Siri se activó de forma accidental, los empleados de Apple está obligados a escuchar dichas conversaciones y a evaluar la respuesta ofrecida por Siri, y si resultó últi para el usuario.

Contactamos con Apple en relación a dicha información, pero no obtuvimos respuesta. No obstante, la compañía declaró a The Guardian que menos del 1% de las conversaciones mantenidas tras la activación de Siri se someten a escucha, y que de ser analizadas, no se asocian con ningún ID de Apple para proteger la privacidad del usuario.

La información de The Guardian, sin embargo, señalaba que las grabaciones de Siri van acompañadas de ubicación, detalles de contacto y otra información personal, que podría ofrecer información adicional sobre si se tomaron medidas tras la consulta a Siri. 

La noticia ha despertado las alarmas respecto a la privacidad de los usuarios, especialmente después de que el empleado asegurara que no hay una política clara respecto al uso de la información vertida en las grabaciones. 

"No hay demasiada comunicación acerca de quien maneja los datos, y el volumen de información al que tenemos acceso es bastante amplio", contaba el empleado de Apple a The Guardian. "No resulta demasiado complicado identificar a la persona de la grabación, sobre todo en el caso de activación accidental, ya que en la propia grabación se incluyen nombres, direcciones, etc ... No se hace hincapié en la importancia de la privacidad de los usuarios."

Según Apple, la compañía guarda las grabaciones de voz de Siri durante 6 meses y posteriormente, guarda una versión de la grabación sin datos personales durante otros 2 años, con el fin de mejorar el rendimiento del asistente virtual. Si bien no es una práctica exclusiva de Apple, al contrario que Amazon y Google, Apple no permite a los usuarios decidir sobre el uso de las grabaciones ni desactivarlas, a menos que se apague completamente Siri.

Y además