Una fundación investiga si Uber ofrece viajes más caros a usuarios de barrios pobres en España, pero necesita tu ayuda para descubrirlo

Pegatina Uber

La fundación Eticas, creada por la experta en ética tecnológica Gemma Galdon en 2012, está haciendo una auditoría externa de los algoritmos de Uber. El gigante multinacional de la movilidad varía los precios de sus viajes en función a diversos aspectos. La organización nacida en España quiere saber cuáles son esos parámetros en detalle.

De esta manera, Eticas podrá determinar si los usuarios de Uber sufren los efectos de sesgos tecnológicos, como verse agraviados o incluso vulnerabilizados por un modelo de IA que no se atenga a principios éticos.

No es la primera vez que esta fundación audita un algoritmo de forma externa. Externa quiere decir que la compañía en este caso no está colaborando o no ha ofrecido acceso al código de sus modelos —algo habitual en tecnológicas que guardan los secretos de sus algoritmos con celo—.

Por esta razón, Eticas ha lanzado una campaña de comunicación con la que pedir ayuda a los usuarios de Uber. Las bases de su auditoría son "métodos de ingeniería inversa", lo que quiere decir es que tratarán de determinar cómo funcionan los algoritmos de la multinacional en función de los resultados que la app de movilidad ofrece a sus v iajeros.

Si quieres colaborar con el estudio de Eticas, lo único que necesitas hacer es enviar un archivo que está dentro de la carpeta de la app instalada en tu móvil. Es el archivo que almacena los datos de tu viaje, y recibe el nombre de trips_data.csv. Una vez se haya localizado este fichero, solo tienes que enviarlo al formulario de esta web habilitada por la propia Eticas.

En ese fichero solo se localiza la duración de los viajes, su precio, el punto de inicio y final e información general sobre el trayecto "que de ninguna manera permite saber nada más del usuario que nos proporciona el archivo", abundan desde la fundación. "El proceso para compartir el archivo es completamente seguro y será imposible vincular esa información a individuos".

Europa quiere ser la vanguardia ética de los algoritmos, pero tiene un oscuro pasado: así son las IA financiadas por Bruselas que ya pueden generar discriminación

De esta manera, la organización se compromete a mantener anonimizada esa información, ya que no se podrá vincular "ni a nombres, ni a correos electrónicos o a cuentas de Uber".

"El objetivo de este estudio es observar patrones a gran escala, es decir, no para cada uno de los usuarios concretos sino para grupos de usuarios que compartan atributos, es decir, datos agregados". Por eso el formulario mediante el que se comparte el fichero en la web de Eticas solo pide como información extraordinaria que detalles tu código postal.

Así se estudiarán los patrones derivados de los datos "por zonas o códigos postales". "Con esto, y mediante los datos de viaje, se analizará si los algoritmos que utiliza la plataforma comportan una variación de precio para viajes parecidos en función de la localización de los usuarios".

 

No es la primera vez que se cuestionan los algoritmos de Uber. Hace 2 años, un estudio académico planteó la posibilidad de que sus modelos tuviesen sesgos racistas al ofrecer viajes sensiblemente más caros en caso de que los usuarios que demandasen el desplazamiento residiesen en un barrio cuya población sea mayoritariamente negra en ciudades como Chicago.

Lo que ahora quiere conseguir Eticas es evaluar éticamente los modelos algorítmicos de la compañía y auditar el cumplimiento del Reglamento General de Protección de Datos en el proceso de recopilación de información sobre sus viajeros, así como hacer un análisis sobre los precios y la oferta demanda.

En síntesis, Eticas está trabajando en una auditoría y en un análisis cuantitativo "con el que se pretende descubrir si Uber ofrece precios diferentes para rutas similares, en base a sesgos socioeconómicos injustificados".

Junto a la fundación, Eticas también es el nombre de una consultora privada especializada en ética algorítmica. La organización de Galdon tiene en marcha desde hace un año un Observatorio de Algoritmos de Impacto Social (OASI) en el que lista y analiza potenciales riesgos de más de un centenar de modelos de IA desplegados en diversos países del mundo.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.