Un equipo de ciberseguridad hackeó un Tesla para que invadiera el carril contrario pegando pegatinas en el asfalto

  • Los investigadores de ciberseguridadde Tencent de Keen Labs dicen que pudieron engañar al piloto automático de Tesla para que entrase en el tráfico que venía en dirección contraria.
  • Los hackers también controlaban el coche con un mando de videojuegos.
  • Tesla ha agradecido al grupo su investigación y ha asegurado que ningún cliente ha experimentado los problemas en la conducción real.

Una gran empresa de investigación de ciberseguridad dice que ha conseguido que la función de auto conducción de Tesla se desvíe de su rumbo pegando tres pequeñas pegatinas en el pavimento de la carretera.

Keen Labs, dos veces homenajeado en el concurso de Tesla que premia a los que descubren fallos en sus sistemas , ha dicho en un artículo de investigación que ha encontrado dos maneras de engañar al reconocimiento del carril de Autopilot cambiando la superficie física de la carretera.

El primer intento de confundir al piloto automático usó parches borrosos en la línea de la izquierda, que el equipo dice que es demasiado difícil de desplegar en el mundo real y fácil de reconocer para el ordenador de Tesla.

When researchers blurred the left-lane line, Tesla's Autopilot stopped recognizing it.
When researchers blurred the left-lane line, Tesla's Autopilot stopped recognizing it.Keen Labs

"Es difícil para un atacante desplegar algunas marcas discretas en el mundo físico para desactivar la función de reconocimiento de carril de un vehículo Tesla en movimiento", dice Keen.

Los investigadores sospechan que Tesla también tenía esa situación bajo control porque ya ha añadido muchos "carriles anormales" en su conjunto de entrenamiento de piloto automático. Esto le da a los vehículos Tesla un buen sentido de la dirección del carril incluso sin una buena iluminación, o en condiciones climáticas inclementes, explican.

Sin desanimarse por la baja plausibilidad de la primera idea, Keen se dispuso a hacer que el piloto automático de Tesla pensara erróneamente que había un carril de tráfico cuando en realidad no había ninguno. Los investigadores pintaron tres pequeños cuadrados en el carril de tráfico para imitar las franjas de la incorporación y hacer que el coche se desviara hacia el tráfico que venía en dirección contraria en el carril izquierdo.

Leer más: Este es el camión eléctrico español que luchará contra Tesla

"Engañar al vehículo del piloto automático en la dirección equivocada[del tráfico] con algunos parches hechos por un atacante malicioso es a veces más peligroso que hacer que no reconozca el carril", asegura Keen.

"Si el vehículo sabe que el carril falso está apuntando hacia el carril contrario, debe ignorar este carril falso y entonces podría evitar un accidente de tráfico."

En respuesta a los hallazgos de Keen, Tesla dice que no presentan problemas en el mundo real y que ningún conductor se había encontrado en ninguna situación identificada en el informe.

"En esta demostración, los investigadores ajustaron el entorno físico (por ejemplo, colocando cinta en la carretera o alterando las líneas de carril) alrededor del vehículo para que el coche se comportara de manera diferente cuando se utiliza el piloto automático", explica la compañía. "Esta no es una preocupación del mundo real, ya que un conductor puede anular fácilmente el piloto automático en cualquier momento utilizando el volante o los frenos y debe estar preparado para hacerlo en todo momento".

Un representante de Tesla le dice a Business Insider que aunque los descubrimientos de Keen no son elegibles para el programa de recompensas por descubrir fallos de la compañía, la empresa tiene en alta estima los hallazgos del investigador.

"Sabemos que le ha llevado una cantidad extraordinaria de tiempo, esfuerzo y habilidad, y esperamos con interés revisar los informes futuros de este grupo", asegura un representante.

Conoce cómo trabajamos en Business Insider.

Etiquetas: