Tesla se maneja solo: denuncian lo fácil que es engañar el Autopilot

Tesla se maneja solo: denuncian lo fácil que es engañar el Autopilot

Como “un peligro extremo” calificó Consumer Reports la facilidad con que puede engañarse el sistema de asistencia a la conducción de Tesla, Autopilot, luego de que sus ingenieros abandonaran el volante de un Model Y 2020.

El experimento tuvo lugar en una pista de pruebas cerrada, a través de la cual el vehículo se manejó solo, sin que el sistema enviara advertencia alguna o alertara sobre la ausencia de un humano en la butaca del conductor.

“El sistema no solo falló en asegurarse de que el conductor estuviera prestando atención (al camino), sino que tampoco pudo decir si había un conductor”, afirmó el director senior de pruebas automotrices de la revista estadounidense, Jake Fisher.

Acompañado por Kelly Funkhouser, gerenta del programa para pruebas de interfaz de vehículos de Consumer Reports y quien se ubicó en las plazas traseras del vehículo, el ingeniero llevó el coche al extremo.

Tesla se maneja solo: denuncian lo fácil que es engañar el Autopilot

Primero, Fisher se sentó en el asiento del conductor sobre un cinturón de seguridad abrochado, pisó el acelerador, activó el Autopilot y disminuyó completamente la velocidad a través del regulador presente en el volante.

Luego, colgó un peso en el manubrio para simular la presencia de una mano y se pasó al asiento del pasajero, pero manteniendo, al menos al comienzo del ejercicio, el pie izquierdo al alcance del pedal del freno.

Utilizando el mismo comando, aceleró nuevamente el vehículo hasta los 48 km/h (30 millas) y lo detuvo sucesivamente. ¿Conclusión? El Tesla se conduce solo.

El automóvil operó autónomamente “sin notar jamás que nadie estaba en el asiento del conductor, que nadie tocaba el volante ni que no había peso en el asiento. Fue un poco aterrador darnos cuenta de lo fácil que era burlar las medidas de protección”, narró.

Tesla se maneja solo: denuncian lo fácil que es engañar el Autopilot

“Obviamente, nadie debería intentar operar su auto así en la calle. Es imprudente, ilegal y potencialmente mortal”, sostuvo en el video que muestra el experimento.

El experto aseveró que, con la manifiesta vulnerabilidad de Autopilot, Tesla “se está quedando atrás” respecto de fabricantes como General Motors (GM) y Ford.

La demostración coincidió con la investigación de la causa de un accidente ocurrido a mediados de abril de 2021 en Texas, en el que un Tesla Model S de 2019 aparentemente sin conductor colisionó contra un árbol, producto de lo cual sus dos ocupantes murieron, recordó Consumer Reports.

Un agente del condado de Harris identificado como Mark Herman señaló estar “casi seguro” de que el asiento del conductor estaba vació cuando el vehículo se estrelló.

Poco después de la tragedia, el CEO de Tesla, Elon Musk, señaló vía Twitter que los registros del carro “muestran que el Autopilot no estaba habilitado” y aseveró que habría sido imposible activarlo por la ausencia de líneas en el asfalto.