Un tuit de Elon Musk en el que indicaba que Tesla podría permitir a algunos propietarios que estén probando un sistema de “conducción autónoma total” desactivar una alerta que les recuerda que deben mantener las manos en el volante ha llamado la atención de los reguladores de seguridad estadounidenses.
La National Highway Traffic Safety Administration dice que pidió a Tesla más información sobre el tweet. La semana pasada, la agencia dijo que el asunto es ahora parte de una investigación más amplia sobre al menos 14 Teslas que se han estrellado contra vehículos de emergencia mientras usaban el sistema de asistencia al conductor Autopilot.
Desde 2021, Tesla ha estado realizando pruebas beta de conducción autónoma completa utilizando propietarios que no han sido entrenados en el sistema, pero que son monitoreados activamente por la compañía. A principios de este año, Tesla dijo que 160.000 de sus coches, aproximadamente el 15% de los Teslas ahora en las carreteras estadounidenses, estaban participando. A finales de 2022 estaba previsto ampliar la distribución del software.
A pesar del nombre, Tesla sigue diciendo en su página web que los coches no pueden conducirse solos. Los Teslas que utilizan Full Self-Driving pueden navegar por las carreteras por sí mismos en muchos casos, pero los expertos dicen que el sistema puede cometer errores. “No estamos diciendo que esté listo para no tener a nadie al volante”, dijo Musk, consejero delegado de Tesla, en octubre.
En Nochevieja, uno de los seguidores de Musk publicó en Twitter que los conductores con más de 16.000 kilómetros de pruebas de conducción autónoma completa deberían tener la opción de desactivar el “aviso del volante”, una alerta que indica a los conductores que mantengan las manos en el volante.
Musk respondió: “De acuerdo, actualización que viene en enero”.
No está claro a partir de los tweets exactamente lo que Tesla va a hacer. Pero desactivar un sistema de supervisión del conductor en cualquier vehículo que automatiza la velocidad y la dirección supondría un peligro para otros conductores en la carretera, dijo Jake Fisher, director senior de pruebas de automóviles de Consumer Reports.
“Usando FSD beta, eres una especie de parte de un experimento”, dijo Fisher. “El problema es que los demás usuarios de la carretera adyacentes a ti no se han apuntado a formar parte de ese experimento”.
Tesla no respondió a un mensaje en busca de comentarios sobre el tweet o su monitorización del conductor.
Los defensores de la seguridad del automóvil y los investigadores del gobierno han criticado durante mucho tiempo el sistema de monitoreo de Tesla como inadecuado. Hace tres años, la Junta Nacional de Seguridad en el Transporte enumeró el monitoreo deficiente como un factor que contribuyó en un accidente fatal de Tesla en 2018 en California. La junta recomendó un mejor sistema, pero dijo que Tesla no ha respondido.
El sistema de Tesla mide la torsión en el volante para tratar de garantizar que los conductores presten atención. Muchos Teslas tienen cámaras que monitorizan la mirada del conductor. Pero Fisher dice que esas cámaras no son infrarrojas como las de los sistemas de asistencia al conductor de algunos competidores, por lo que no pueden ver los ojos de los conductores por la noche o si el conductor lleva gafas de sol.
Philip Koopman, profesor de ingeniería eléctrica e informática en la Universidad Carnegie Mellon, argumentó que Tesla se está contradiciendo de una manera que podría confundir a los conductores. “Están intentando contentar a los clientes quitándoles las manos del volante, incluso mientras los [owners] manual dice ‘no hagas eso’. “
De hecho, el sitio web de Tesla dice que Autopilot y el sistema de conducción autónoma más sofisticado están destinados a ser utilizados por un “conductor totalmente atento que tenga las manos en el volante y esté preparado para tomar el control en cualquier momento.” Dice que los sistemas no son totalmente autónomos.
La NHTSA ha señalado en documentos que se han producido numerosos accidentes de Tesla en los que los conductores tenían las manos en el volante pero seguían sin prestar atención. La agencia ha dicho que Autopilot se está utilizando en áreas donde sus capacidades son limitadas y que muchos conductores no están tomando medidas para evitar choques a pesar de las advertencias del vehículo.
Los sistemas parcialmente automatizados de Tesla han estado bajo investigación por la NHTSA desde junio de 2016, cuando un conductor que usaba Autopilot murió después de que su Tesla pasara por debajo de un tractor-remolque que se cruzaba en su camino en Florida. La investigación separada sobre los Teslas que estaban usando Autopilot cuando chocaron contra vehículos de emergencia comenzó en agosto de 2021.
Incluyendo el accidente de Florida, la NHTSA ha enviado investigadores a 35 accidentes de Tesla en los que se sospecha que se utilizaron sistemas automatizados. Diecinueve personas han muerto en esos choques.
Consumer Reports ha probado el sistema de supervisión de Tesla, que cambia a menudo con actualizaciones de software en línea. Inicialmente, el sistema no avisaba a un conductor sin las manos en el volante durante tres minutos. Recientemente, sin embargo, las advertencias han llegado en tan sólo 15 segundos. Sin embargo, Fisher no está seguro de cuánto tiempo puede estar el conductor sin tocar el volante antes de que el sistema reduzca la velocidad.o apagarse por completo.
Al apagar el “regaño del volante”, dijo Fisher, Tesla podría estar cambiando a la cámara para monitorear a los conductores, pero eso no está claro.
A pesar de dar a entender a través de los nombres que Autopilot y Full Self-Driving pueden conducir por sí mismos, dijo Fisher, está claro que Tesla espera que los propietarios sigan siendo conductores. Pero la NTSB dice que los conductores humanos pueden acabar bajando la guardia y confiar demasiado en los sistemas mientras miran a otro lado o hacen otras tareas.
Aquellos que utilicen la conducción autónoma total, dijo Fisher, es probable que estén más atentos a la hora de tomar el control porque el sistema comete errores.
“No se me ocurriría quitar las manos del volante con ese sistema, porque puede hacer cosas inesperadas”, dijo.
Koopman dijo que no ve un gran riesgo para la seguridad de la desactivación del volante nag porque el sistema de control de Tesla es tan defectuoso que la desactivación no hace necesariamente Teslas más peligroso.
NHTSA, dijo, tiene pruebas suficientes para tomar medidas para obligar a Tesla a instalar un mejor sistema de monitoreo.
La agencia dice que no hace comentarios sobre las investigaciones abiertas.