AP.
La agencia de seguridad vial del gobierno de Estados Unidos está investigando el sistema de “conducción autónoma total” de Tesla después de recibir informes de accidentes en condiciones de baja visibilidad, incluido uno que mató a un peatón.
La Administración Nacional de Seguridad del Tráfico en las Carreteras dijo en documentos que abrió la investigación el jueves después de que la compañía informara cuatro accidentes cuando los Tesla se encontraron con el resplandor del sol, niebla y polvo en el aire.
Además de la muerte del peatón, otro accidente provocó heridos, dijo la agencia.
Los investigadores analizarán la capacidad de la “conducción autónoma total” para “detectar y responder adecuadamente a las condiciones de visibilidad reducida en la carretera y, de ser así, las circunstancias que contribuyen a estos accidentes”.
La investigación cubre aproximadamente 2,4 millones de Tesla de los años modelo 2016 a 2024.
El viernes se dejó un mensaje pidiendo comentarios a Tesla, que ha dicho repetidamente que el sistema no puede conducirse solo y que los conductores humanos deben estar listos para intervenir en todo momento.
La semana pasada, Tesla celebró un evento en un estudio de Hollywood para presentar un robotaxi totalmente autónomo sin volante ni pedales. Musk, que ya ha prometido vehículos autónomos en el pasado, dijo que la compañía planea tener los modelos Y y 3 autónomos funcionando sin conductores humanos el próximo año. Los robotaxis sin volante estarían disponibles en 2026, comenzando en California y Texas, dijo.
No está claro el impacto de la investigación en las ambiciones de Tesla en materia de conducción autónoma. La NHTSA tendría que aprobar cualquier robotaxi sin pedales ni volante, y es poco probable que eso ocurra mientras la investigación esté en curso. Pero si la empresa intenta implementar vehículos autónomos en sus modelos existentes, eso probablemente recaería en las regulaciones estatales. No hay regulaciones federales enfocadas específicamente en los vehículos autónomos, aunque deben cumplir con normas de seguridad más amplias.
La NHTSA también dijo que investigaría si se produjeron otros accidentes similares que involucraran “conducción autónoma total” en condiciones de baja visibilidad y que solicitará información a la compañía sobre si alguna actualización afectó el rendimiento del sistema en esas condiciones.
“En particular, esta revisión evaluará el momento, el propósito y las capacidades de dichas actualizaciones, así como la evaluación de Tesla de su impacto en la seguridad”, señalan los documentos.
Tesla informó de los cuatro accidentes a la NHTSA en virtud de una orden de la agencia que abarca a todos los fabricantes de automóviles. Una base de datos de la agencia indica que el peatón murió en Rimrock, Arizona, en noviembre de 2023 tras ser atropellado por un Tesla Model Y 2021. Rimrock está a unas 100 millas (161 kilómetros) al norte de Phoenix.
El Departamento de Seguridad Pública de Arizona dijo en un comunicado que el accidente ocurrió poco después de las 5 p. m. del 27 de noviembre en la Interestatal 17. Dos vehículos chocaron en la autopista, bloqueando el carril izquierdo. Un Toyota 4Runner se detuvo y dos personas salieron para ayudar con el control del tráfico. Un Tesla Model Y rojo chocó luego al 4Runner y a una de las personas que salían de él. Una mujer de 71 años de Mesa, Arizona, fue declarada muerta en el lugar.
La colisión se produjo porque el sol estaba en los ojos del conductor del Tesla, por lo que no se presentaron cargos contra él, dijo Raúl García, oficial de información pública del departamento. El resplandor del sol también fue un factor que contribuyó a la primera colisión, agregó.
Tesla retiró dos veces del mercado el sistema “Full Self-Driving” bajo presión de la NHTSA, que en julio solicitó información a las autoridades y a la compañía después de que un Tesla que usaba el sistema chocara y matara a un motociclista cerca de Seattle.
Los retiros se realizaron porque el sistema estaba programado para saltarse las señales de stop a baja velocidad y porque el sistema desobedecía otras leyes de tránsito. Ambos problemas se solucionarían con actualizaciones de software en línea.
Los críticos han dicho que el sistema de Tesla, que utiliza únicamente cámaras para detectar peligros, no tiene los sensores adecuados para ser totalmente autónomo. Casi todas las demás empresas que trabajan en vehículos autónomos utilizan sensores de radar y láser además de cámaras para ver mejor en la oscuridad o en condiciones de poca visibilidad.
Musk ha dicho que los humanos conducen sólo con la vista, por lo que los coches deberían poder circular sólo con cámaras. Ha dicho que el lidar (detección y alcance de luz), que utiliza láseres para detectar objetos, es una “misión inútil”.
Los retiros del mercado por “conducción autónoma total” llegaron después de una investigación de tres años sobre el sistema Autopilot menos sofisticado de Tesla, que chocó contra vehículos de emergencia y otros vehículos estacionados en carreteras, muchos de ellos con luces de advertencia encendidas.
La investigación se cerró en abril pasado después de que la agencia presionara a Tesla para que llamara a revisión sus vehículos para reforzar un sistema débil que garantizaba que los conductores prestaran atención. Unas semanas después de la llamada a revisión, la NHTSA comenzó a investigar si la llamada a revisión estaba funcionando.
La NHTSA comenzó su investigación de accidentes con el piloto automático en 2021, después de recibir 11 informes de que los Tesla que usaban el piloto automático chocaron con vehículos de emergencia estacionados. En los documentos que explican por qué se puso fin a la investigación, la NHTSA dijo que finalmente encontró 467 accidentes con el piloto automático que resultaron en 54 heridos y 14 muertos. El piloto automático es una versión sofisticada del control de crucero, mientras que Musk ha promocionado la “conducción autónoma total” como capaz de conducir sin intervención humana.
La investigación que se abrió el jueves entra en un nuevo terreno para la NHTSA, que anteriormente consideraba que los sistemas de Tesla ayudaban a los conductores en lugar de conducir por sí mismos. Con la nueva investigación, la agencia se centra en las capacidades de “conducción autónoma total” en lugar de simplemente asegurarse de que los conductores presten atención.
Michael Brooks, director ejecutivo del Centro para la Seguridad Automovilística, una organización sin fines de lucro, dijo que la investigación anterior de Autopilot no analizó por qué los Tesla no veían ni se detenían ante los vehículos de emergencia.
“Antes, la responsabilidad recaía en el conductor y no en el coche”, afirmó. “Ahora dicen que estos sistemas no son capaces de detectar adecuadamente los riesgos de seguridad, independientemente de si los conductores prestan atención o no”.
.