Tesla FSD

Tesla FSD Suspende la Prueba del Autobús Escolar: La Seguridad de la Conducción Autónoma Bajo Escrutinio

Transporte

La promesa de vehículos totalmente autónomos siempre ha sido tentadora, pero las recientes demostraciones del modo Full Self-Driving (FSD) de Tesla han despertado nuevas preocupaciones sobre la preparación de esta tecnología para su despliegue generalizado. Mientras Elon Musk anuncia la inminente llegada de un Tesla autónomo capaz de navegar desde la fábrica hasta la casa de un cliente, un incidente preocupante en Austin, Texas, pinta un panorama menos optimista.

En una prueba realizada por The Dawn Project, un Tesla Model Y equipado con el software FSD no pudo reconocer repetidamente un autobús escolar detenido, con luces intermitentes y señales de alto extendidas. Aún más alarmante, el vehículo golpeó maniquíes del tamaño de niños colocados en el camino del autobús durante cada una de las ocho ejecuciones de prueba. Esta inquietante exhibición plantea serias preguntas sobre la confiabilidad del sistema FSD de Tesla en escenarios cruciales de seguridad.

Es importante tener en cuenta que el FSD de Tesla se comercializa actualmente como un sistema "supervisado", que requiere un conductor totalmente atento y listo para intervenir. De hecho, Tesla advierte explícitamente a los usuarios que el incumplimiento de estas instrucciones podría provocar "daños, lesiones graves o la muerte". Esto plantea la pregunta: si el sistema requiere una supervisión humana constante, ¿es realmente "autónomo"?

The Dawn Project, liderado por Dan O'Dowd, quien también dirige una empresa que desarrolla sistemas de conducción automatizados competidores, ha sido un crítico vocal del FSD de Tesla. Incluso han lanzado campañas publicitarias que destacan los peligros potenciales del sistema, en particular su incapacidad para ceder el paso a los autobuses escolares. A la luz de estas preocupaciones, la demostración de Austin se suma al debate en curso sobre la seguridad y la eficacia de la tecnología de conducción autónoma de Tesla. Además, en abril de este año, un accidente que involucró a un Tesla Model S que utilizaba el FSD provocó la muerte de un motociclista en Washington, lo que agravó aún más el problema.

Añadiendo a la narrativa, los planes de Tesla para el Cybercab, un vehículo totalmente autónomo, se han retrasado, según los informes. Si bien Musk sugirió inicialmente una fecha de lanzamiento del 22 de junio, más tarde moderó las expectativas, citando el enfoque "súper paranoico" de la compañía con respecto a la seguridad. También insinuó un hito potencial de un Tesla conduciendo solo desde la fábrica hasta la casa de un cliente antes del 28 de junio. Sin embargo, dados los resultados de las pruebas recientes y los incidentes anteriores, estos pronunciamientos deben recibirse con cauteloso optimismo.

El problema central aquí no es simplemente la tecnología de Tesla. Se trata de las implicaciones más amplias de la implementación de sistemas autónomos en entornos complejos del mundo real. Si bien los beneficios potenciales de los automóviles autónomos (reducción de accidentes, mayor movilidad para las personas mayores y discapacitadas y mejora del flujo de tráfico) son innegables, estas ventajas solo se pueden lograr si la tecnología es demostrablemente segura y confiable. La demostración de Austin sirve como un claro recordatorio de que el camino hacia la autonomía total está plagado de desafíos y que las pruebas y la validación rigurosas son esenciales antes de que estos sistemas se lancen a la vía pública.

1 Imagen del Tesla FSD:
imageTesla FSD

Fuente: Engadget