Elon Musk anunció por redes sociales la disponibilidad del Autopilot para el Tesla Model S el pasado 24 de noviembre. Cámaras de seguridad en San Francisco muestran que horas después se produjo un notable accidente con un Model S que lo llevaba activo. El coche decidió cambiar de carril y pararse por completo sin razón aparente, ocasionando una colisión múltiple.
Musk anunciaba el 24 de noviembre de 2022 las funciones de conducción autónoma para su Model S, el Día de Acción de Gracias en los Estados Unidos. El informe policial detalla que el vehículo, un Tesla Model S, tenía activa la función de "conducción autónoma completa".
I obtained surveillance footage of the self-driving Tesla that abruptly stopped on the Bay Bridge, resulting in an eight-vehicle crash that injured 9 people including a 2 yr old child just hours after Musk announced the self-driving feature.
— Ken Klippenstein (@kenklippenstein) January 10, 2023
Full story: https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
El vehículo cambió abruptamente de carril y frenó prácticamente en seco, ocasionando una colisión múltiple en la que colisionaron ocho vehículos. Las cámaras de seguridad, que captaron con bastante claridad del accidente, muestran cómo el coche indica la maniobra con el intermitente, para posteriormente parar en seco al cambiar de carril.
El accidente ocasionó nueve heridos, entre ellos un niño de dos años, amén de bloquear el tráfico en el puente de la Bahía de San Francisco durante más de dos horas. El accidente se produjo pocas horas después de que Musk anunciase la función beta de conducción autónoma.
Según recoge The Intercept, los vehículos de Tesla representaron cerca del 70% de los accidentes de los accidentes de tráfico en los que participaron sistemas avanzados de asistencia al conductor (ADAS).
No es la primera vez que el freno fantasma de Tesla ocasiona problemas. En el mismo mes de noviembre, una frenada drástica por parte de un Model Y se acabó traduciendo en un accidente mortal en el que dos personas perdieron la vida y otras tres salieron heridas. Los responsables de la NHTSA (National Highway Traffic Safety Administration) aseguran haber recibido más de 700 reportes sobre este "frenado fantasma", del que aún no se conoce la causa.
Vía | The Intercept
Ver 59 comentarios
59 comentarios
dsa10
Alucino que haya gilipollas que se fíen de la mierda del autopilot.
informatico_loco
Yo solo sé (sin entrar en otros temas) que todos los que vehículos siniestrados son responsables por no guardar la distancia de seguridad.
p2dzca
1) La inteligencia artificial utilizada en la conducción autónoma tiene muchas limitaciones, y esto obliga a los desarrolladores de software a tomar una decisión difícil: ¿dónde se coloca el umbral para frenar el vehículo y en qué situaciones? Si el umbral es bajo, el vehículo puede no frenar en un momento de necesidad, especialmente cuando la detección e identificación de lo que capta no es buena, y provocar accidentes. Por tanto, suelen subir el umbral, y esto hace que los vehículos con conducción autónoma, todos, frenen en muchas situaciones en las que no es necesario (según lo determinaría una persona), a veces provocando accidentes.
2) Debería ser ilegal utilizar la vía pública para hacer pruebas de la conducción autónoma. La población no debe sufrir las consecuencias de poner en la calle vehículos con prestaciones y servicios subdesarrollados y peligrosos.
mad_max
El primer choque bueno…… es evidente que la maniobra que hace el Tesla provoca el choque, pero…… y todos los que vienen detrás? Menuda panda de mancos para organizar ese choque en cadena. Hay que guardar distancia de seguridad.
1coma21gigovatios
Siempre ocurren aceleraciones y frenazos fantasma desde que el genio de Elon Musk decidió usar solo cámaras, sin ningún otro sensor, para el Autopilot. La lógica de que un humano solo tiene dos ojos y puede conducir sin problema no sirve. Ningún humano frena de golpe cuando está adelantando.
silentblock2o
Fue el conductor que pisó el freno en un ataque de pánico (Ironic mode ON).
Ahora en serio ¿Nadie piensa parar esta locura?
kapy
Me resulta curioso la repercusión mediatica que tienen los accidentes de los Tesla con su sistema de conducción autónomo (que en parte es normal).
NINGUNA MARCA, y repito NINGUNA MARCA de coches ha invertido lo que Tesla en el sistema AutoPilot
El sistema no es perfecto y se producen accidentes (independientemente de quien tenga la culpa, si el conductor, el vehiculo o variables externas) pero lo cierto y verdad es que hay unos pocos millones de Teslas circulando con una tasa minima de accidentes.
Algún día la historia describira a Tesla como el precursor de la conducción autonoma.
Víctor Demóstenes
La culpa es del que da por culo, es decir, de los que vienen por detrás, que no guardaron la distancia de seguridad necesaria para frenar sin chocarte cuando el de adelante es un idiota (IA o humano) o ha tenido una emergencia.
La culpa es de los que NO tienen el Autopilot de Tesla. Si los de atrás lo hubieran tenido, habrían guardado la distancia de seguridad pertinente, de acorde a su velocidad, y habrían reaccionado rápido y frenado a tiempo. El problema no es del Autopilot, sino de quienes no lo tienen.
Comentario 50% en serio, 50% jocoso.
lbl_79
La frenada de emergencia de Tesla es muy muy potente. Esto es debido a que aplica la potencia de motor al frenado. Eso hace que incluso con las distancias de seguridad mínimas recomendadas pueda ser insuficiente.
Tenerlo en cuenta siempre que esteis detrás de uno en una vía rápida.
Por otro lado, está bien que según contrato tu seas responsable de la conducción en caso de error del autopilot, pero me parece que cuando el vehículo esté conduciendo solo, por más atento que estés, tu estás preparado para corregir el volante (coger una salida que el vehículo no toma, o no cambiar de carrir cuando él señaliza), o sobre el freno (si aparece un peligro que el vehículo no diagnostica, o presupones que un coche delante quiere cambiar de carril sin señalizar).
Para lo que no estás preparado, y dudo mucho que tengas margen y opción de reacción es para una frenada de emergencia. Cuando notas que lo hace tienes toda la inercia de tu coche desplazandote hacia adelante, sin contar que no es tan evidente como anularla
dani43321
Os inventáis las noticias por completo y os da igual.
1. El Autopilot salió en 2015. Han pasado 7 años. 7 años es muy distinto de unas horas.
2. Primero decís que el Autopilot se anunció el 24 de noviembre. Luego que era lo conducción autónoma. Son cosas distintas, cuál es?
3. No es ninguna de las dos, porque como ya he dicho autopilot salió en 2015 y la conducción autónoma no ha salido, solo hay disponible una versión beta desde hace años. Así que los primeros párrafos son inventados por completo.
4. El conductor iba conduciendo en Autopilot. Se sabe porque iba por autopista, la beta de conducción autónoma no funciona en autopista.
5. En autopilot, el que conduce es el conductor y no el coche. El sistema te obliga a mantener las manos en el volante, porque no es autónomo. En el vídeo se ve que pasan varios segundos desde que el coche empieza a frenar hasta que ocurre el choque. Obviamente el conductor iba mirando para otro lado.
Podría seguir añadiendo puntos hasta desmontar cada frase de la noticia, pero no lo voy a hacer porque está claro que no os interesa en absoluto contar las cosas como son. Si vosotros no os molestáis en contar la verdad, no voy a estar yo tampoco perdiendo el tiempo con ello.
En algún momento vuestras mentiras dejan de ser clickbait y pasan a ser difamación ilegal. Ojalá que más pronto que tarde descubráis donde está la línea.
kjbturok
Digo yo que ya que ese usuario pago su Autopilot y Musk lo anuncio como completo, el usuario, los heridos y la propia San Francisco podrían demandar a Tesla.
Trocotronic
Viendi el video no entiendo por qué frenan tan despacio el resto de coches. Da tiempo de sobra para frenar en seco.
Luis Antonio
Aclaro algo que veo en los comentarios, el problema en USA no es la distancia de seguridad, normalmente el que ha conducido en USA sabe que en USA no hay tantas normas como en Europa ni la gente es tan prudente y sabe conducir tan bien como en Europa, pero si algo tienen en USA es que guardan la distancia de seguridad, el problema viene que lo he podido ver es que la gente suele frenar cuando está prácticamente pegado al vehículo de delante y por eso es que se forman esos accidentes en cadena que no vemos en Europa y que ni si quiera en Latinoamérica se ven.
(Edito) lo digo desde mi experiencia conduciendo en USA
JNeox
Mientras tanto el dueño de tesla peleando por twitter.
Usuario desactivado
Las personas fallan y el software también. Lo que resulta espectacular son decisiones insólitas de parte del software que terminan causando accidentes que ningún conductor sobrio causaría.
RamonYo 😬
Es grave la cosa, sobre todo porque, como dice la noticia, en el accidente han resultado 9 personas injuriadas, incluyendo a un niño de de 2 años de viejo.
tbgs
A Tesla se le permite todo...
En Europa se ha sacado el modo de conducción 3 para Mercedes con una salvedad
Si pasa algo en modo automático... El responsable es la marca
Eso no pasa en tesla
Así están...
Usuario desactivado
En España la culpa es de los demás coches por no guardar la distancia de seguridad. Lo digo por la experiencia de comerme un coche rojo.
TUTEFLIPAS
Y por eso niños los profesionales de verdad hacen pruebas con dummies y circuitos cerrados en vez de utilizar a sus clientes y el resto de personas como conejillos de indias.
Al parecer el Sr Musk se saltó esa clase, pero lo que realmente es una vergüenza es que no habrá ninguna consecuencia real. Incluso la muerte humana para ese tío es barata, Tesla pagará los "4 duros" por los daños junto con algún meloncete en marketing y esto ni trascenderá y si lo hace la gente lo olvidará
Siendo sinceros yo es que hasta me creo que sus expertos y demás lameculos de Tesla "tal y como los definió el mismo Musk en twitter al compararlos con la gente que dejó esa empresa" ya han calculado cosas como cuantos juicios por daños o incluso muertos puede permitirse al año antes de perfeccionar el software.
En cualquier caso que nadie se equivoque lo estará haciendo de la peor forma posible "para el prójimo no para él que es posiblemente la menos costosa para su empresa" pero una vez tenga perfeccionada la tecnología el auto-drive es una maquina de dar pasta aunque sea a base de derechos de patentes para otras marcas en el hipotético e irreal caso de nadie quiera volver a conducir un Tesla por la fama granjeada en el proceso.
stantley
Supongo que si el autopilot se acepta como sistema de conducción, en los coches que lo lleven el control de alcoholemia del conductor no tendrá sentido, porque el conductor pasa a ser pasajero, ¿no?
drasius
Pues en españa pagan los de atrás, si no cumplen las normas de tráfico no me dan pena......no se puede ir tan pegado en un túnel ni en general, daba tiempo a frenar...
No es culpa del tesla y visto los comentarios muchos no deberían tener carnet. Sino que enseñen esas imágenes a la guardia civil a ver quién paga.
sanamarcar
Es lo que mola de las IA, abiertas y con informáticos que tienen las ideas justas de ciencias, supongo que habrá ingenieros, pero la frenada en seco es terrible. De todas formas aun con lo aparatoso del accidente si creo que poco a poco, nadie se montará con humanos en los coches, pero no es algo trivial, ni barato, y ya fuera de plazo.
De todas formas la gente demanda coches baratos y silenciosos para ciudad, con 0 electrónica...
pocust
¿Cuando piensan meterle una buena sanción a Tesla? Hay noticias como esta día sí y día también. Tesla está jugando con la seguridad de la gente con una funcionalidad que está muy verde, no puedes pretender que tus conductores hagan de beta testers en tráfico real, es una locura y tendría que estar terminantemente prohibido. A nadie se le ocurriría defender que se sacase un coche con los frenos en fase beta, pues esto es igual.
mosquitotrompetero
Me recuerda a las misiones del GTA V que haces para que las acciones bajen