Cu șase săptămâni înainte de primul accident fatal din SUA în care a fost implicat Autopilotul Tesla în 2016, președintele producătorului auto Jon McNeill l-a încercat într-un Model X și a trimis prin e-mail feedback-ul șefului de conducere automată Sterling Anderson. Mailul a fost văzut și de Elon Musk.
Sistemul a funcționat perfect, a scris McNeill, „cu fluiditatea unui șofer uman”.
„M-am simțit atât de confortabil sub Autopilot, încât am ajuns să suflu pe lângă ieșiri pentru că eram cufundat în e-mailuri sau apeluri (știu, știu, nu este o utilizare recomandată)”, a scris el în e-mailul datat 25 martie același an.
Acum, e-mailul lui McNeill, care nu a fost raportat anterior, este folosit într-o nouă linie de atac juridic împotriva Tesla cu privire la Autopilot.
Avocații reclamanților într-un proces de ucidere din culpă din California au citat mesajul într-o depoziție, în timp ce au întrebat un martor Tesla dacă compania știa că șoferii nu vor urmări drumul atunci când folosesc sistemul său de asistență pentru șoferi, potrivit unor transcrieri neinformate anterior, analizate de Reuters.
Sistemul Autopilot poate să conducă, să accelereze și să frâneze singur pe drum deschis, dar nu poate înlocui complet un șofer uman, în special în cazul conducerii în oraș. Materialele Tesla care explică sistemul avertizează că acesta nu face ca mașina să fie autonomă și că este nevoie de un „șofer complet atent” care poate „prelua controlul în orice moment”.
Cazul, care urmează să fie judecat în San Jose în săptămâna 18 martie, implică un accident mortal din martie 2018 și urmează după două procese anterioare din California privind Autopilotul pe care Tesla le-a câștigat argumentând că șoferii implicați nu au ținut cont de instrucțiunile sale de a-și menține atenția în timpul utilizării sistemului.
De data aceasta, avocații din cazul din San Jose au mărturii ale martorilor Tesla care indică faptul că, înainte de accident, producătorul auto nu a studiat niciodată cât de rapid și eficient ar putea șoferii să preia controlul dacă Autopilotul se îndreaptă accidental spre un obstacol, arată transcrierile depozițiilor.
Unul dintre martori a declarat că Tesla a așteptat până în 2021 pentru a adăuga un sistem de monitorizare a atenției șoferilor cu ajutorul camerelor de luat vederi – la aproximativ trei ani după ce a luat în considerare pentru prima dată acest lucru. Tehnologia este concepută pentru a urmări mișcările unui șofer și pentru a-l alerta dacă acesta nu reușește să se concentreze asupra drumului din față.
Cazul implică un accident de autostradă în apropiere de San Francisco, în care a murit inginerul Apple Walter Huang. Tesla susține că Huang a folosit în mod abuziv sistemul deoarece se juca un joc video chiar înainte de accident.
Avocații familiei lui Huang ridică semne de întrebare cu privire la faptul dacă Tesla a înțeles că șoferii – precum McNeill, propriul său președinte – probabil nu ar fi folosit sau nu ar fi putut folosi sistemul așa cum a fost instruit și ce măsuri a luat producătorul auto pentru a-i proteja.
Experții în legislația privind vehiculele autonome spun că acest caz ar putea reprezenta cel mai dur test de până acum al insistențelor Tesla conform cărora Autopilotul este sigur – dacă șoferii își fac partea lor.
Matthew Wansley, profesor asociat la Facultatea de Drept din Cardozo, cu experiență în industria vehiculelor automate, a declarat că cunoștințele Tesla despre comportamentul probabil al șoferilor s-ar putea dovedi a fi decisiv din punct de vedere juridic.
„Dacă era previzibil în mod rezonabil pentru Tesla că cineva va utiliza sistemul în mod abuziv, Tesla avea obligația de a proiecta sistemul într-un mod care să prevină utilizarea abuzivă previzibilă”, a spus el.
Richard Cupp, un profesor de la facultatea de drept Pepperdine, a declarat că Tesla ar putea fi capabilă să submineze strategia reclamanților susținând că Huang a folosit în mod intenționat Autopilotul în mod abuziv.
Însă, dacă vor avea succes, avocații reclamanților ar putea oferi un model pentru alte persoane care vor da în judecată pentru Autopilot. Tesla se confruntă în prezent cu cel puțin o duzină de astfel de procese, dintre care opt implică decese, ceea ce expune producătorul auto la riscul unor sentințe pecuniare mari.
Musk, Tesla și avocații săi nu au răspuns la întrebările detaliate ale Reuters pentru acest articol.
McNeill a refuzat să comenteze. Anderson nu a răspuns la solicitări. Ambii au părăsit Tesla. McNeill este membru al consiliului de administrație la General Motors și la filiala sa de autoconducere, Cruise. Anderson a cofondat Aurora, o companie de tehnologie de autoconducere.
Reuters nu a putut stabili dacă Anderson sau Musk au citit e-mailul lui McNeill.
Accidentul în care a murit Huang se numără printre sutele de accidente din SUA în care Autopilot a fost un factor suspectat în rapoartele către autoritățile de reglementare în domeniul siguranței auto.
Administrația Națională pentru Siguranța Traficului pe Autostrăzi din SUA (NHTSA) a examinat cel puțin 956 de accidente în care Autopilot a fost raportat inițial că a fost utilizat. Agenția a lansat separat peste 40 de investigații privind accidente în care au fost implicate sistemele de conducere automată ale Tesla și care s-au soldat cu 23 de decese.
Pe fondul examinării NHTSA, Tesla a rechemat în decembrie peste 2 milioane de vehicule cu Autopilot pentru a adăuga mai multe alerte pentru șofer. Corecția a fost implementată printr-o actualizare de software de la distanță.
Familia lui Huang susține că Autopilot a condus modelul său Model X din 2017 într-o barieră de pe autostradă.
Tesla dă vina pe Huang, spunând că acesta nu a reușit să rămână vigilent și să preia conducerea.
„Nu există nicio dispută că, dacă ar fi fost atent la drum, ar fi avut ocazia să evite acest accident”, a declarat Tesla într-un document depus în instanță.Un judecător al Curții Superioare din Santa Clara nu a decis încă ce probe vor audia jurații.
Tesla se confruntă, de asemenea, cu o anchetă penală federală, raportată pentru prima dată de Reuters în 2022, privind afirmațiile companiei potrivit cărora mașinile sale se pot conduce singure.Aceasta a dezvăluit în octombrie că a primit citații legate de sistemele de asistență pentru șoferi.
În ciuda funcțiilor de marketing numite Autopilot și Full Self-Driving, Tesla nu a reușit încă să atingă ambiția declarată adesea de Musk de a produce vehicule autonome care nu necesită intervenție umană.
Tesla spune că Autopilot poate adapta viteza la traficul din jur și poate naviga în interiorul unei benzi de autostradă. Autopilotul „îmbunătățit”, care costă 6.000 de dolari, adaugă funcții de schimbare automată a benzilor de circulație, navigare pe rampele de autostradă și parcare automată.
Opțiunea Full Self-Driving de 12.000 de dolari adaugă funcții automatizate pentru străzile din oraș, cum ar fi recunoașterea semafoarelor.
Având în vedere e-mailul lui McNeill, avocații reclamanților din cazul Huang pun la îndoială afirmația Tesla potrivit căreia șoferii pot face tranziții de o fracțiune de secundă pentru a reveni la condus în cazul în care Autopilotul face o greșeală.
E-mailul arată cum șoferii pot deveni mulțumiți în timp ce folosesc sistemul și pot ignora drumul, a declarat Bryant Walker Smith, profesor la Universitatea din Carolina de Sud, cu expertiză în legislația privind vehiculele autonome. Mesajul fostului președinte al Tesla, a spus el, „coroborează faptul că Tesla recunoaște că un comportament iresponsabil la volan și conducerea neatentă sunt și mai tentante în vehiculele sale”.
Avocatul familiei Huang, Andrew McDevitt, a citit cu voce tare porțiuni din e-mail în timpul unei depoziții, potrivit unei transcrieri. Reuters nu a reușit să obțină textul integral al notei lui McNeill.Avocații reclamanților au citat, de asemenea, comentarii publice ale lui Musk în timp ce au cercetat ce știa Tesla despre comportamentul șoferilor. După un accident mortal din 2016, Musk a declarat într-o conferință de presă că șoferii se luptă mai mult cu atenția după ce au folosit sistemul pe scară largă.
„Accidentele provocate de pilotul automat sunt mult mai probabile pentru utilizatorii experți”, a spus el. „Nu este vorba de neofit”.
O analiză de siguranță Tesla din 2017, un document al companiei care a fost introdus ca probă într-un caz anterior, a arătat clar că sistemul se bazează pe reacțiile rapide ale șoferului. Autopilotul ar putea face o „intrare neașteptată a direcției” la viteză mare, ceea ce ar putea determina mașina să facă o mișcare periculoasă, potrivit documentului, care a fost citat de reclamanți într-unul dintre procesele câștigate de Tesla.
O astfel de eroare necesită ca șoferul „să fie pregătit să preia controlul și să poată acționa rapid frâna”.
În cadrul depozițiilor, un angajat Tesla și un martor expert angajat de companie nu au putut identifica nicio cercetare pe care producătorul auto a efectuat-o înainte de accidentul din 2018 cu privire la capacitatea șoferilor de a prelua controlul atunci când Autopilotul eșuează.
„Nu am cunoștință de nicio cercetare în mod specific”, a declarat angajatul, care a fost desemnat de Tesla ca fiind persoana cea mai calificată să depună mărturie despre Autopilot.
Producătorul auto a redactat numele angajatului din depoziții, argumentând că este vorba de informații protejate din punct de vedere legal.McDevitt l-a întrebat pe martorul expert al Tesla, Christopher Monk, dacă ar putea numi vreun specialist în interacțiunea umană cu sistemele automate pe care Tesla l-a consultat în timpul proiectării Autopilotului.
„Nu pot”, a spus Monk, care studiază distragerea atenției șoferilor și care a lucrat anterior pentru NHTSA, se arată în depoziții.
Monk nu a răspuns la solicitările de comentarii. Reuters nu a putut stabili în mod independent dacă Tesla a cercetat din martie 2018 cât de repede pot prelua șoferii controlul sau dacă a studiat eficiența sistemelor de monitorizare cu camere pe care le-a activat în 2021.
Consiliul Național pentru Siguranța Transporturilor (NTSB), care a investigat cinci accidente legate de Autopilot, a recomandat în mod repetat, începând din 2017, ca Tesla să îmbunătățească sistemele de monitorizare a șoferului din vehiculele sale, fără a preciza exact cum.
Agenția, care efectuează investigații și cercetări privind siguranța, dar nu poate ordona rechemări în service, a concluzionat în raportul său privind accidentul din Huang: „La producerea accidentului a contribuit monitorizarea ineficientă a implicării șoferului de către vehiculul Tesla, ceea ce a facilitat complacerea și neatenția șoferului”.În comentariile sale din 2016, Musk a declarat că șoferii ignoră până la 10 avertismente pe oră privind menținerea mâinilor pe volan.
Angajatul Tesla a declarat că, înainte de accidentul lui Huang, compania a luat în considerare utilizarea camerelor pentru a monitoriza atenția șoferilor, dar nu a introdus un astfel de sistem până în mai 2021.Musk, în comentariile publice, a rezistat mult timp solicitărilor pentru sisteme mai avansate de monitorizare a șoferilor, motivând că mașinile sale vor fi în curând complet autonome și mai sigure decât vehiculele pilotate de oameni.
„Sistemul se îmbunătățește atât de mult, atât de repede, încât acest lucru va fi un punct discutabil foarte curând”, a declarat el în 2019 într-un podcast cu cercetătorul în domeniul inteligenței artificiale Lex Fridman.”Aș fi șocat dacă nu va fi până anul viitor, cel târziu… faptul că intervenția unui om va scădea siguranța”.
Tesla recunoaște acum că mașinile sale au nevoie de măsuri de siguranță mai bune. Atunci când a rechemat în service vehiculele cu Autopilot în decembrie, a explicat că sistemele sale de monitorizare a șoferului ar putea să nu fie suficiente și că alertele pe care le-a adăugat în timpul rechemării în service îi vor ajuta pe șoferi să „respecte responsabilitatea de a conduce continuu”.
Cu toate acestea, rechemarea nu a rezolvat pe deplin problema, a declarat Kelly Funkhouser, director asociat pentru tehnologia vehiculelor la Consumer Reports, una dintre cele mai importante companii americane de testare a produselor. Testele sale pe șosea a două vehicule Tesla după remedierea constructorului auto, au constatat că sistemul a eșuat în nenumărate moduri pentru a rezolva problemele de siguranță care au declanșat rechemarea în service.
„Autopilotul face de obicei o treabă bună”, a declarat Funkhouser. „Rareori dă greș, dar dă greș”.