Tesla вже понад рік встановлює та вдосконалює систему автономного управління Full Self-Driving (FSD). Минулого місяця компанія вихвалялася, що за цей час не сталося жодної аварії, але в міру того, як все більше власників отримували доступ до FSD, тим вищою ставала ймовірність того, що колись ДТП таки станеться.

Цікаво Якими електромобілями найбільше задоволені власники: лідер рейтингу

Деталі аварії

Про аварію повідомило Національне управління безпекою дорожнього руху (NHTSA), яке вже проводить кілька розслідувань системи Autopilot, розробленої Tesla. Згідно з опублікованими даними, транспортний засіб, що перебував в режимі FSD, виконував лівий поворот, виїхав не на ту смугу і зіткнувся з машиною, що рухалася сусідньою смугою.

Помилка Tesla може дорого коштувати

Рішення компанії Ілона Маска розпочати тестування програми FSD на громадських дорогах з ненавченими водіями вже зазнало серйозної критики та засудження. З того часу Tesla викотила і відкотила кілька оновлень програмного забезпечення, покликаних виправити знайдені помилки.

Користувачі активно діляться відео із записами поведінки автомобілів на автопілоті: у деяких випадках машини поводяться правильно у складних ситуаціях, у деяких — плутають смуги та допускають інші помилки.

FSD не автопілот

Попри назву, FSD – не повністю автономна система керування. Водії повинні зберігати пильність, не зводити очей з дороги та не знімати рук із керма. За номенклатурою Товариства автомобільних інженерів, це другий рівень автономності.