Tesla уже более года устанавливает и совершенствует систему автономного управления Full Self-Driving (FSD). В прошлом месяце компания хвасталась, что за это время не произошло ни одной аварии, но по мере того, как все больше владельцев получали доступ к FSD, тем выше становилась вероятность того, что когда-то ДТП таки произойдет.

Интересно Какими электромобилями больше всего довольны владельцы: лидер рейтинга

Подробности аварии

Об аварии сообщило Национальное управление безопасностью дорожного движения (NHTSA), которое уже проводит несколько расследований системы Autopilot, разработанной Tesla. Согласно опубликованным данным, транспортное средство, которое находилось в режиме FSD, выполняло левый поворот, выехало не на ту полосу и столкнулось с машиной, которая двигалась по соседней полосе.

Ошибка Tesla может стоить дорого

Решение компании Илона Маска начать тестирование программы FSD на общественных дорогах с необученными водителями уже подверглось серьезной критике и осуждению. С тех пор Tesla выкатила и откатила несколько обновлений программного обеспечения, призванных исправить найденные ошибки.

Пользователи активно делятся видео с записями поведения автомобилей на автопилоте: в некоторых случаях машины ведут себя правильно в сложных ситуациях, в некоторых — путают полосы и допускают другие ошибки.

FSD не автопилот

Несмотря на название, FSD – не полностью автономная система управления. Водители должны сохранять бдительность, не сводить глаз с дороги и не снимать рук с руля. По номенклатуре Общества автомобильных инженеров, это второй уровень автономности.