Tesla попала под следствие после 11 аварий с машинами скорой помощи

Федеральные регуляторы безопасности сейчас расследуют по меньшей мере 11 аварий с участием автомобилей Tesla с автопилотом, которые врезались в машины скорой помощи.
Национальная администрация безопасности дорожного транспорта (NHTSA) сообщила, что в семи из этих аварий 17 человек получили травмы и один человек погиб.
По заявлению NHTSA, все эти Tesla имели функцию автопилота или круиз-контроль с отслеживанием движения.
Безопасность функции автопилота Tesla уже не раз подвергалась сомнению.
Компания Tesla, основанная в 2003 году, сейчас стоит больше, чем несколько крупных автопроизводителей вместе взятых. Но аварии с участием автопилота не только вынудили регулирующие органы принять жесткие меры против нее, но и уже поставили под угрозу репутацию компании.
Так, акции Tesla упали на 5% после новостей о новом расследовании.
Все аварии, которые попали в поле зрения NHTSA, произошли с 22 января 2018 года по 10 июля 2021 года в девяти штатах. И случались они в основном ночью.
Национальный совет по безопасности на транспорте, отдельное агентство, которое также расследует авиакатастрофы и другие несчастные случаи со смертельным исходом, обнаружил, что автопилот виноват в большинстве аварий со смертельным исходом.
Например, так было во Флориде в 2018 году, когда в результате аварии погиб водитель Tesla.
А в пригороде Хьюстона полиция заявила, что в начале этого года во время аварии на водительском сиденье автомобиля Tesla вообще никого не было. В результате погибли два пассажира. Но это обвинение компания Tesla отрицает.

Хотя Ларс Морави, вице-президент Tesla по автомобильной инженерии, подтвердил, что адаптивный круиз-контроль Tesla был задействован перед тем, как эта машина разбилась.
Дело в том, что автопилот – это не автономная система вождения.
Скорее, это набор программного обеспечения, камер и датчиков, предназначенных для помощи водителям и предотвращения аварий, принимая на себя многие аспекты вождения автомобиля – даже смену полосы движения.
Руководители Tesla утверждают, что передача этих функций компьютерам сделает вождение более безопасным, потому что водители-люди склонны к ошибкам и невнимательности.
И что именно это является причиной большинства из примерно 40 000 дорожно-транспортных происшествий со смертельным исходом, которые ежегодно происходят в Соединенных Штатах.
«Компьютеры не сидят в инстаграме во время вождения», – сказал директор Tesla по искусственному интеллекту Андрей Карпати.
Компания обвиняет водителей своих автомобилей в том, что они не держат руки на руле и не смотрят на дорогу при использовании автопилота.

Пока все под контролем автопилота, водители могут расслабиться, но не должны отключаться, считают в Tesla. Они должны быть готовы в любой момент взять на себя управление, если система запутается или не сможет распознать объекты или опасный сценарий дорожного движения.
Больше об этом можно узнать из другой нашей статьи.
Tesla предупреждает, что «функции автопилота требуют активного наблюдения со стороны водителя и не делают автомобиль автономным».
Агентство по безопасности также заявило, что «каждое транспортное средство требует, чтобы водитель-человек всегда был на контроле, и все законы штата возлагают ответственность за управление своими транспортными средствами на водителей-людей. А все технологии и оборудование на автотранспортных средствах водители должны использовать правильно и ответственно».
Гордон Джонсон, аналитик и активный критик Tesla, считает, что проблема касается не только тех, кто использует автопилот, но и других водителей на дороге, которые могут быть травмированы электромобилями.
«NHTSA тоже считает, что Tesla создает особую опасность для людей, находящихся вне их автомобилей, то есть тех, кто не соглашался быть подопытными кроликами автопилота», – написал Джонсон.

По словам эксперта и главного аналитика Guidehouse Insights Сэма Абуэлсамида, эти автомобили игнорируют неподвижные объекты при движении со скоростью более 40 миль в час.
Поэтому они не используют тормоза при приближении к эстакадам или другим неподвижным объектам на дороге – например, автомобилю, остановившемуся на обочине.
Даже тогда, когда препятствия трудно не заметить – так в двух случаях автопилот проигнорировал тягачи с прицепами, пересекавшие шоссе, и в одном – бетонный барьер.
К счастью, большинство автопилотов реагирует на неподвижные объекты, когда двигаются с меньшей скоростью, сказал Абуэлсамид.
К тому же, световые сигналы, которые водитель непременно увидит в любое время суток (дорожные фонари или мигающие огни поворотников), почти не учитываются системой автоматического вождения.
«Автопилот легко запутать в таких вещах, с которыми у людей не возникнет никаких проблем. Машинное видение не так адаптивно, как человеческое. Так что все машинные системы иногда допускают глупые ошибки», – пояснил Абуэлсамид.
Главная проблема, по его словам, заключается в том, что большинство водителей Tesla уверены, что их автопилоты могут управлять машиной самостоятельно.