Новости Хакеры получили доступ к процессорам Tesla FSD аварийных автомобилей и раскрыли тревожащие данные

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
27.470
Репутация
11.420
Реакции
60.886
RUB
50
Независимое расследование, проведенное The Wall Street Journal, показало, что система помощи водителю Tesla Autopilot может приводить к смертельным авариям из-за ошибочных решений, принимаемых алгоритмом.

Журналисты издания извлекли компьютеры Tesla с функцией FSD из аварийных автомобилей и с помощью хакеров, как Notebookcheck, получили доступ к необработанным данным автопилота.

 Системная плата компьютера Tesla FSD. Источник изображения: WSJ


Анализ этой информации вместе с видеозаписями аварий и официальными отчётами позволил воссоздать 222 инцидента с участием Tesla. В 44 случаях автомобили на автопилоте внезапно меняли траекторию направления, а в 31 случае не остановились или не уступили дорогу. Последний сценарий, по данным исследования, обычно приводил к наиболее тяжёлым авариям.

Одним из самых ярких и нашумевших примеров служит столкновение с перевёрнутым прицепом, который система автопилота не смогла распознать как препятствие и автомобиль Tesla врезался в него на полной скорости. Приводятся и другие свидетельства, когда во время тест-драйва система FSD повела себя неадекватно, в следствии чего автомобиль пересёк сплошную линию разметки и едва не спровоцировал аварию на перекрёстке.

Также выяснилось, что система FSD плохо распознаёт аварийные сигналы, что приводит к столкновению транспортных средств.

Расследование The Wall Street Journal выявило в автопилоте проблемы как аппаратного, так и программного характера, начиная от медленного обновления алгоритмов до недостаточной калибровки камер. Пока неясно, достаточно ли этих данных, чтобы опровергнуть утверждение Илона Маска (Elon Musk) о том, что система Tesla всё равно безопаснее водителя-человека.


 
  • Теги
    tesla процессор tesla fsd
  • Сверху Снизу