Вердикт: «виновен»! Кое-что про «автопилот» Тесла

Аватар пользователя Mr.Wolf

Государственная администрация контроля безопасности на дорогах (National Highway Traffic Safety Administration (NHTSA) – федеральное агентство, подразделение министерства транспорта США) опубликовала отчет с результатами расследования аварий автомобилей марки «Тесла» за период с января 2018 по август 2023 года, связанных тем или иным образом с функцией «автопилота».

Всего было проанализировано 956 аварий, где «автопилот», как утверждалось, первоначально использовался перед или во время аварий. При этом 446 событий, произошедших с начала 2018 по август 2022 года изучались путем углубленной оценки видео с бортовых камер транспортного средства, регистраторов данных о событиях (EDR), журналов данных и другой информации; а оставшиеся 510 (за период август 2022 – август 2023 года) – на основании предоставленных компанией Тесла журналов данных и видео, а также – прочих доступных материалов в случаях, когда информации от Тесла по соответствующему событию было недостаточно.

По результатам анализа большинство ситуаций, где прямое или косвенное влияние «автопилота» было подтверждено, были отнесены к одной из трех категорий.

Удар фронтальной плоскостью

Было выявлено 211 аварий, в которых лобовая плоскость автомобиля столкнулась с транспортным средством или препятствием на своем пути. Ситуация происходит когда водитель прекращает управлять автомобилем Тесла, работающем в режиме автопилота, и транспортное средство сталкивается с обстоятельствами, находящимися за пределами возможностей автопилота по обнаружению объектов или событий (например, обнаружение препятствий и/или планирование правильной траектории). Последствия такого рода аварий часто бывают серьезными, поскольку ни система, ни водитель не реагируют соответствующим образом, что приводит к резкому перепаду скоростей и высокоэнергетической аварии.

В результате 211 аварий, рассмотренных в рамках данного варианта, произошло 13 ДТП со смертельным исходом, в результате которых 14 человек погибли и 49 получили ранения.

Проведенный анализ позволяет сделать вывод о том, что при использовании автопилота водители отключаются от управления автомобилем и в результате – несвоевременно реагируют на заблаговременно видимую опасность.

Реакция водителей на опасность до удара, на основании регистраторов данных о событиях и журналов данных транспортного средства была следующей: водители либо вообще не тормозили, либо тормозили менее чем за одну секунду до аварии в 82 процентах инцидентов, и либо не рулили, либо пытались рулить менее чем за одну секунду до удара в 78 процентах инцидентов.

При этом, в 54% случаев, опасность была видна более чем за 5 секунд, однако по каким-то причинам водители не отреагировали на нее. Для прочих случаев также своевременная реакция водителя позволила бы смягчить последствия аварии, но в виду ее отсутствия этого не произошло.

Таким образом, несмотря на многочисленные предупреждения производителя, самой системы и применение защитных механизмов (включая контроль действий и взгляда водителя специальной камерой) – достаточный уровень вовлеченности водителя в управления автомобилем не был обеспечен. Ситуация характерна для всех версий оборудования Тесла и при всех вариантах аварий.

Потеря контроля при слабом сцеплении с дорогой

Было выявлено 53 аварии, где функционал «autosteer» (компонент пакета Тесла «Basic Autopilot», который предназначен для использования на «автомагистралях с контролируемым доступом» и может обеспечить поддержку рулевого управления, торможения и ускорения для водителей в определенных условияхсогласно документации Тесла) использовался в условиях слабого сцепления с дорогой, например, на мокрых дорогах, где транспортное средство потеряло сцепление с дорогой, и впоследствии -контроль направления движения, что привело к катастрофе. Как правило, транспортное средство почти сразу выходит из своей полосы движения и далее – ударяется о барьер проезжей части или другой объект.

Непреднамеренное переопределение рулевого управления

Было выявлено 55 аварий, когда в ходе использования «автопилота», водитель случайно или неосознанно деактивировал функционал «autosteer», и при этом функционал «TACC» (Traffic-Aware Cruise Control - круиз-контроль с учетом дорожного движения, который в других автомобилях называется ACC или адаптивным круиз-контролем. Это обычный круиз-контроль, за исключением того, что он использует датчики, чтобы «видеть» машины перед вами и изменять скорость в зависимости от дорожного движения. Если автомобиль перед вами движется медленнее, чем заданная вами скорость, он замедлится и сохранит подушку безопасности между вами и автомобилем впереди. При этом нет подсистема не осуществляет рулевое управление, этим управляет водитель – или «autosteer») оставался активным.

Это происходило, как правило, при более активном участии водителя в рулении: сильный поворот руля или несколько прерывистых движений рулем – отключают функционал «autosteer». При этом водитель продолжал считать, что за руление отвечает «автопилот», в результате чего неуправляемая машина покидала свою полосу движения с дальнейшими неблагоприятными последствиями.

Про телеметрическую информацию

В ходе анализа выяснились и неблагоприятные факты о функционировании сбора телеметрии компанией Тесла.

В действительности, компания Тесла не знает о каждой аварии с участием «автопилота» даже в случае серьезных аварий из-за пробелов в телематической отчетности. Дело в том, что Тесла получает телематические данные от своих автомобилей, когда существует соответствующая сотовая связь и антенна не повреждается во время аварии. И в этом случае передается информация как о самой аварии, так и сводные данные по автомобилю, его движению, управлению и т.д. При отсутствии связи – информация не поступает, что заметно усложняет анализ аварий.

Более-менее надежно приходят данные в случае срабатывания подушек безопасности, но доля каких событий по имеющимся отчетам – незначительна (порядка 18%).

Однако Тесла в предоставлении отчетности предпочитает ориентироваться именно на телеметрию, в отличие от других участников рынка, использующих весь комплекс средств для анализа произошедших неблагоприятных событий. Это приводит, в том числе – к расхождению в трендах, наблюдаемых по отчетам.

Сравнение с аналогами

Данные, собранные по аналогичным решениям иных производителей, позволили задокументировать общее состояние внедрения «автопилотов» в США, в том числе - подход каждого производителя к разработке, выбору дизайна, развертыванию и совершенствованию своих систем. Сравнение подхода Тесла с иными решениями позволяет сделать вывод, что решение Тесла несбалансированно в виду применения слабой системы вовлечения водителей наряду с широкими операционными возможностями «автопилота».

В отличие от аналогичных систем, протестированных при анализе, «автопилот» Тесла фактически оказывал сопротивление водителям при попытке обеспечить ручное рулевое управление. Попытки водителя-человека отрегулировать рулевое управление вручную приводили к деактивации «autosteer» с последующей потерей управления автомобилем. Другие протестированные системы учитывали рулевое управление водителей, приостанавливая при этом автоматическое соблюдение полосы движения, а затем повторно активируя его без дополнительных действий водителя.

Примечательно, что сам термин «автопилот» не подразумевает функцию помощи, а скорее вызывает идею о том, что водители не должны осуществлять полный контроль. Эта терминология может привести к тому, что водители полагаются на него, считают, что автоматизация имеет больше возможностей, чем на самом деле. Идентичные решения других производителей обычно используют более консервативную терминологию, такую как «помощь», чтобы подразумевать, что водитель и автоматика предназначены для совместной работы, и именно водитель должен осуществлять постоянный контроль.

P.S.

Tesla выпустила бета-версию крупного обновления (v12) фирменной технологии автономного вождения FSD. По словам Илона Маска, оно внедряет в автопилот «сквозные нейронные сети», благодаря чему за поведение транспортного средства на дороге будет отвечать искусственный интеллект.

Если раньше автомобиль Tesla во время включённого автопилота полагался на заранее запрограммированный код, написанный сотрудниками компании, то в FSD v12 этим занимается нейронная сеть, обученная на миллионах видеозаписей. Это позволило программистам Tesla удалить более 300 тысяч строк кода C++.

Интересно, что Tesla с самого начала заявляла, что Full Self-Driving будет полагаться на искусственный интеллект при управлении транспортным средством, но потребовалось более 7 лет с момента релиза этой функции, прежде чем компания действительно реализовала обещанное. Но как это будет работать на практике — покажет время.

источник

Авторство: 
Авторская работа / переводика
Комментарий автора: 

Ситуация с "автопилотом" у Теслы, похоже, развивается не лучшим образом. 

Конечно, на общем фоне аварийности на дорогах - цифры незначительные. Но сделанные заключения и выводы близки к черному пиару. Насколько широко данный документ будет доведен до публики, и к каким последствиям приведет - можно только фантазировать.

А вот попытка прикрутить к и так не совсем адекватно функционирующей поделке ещё и ИИ - должна вызывать заметную настороженность: если уж у людей рулить с таким вот "автопилотом" адекватно не получается - чего стоит ждать от ИИ?

Комментарии

Аватар пользователя ExMuser
ExMuser(11 лет 6 месяцев)

И машина у вас страшная, катафалка какая-то. ©

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

А зато - елестрическая!

Аватар пользователя ExMuser
ExMuser(11 лет 6 месяцев)

Ога. При аварии ещё и бесплатная кремация прилагается.

Аватар пользователя bookinist
bookinist(8 лет 10 месяцев)

На похоронах экономия как ни как!)smile3.gif

Аватар пользователя ExMuser
ExMuser(11 лет 6 месяцев)

А то, что осталось, можно ещё на чер/цветмет сдать. Сплошной профит.

Аватар пользователя bookinist
bookinist(8 лет 10 месяцев)

Утиль сбор меньше... Одни плюсы!)

Аватар пользователя ExMuser
ExMuser(11 лет 6 месяцев)

smile454.gif

Пора патентовать схематоз. А то Маск опередит.

Аватар пользователя bookinist
bookinist(8 лет 10 месяцев)

smile19.gif

Аватар пользователя ExMuser
ExMuser(11 лет 6 месяцев)

smile454.gif

Аватар пользователя Positron
Positron(5 лет 1 неделя)

мечты.. мечты...

а вот что говорят цифры и данные о реальных случаях - хотите зажариться, покупайте гибрид!

   

Комментарий администрации:  
*** Уличен в дезинформации "во имя Теслы", требуйте обоснование на каждое слово - https://aftershock.news/?q=comment/11211089#comment-11211089 ***
Аватар пользователя ExMuser
ExMuser(11 лет 6 месяцев)

Верим, верим, конечно.

Аватар пользователя Pavel-ch
Pavel-ch(9 лет 6 месяцев)

Вердикт - если бы всеми машинами и пешеходами управлял ИИ, аварий бы не было.

Поэтому надо забрать у потомков обезьян руль и отдать его в надежные руки ИИ.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ну, не знаю...

Пока в такие ИИ-авто - не очень тянет. Видать - руки там излишне надежные.

Аватар пользователя Диванный эксперт

Оставить такой комментарий под статьей, где черным по белому разбираются ДТП по вине кривого автопилота - это мощно.

Люди, считающие что компьютер не может ошибаться и сбоить, видимо никогда в жизни им не пользовались.

Комментарий администрации:  
*** отключен (инфомусор) ***
Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ну, люди ведь имеют право верить в лучшее :-)

smile19.gif

Аватар пользователя Кабан
Кабан(12 лет 3 месяца)

Лично я не фанат теслы и электромобилей в целом, но тут явно несправедливый подход. Вначале надо бы указать количество и тяжесть аварий на миллиард километров пробега для теслы и других видов машин, как с "автопилотами", так и без. Лучше всего в той-же ценовой и габаритной категории. А уж потом анализировать причины аварий теслы.

Комментарий администрации:  
*** Современная Россия - червяк в навозе (с) ***
Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Если вы в целом аварийность марки исследуете - то "да", вы правы.

Но поскольку выполнялся узкий анализ именно случаев, когда причастен "автопилот" Теслы - то сделано всё правильно: проанализированы все известные случаи аварий с "автопилотом" Теслы. Перечень исчерпывающий.

Поскольку результатом анализа являются выводы именно касательно особенностей  "автопилота" Теслы, а не формирование какого-нибудь рейтинга и т.п. - никакой несправедливости нет.

Можете поискать аналогичные исследования для других марок, не факт что их нет.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Проблема в том, что по этой статье не понятно - если включить автопилот, то количество аварийных случаев увеличится или уменьшится.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ну, тут не знаю как еще можно пояснить. ОК, пробуем.

Если авария произошла из-за того, что человек тупо перестал рулить, понадеявшись на автопилот - то как вы считаете: при невключении автопилота - такая авария имела бы место?

Если авария произошла из-за того, что автопилот сам выключился - то при невключении автопилота - такая авария имела бы место?

Дальше продолжать? Или сами?

Аватар пользователя Sergio128
Sergio128(6 лет 2 месяца)

Нужно тупо рассматривать количество инцедентов на миллион километров. Какая разница, выжил бы конкретный водитель, если бы у него не было автопилота в принципе? Нас не этот конкретный водитель интересует, а статистика на больших числах. Мол, да автопилот убил 10 человек по глупому, но в целом спас 10 тыс в остальных случаях, когда среагировал радаром в темноте, вёл вместо пьяного водителя, не заснул вместо сонного и т.д. и т.п. Нужно в целом статистику смотреть, а не конкретно несколько фейлов.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Я рекомендую вам почитать материал. Если изложено не доходчиво - внизу указан источник, изучите его.

Не знаю как вас, а нас НЕ ИНТЕРЕСУЕТ статистика на больших числах. А интересует - что происходило реально и почему именно произошла авария. Как показывают результаты анализа - причин в целом две: либо человек понадеялся на автопилот и перестал следить за дорогой - либо автопилот тупо выключился, а человек об этом не догадался. И тот и другой случай - это показательно хреновой реализации "автопилота" имени Теслы. О чем и было заявлено. Точка.

Аватар пользователя Sergio128
Sergio128(6 лет 2 месяца)

Без разницы как он там реализован применительно к конкретным инцедентам, в отношении других инцедентов он может быть замечательно организрван, спас 100500 человек и эти инцеденты вообще не вошли в эту статистику. Это как в медицине, лекарство может миллион человек спасти, но убить 10 аллергиков, которые и не знали, что они аллергики. Да, могли бы жить, глупо получилось с точки зрения этих аллергиков, они могли и лругое лекарство выбрать и не лечиться вообще, но для популяции в целом это лекарство будет однозначно полезно.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Без разницы как он там реализован

Полный бред. Дальше не продолжаю.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Ладно, так самый главный вопрос - как безопастнее ездить со включенным автопилотом Тесла или с выключенным?

Аватар пользователя Positron
Positron(5 лет 1 неделя)

как безопастнее ездить со включенным автопилотом Тесла или с выключенным?


вот поквартальная статистика, сколько миль до одной аварии:

  • при включенном автопилоте,
  • выключенном (но при этом все равно работает активная система предотвращения столкновений)
  • и средняя цифра по Штатам

например за 4 квартал 2023 г.

В четвертом квартале фиксировали одну аварию на каждые 5,39 миллиона миль (8.67 млн км), пройденных водителями с использованием технологии автопилота. Для водителей, которые не использовали технологию автопилота, мы зафиксировали одну аварию на каждые 1,00 миллион миль пробега. Для сравнения, самые последние данные, доступные от NHTSA и FHWA (за 2022 год), показывают, что в Соединенных Штатах автомобильные аварии происходили примерно каждые 670 000 миль.

цифры разные из-за сезонных  измений погоды и эволюции автопилота.

  

  

Комментарий администрации:  
*** Уличен в дезинформации "во имя Теслы", требуйте обоснование на каждое слово - https://aftershock.news/?q=comment/11211089#comment-11211089 ***
Аватар пользователя balmer
balmer(7 лет 2 недели)

О! Спасибо, именно то что нужно. Цифры действительно очень впечатляющие.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Красава!

То есть компания Тесла сказала, что использовать платную прибамбасину имени компании Тесла на автоповозке Тесла - не только безопасно, но и даже полезно. И все пали ниц в слепой вере, как же иначе то?

Так можно было?

З.Ы. В размещенном материале явно указано, что Тесла не способна даже собрать полную статистику со своих повозок. Так что выставленный позитрончиком отчет компании Тесла - не что иное, как творческий анализ тех данных, которые СМОГЛИ СОБРАТЬ. А не тех, которые реальные. Вы это, того, учтите сию специфику. Так, на всякий случай.

Аватар пользователя Крякодил
Крякодил(9 лет 11 месяцев)

Спасибо за статистику! Очень информативно.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ога, ога! Очень информативно. Статистика про Теслу от Теслы, направленная юэсэйным позитроничиком - очень информативна и полезна такому же крякодильчику.

Ребят, ну не палитесь так уж явно...

Аватар пользователя vlkamov
vlkamov(12 лет 10 месяцев)

> Ну, тут не знаю как еще можно пояснить.

"Числа ? Нет, не слышал."

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Вам число "1" - известно? ОК, вот вы - та самая единица, которая навсегда сгинет в аварии. Остальные числа для вас в этом случае большой интерес представляют? 

Аватар пользователя vlkamov
vlkamov(12 лет 10 месяцев)

- мухлёж, однако.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ну, то есть - слился? Или на заданный вопрос способен ответить?

Аватар пользователя vlkamov
vlkamov(12 лет 10 месяцев)

> Или на заданный вопрос способен ответить?

- опять мухлёж.

То есть за числа ты ответить не способен, только брехать.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

За хамство и пустой флейм - месяц отдыха.

Аватар пользователя Кабан
Кабан(12 лет 3 месяца)

> Поскольку результатом анализа являются выводы именно касательно особенностей  "автопилота" Теслы, а не формирование какого-нибудь рейтинга и т.п. - никакой несправедливости нет.

Если бы это был внутренний анализ производителей теслы с целью улучшить "автопилот", то да. Но это "исследование" по факту сугубо пропагандистское.

Комментарий администрации:  
*** Современная Россия - червяк в навозе (с) ***
Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Это исследование продукции конкретного производителя. У вас есть возможность обратиться к исполнителям и инициаторам со своими претензиями.

Спойлер. В свое время было заметно более обширное исследование, которое привело к событию под названием "дизельгейт". Почему-то исследовали только Фольксваген, но также почему-то никто не заявлял, что оно "сугубо пропагандистское". Что-то должно поменяться в светлом граде на холме? С чего вдруг?

Аватар пользователя MAGNUS8
MAGNUS8(6 лет 3 недели)

Судя по рекламным заявлениям, полный автопилот должен был появиться пару лет назад. Наверное, не всё так просто, нужна инфраструктура датчиков на дорогах, обмен информацией между автономными машинами и серверами для координации и т.д. Понятно, что когда-нибудь это всё случится

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

А пока - имеем маркетинговое название, вводящее людей в заблуждение, и - порой - приводящее к трупам. Увы.

Аватар пользователя Кабан
Кабан(12 лет 3 месяца)

Автопилот давно есть. Пока очень дорого. Как только будет экономически выгодно, так за два дня порешают юридические проблемы и все новые машинки будут выпускать без руля.

Комментарий администрации:  
*** Современная Россия - червяк в навозе (с) ***
Аватар пользователя vlkamov
vlkamov(12 лет 10 месяцев)

> Как только будет экономически выгодно

Кому выгодно ?

Аватар пользователя Vladyan
Vladyan(9 лет 6 месяцев)
Аватар пользователя kv1
kv1(8 лет 7 месяцев)

Надо вводить "автопилотные зоны" на магистралях, где можно его включать. А вне этих зон он должен отключаться с соответствующим предупреждением. Тогда он будет действительно как автопилот в самолете и не будет соблазна использовать его, например, в городе.

Аватар пользователя Ути-пути
Ути-пути(1 год 4 месяца)

Город бывает разный. Например, можно пару часов ползти в пробке со средней скоростью <10км/ч, вот уж усыпляет - так усыпляет.

Аватар пользователя Ути-пути
Ути-пути(1 год 4 месяца)

Конечно, на общем фоне аварийности на дорогах - цифры незначительные.

Так и количество тесл незначительное. Их всего продано 4.5млн за все время во всем мире, и часть уже в утиле. А всего авто, только в США продается по 16млн в год.

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов
Повелитель Ботов(54 года 11 месяцев)

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Алекс_андр
Алекс_андр(7 лет 6 месяцев)

Это было известно давно: опасно делать системы, которые предназначены для работы под наблюдением человека, и работающие успешно в 99% случаев. Потому что человек со временем привыкает к тому, что "компьютер не ошибается" - и перестаёт следить за обстановкой и системой.

Например, локомотив на железной дороге оборудован очень большим числом систем безопасности - и по факту может обходиться без машиниста. Те самые 99% времени.

Поэтому существенная часть систем безопасности следит за тем, чтобы машинист не расслаблялся и продолжал следить за ситуацией.

Вам не понравистся автопилот в машине, который постоянно проверяет вашу бдительность так, как за этим следит автоматика локомотива.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Беда в том, что Тесла пару лет назад делала обновление - и заявила, что теперь то уж точно компьютер не обманешь и он следит за водителем. Ну, именно так, как упомянутая вами автоматика локомотива. Вот только результат особо и не поменялся...

Аватар пользователя Диванный эксперт

Никакого автопилота не существует.

тесла врала в рекламе, называя это автопилотом, а когда их машины начали биться и убивать водителей и окружающих , их юристы в суде заявили -

"В инструкции четко написано, что это не автопилот, а круиз-контроль и его использование не отменяет того, что автомобилем управляет водитель'.

Но проблема в том, что их круиз-контроль берет на себя слишком много функций. И когда происходит сбой, человек, который до этого фактически не управлял автомобилем, не может в нужные сроки ( полсекунды) переключиться на управление.

Все эти автопилоты - туфта для лохов-манагеров, хипстеров и вейперов. В реальности их не будет. Потому что производитель автопилотов ни за что не возьмет на себя ответственность за аварии и гибель людей.

А пользоваться фигней, которая может убить тебя и окружающих, которую ты не контролируешь, но за ошибки которой ты можешь умереть или сесть - признак дебила ( или манагера-хипстера-вейпера).

Комментарий администрации:  
*** отключен (инфомусор) ***
Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Да, вы полностью правы.

Но теперь то же самое заявлено официально, на уровне минтранса США. Будем посмотреть на выводы.

Страницы