Сегодня коллега sgerr разместил статью "Михаил Ефремов не считает себя виновным в ДТП" https://aftershock.news/?q=node/883519 . В конце статьи он (не первый раз) задает вопрос: "А теперь повторю вопрос пропагандистам беспилотного транспорта. Представим, что Миша-актер сидел бы за рулем Теслы, включив автономный режим автопилота? Да, так же в говнище бухой и упоротый. Или даже спал бы на пассажирском сидении. И вот, в ДТП "поучаствовала его машина". Как мы поступили бы?" Последовавшее обсуждение шло в основном вокруг персоны Ефремова, с исторической точки зрения ничтожной. А вот очень интересный вопрос про моральную и юридическую сторону проблемы автопилотов как-то упустили из виду.
Я предлагаю вернуться к этой проблеме и уделить некоторое время этому вопросу. В сети есть очень любопытный проект "Машина Морали" https://www.moralmachine.net/hl/ru
Если коротко, вам предлагается рассмотреть ситуацию, когда у управляемой автопилотом машины отказали тормоза и неизбежна авария с жертвами. Однако, у автопилота есть возможность "выбрать жертву". Далее вам предлагается несколько возможных ситуаций, вы должны выбрать самое этичное решение.
Весьма любопытно и познавательно. Я, пройдя это опросник, сформулировал для себя простые правила:
-Человек, который сел в автомобиль с автопилотом, принял на себя все риски перемещения на этом устройстве. Поэтому законопослушный пешеход на переходе всегда имеет преимущество перед пассажирам повозки с автопилотом.
-Человек, идущий на красный свет, нарушает правила. Таких следует давить, невзирая на пол и возраст. Наша цивилизация строится на соблюдении законов. Если человек не в состоянии соблюсти элементарное правило перехода на зеленый - это его проблема
-Котики/собачки в принципе не могут сравниваться с человеком.
-Преступником человека может признать только суд. А вот для автопилота все люди равны.
После прохождения теста рекомендую заглянуть сюда https://elementy.ru/novosti_nauki/433355/Moralnye_problemy_bespilotnykh_... Здесь интересная статистика с обобщениями.
Всем хороших выходных!
Комментарии
Вы на сайт Машина Морали сходили? Поглядите, забавно.
Фактически, вам предлагают поиграть в такие судебные заседания, о которых вы говорите.
Там бред с первой же картинки. Автопилот не сможет отличить ребёнка от низкорослой бабушки. И то и другое для него - препятствие. Дальше даже смотреть не стал - пардон, но это ментальный онанизм.
Ну, смотрите на это как на некое абстрактное упражнение. Мы же обсуждаем не техническую реализацию, а этические принципы.
И, кстати, сдается мне, что вы изрядно ошибаетесь с утверждением "Автопилот не сможет отличить ребёнка от низкорослой бабушки" Ныне в Китае народ дисциплинированно ходит с мобилкой в кармане. На которую ему сбрасывают разрешенный маршрут и которая проверяет точность следования по этому маршруту. Ктстаи, не просто сможем отличить ребенка от мелкой бабушки, но и увидеть их социальный капитал. У кого повыше - тех будем беречь, а кого пониже - беречь не будем.
Технически вопрос распознавания лиц и вопрос распознавания препятствия - совершенно разные задачи. Автопилоту по алгоритму не нужно распознавать лица. Вместо этого он может заранее выявить неисправность тормозной системы. Например, по снижению давления в тормозной системе, падению уровня тормозной жидкости или увеличению тормозного пути, остановиться и затребовать сервисное обслуживание. Кроме того, при отказе тормозов, совершенно не обязательно катиться, пока кого-то не задавишь. Можно отключить (заглушить) двигатель и тем самым тоже снизить скорость вплоть до полной остановки. В общем, решение подобных проблем начато не с того конца.
Еще раз - в кармане у каждого лежит смартфон. Быстродействие сети 5G позволяет вам в аварийной ситуации разобраться, кто является потенциальной жертвой, ФИО, прописка, уровень доходов, социальное положение. Это всё реальность ближайших 5 лет
Что вы за технические детали прячетеь?
Оспидя, да легко - давить надо самого бедного. С ним меньше всего проблем. Такой ответ устраивает?
Меня? Нет, не устраивает. Я бы давил того, кто нарушает правила. Ну, если более точно, я в стартовом топике примерно написал подходы.
Вы предложили внести коррективу - давить самого бедного. Тоже резонно. Бедный платит мало налогов, польза обществу невелика.
А правила нарушает владелец автопилота. В части допуска к управлению лица, не имеющего прав на управление транспортным средством повышенной опасности. Таким образом, транспортное средство должно въехать в стену, или что там по пути попадётся.
Тогда по другому. Я первым пунктом заявил, что человек, севший в роботакси, принял на себя все риски, связанные с этим решением. Отказ тормозной системы - это косяк компании, представляющей услугу роботакси, т.е. это риск пассажира такси. Тогда жертвуем пассажиром.
В результате мы вернулись к тому, что я сказал - в действующих правилах это никак не прописано. Прописано будет по фактам ДТП. В том числе и [автоматическое] подписание рисков пассажиром, севшим в роботакси.
ОК, спасибо, разобрались
Забавно. Спор о том что этично, а что нет. А каков смысл этики ? Зачем она нужна ? Разберитесь с техническим пониманием предмета тогда и применимость не составит проблемы.
Ну, если вы задаетесь вопросом о смысле и нужности этики - вам тут должно быть неинтересно
Необходимость машины это одно, техническое устройство этой самой машины (смысл, как и какие задачи реализует) совсем другое.
Какой то бред в комментариях. Кто будет ответчиком в дтп? А кто в токийском метро ответственный? Где поезда без людишек? Если у машины полный автопилот - именно полный, ответственна компания-производитель и программисты в частности. Техники, обслуживающие авто. Иногда дорожники.
О! Похоже, вы в своем вопросе нащупали важную тонкость. Во всех приведенных вами примерах автопилот работает в "линейной" логике. Без развилок. Самолет либо сядет со всеми пассажирами и экипажем, либо разобьется. И тогда, практически гарантировано, погибнут все.
Автопилот в автотранспорте имеет принципиальное отличие. У него могут возникать аварийные ситуации с "развилкой". Он не може спасти персону А и персону Б одновременно. Придется сделать выбор. Предположим, выбор пал на персону А, его переехали. И тогда предметом судебного разбирательства может стать иск родственников персоны А к разработчику алгоритма автопилота. Т.к. с их точки зрения гораздо более справедливой была бы гибель персоны Б. Все технические детали в этом обсуждении второстепенны. Главное - какой этический алгоритм будет заложен а автопилот для таких ситуаций?
Послушайте, Азимов, конечно, хороший автор, но не надо тащить сюда эту идеалистическую чушь. У вас на работе убило мужика оборвавшимся тросом - виновных найдут быстро, поверьте. Так и тут.
Не, давайте сделаем наоборот. Тут останутся желающие обсуждать эту "идеалистическую чушь". А вы займитесь своими делами, не отвлекайтесь на нас.
Девочки, да без проблем.
А вот хамить не нужно, не на базаре
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Кот древнее и неприкосновенное животное!
Причем здесь кого давить?
Едешь по правилам, в случае препятствия давишь на тормоз. Препятствие виновато что ты в него въехал.
Помнится когда учился в техникуме рассказывали по технике безопастности про токарные станки как девчатам скальп снимает когда платочик не носят . И што на заводе не раз приходилось ругать за это .
Есть ПДД где прописано на красный низя выходить на проезжую часть и если вышел то за свою жизнь сам несешь ответственность а ежели меньше 14 то родители или люди кто ответственные за поступки несовершеннолетнего.
Страницы