Этика эпохи онлайна: как научить искусственный интеллект этическим нормам

Аватар пользователя Нацпроекты

Во всем мире твердят, что будущее за искусственным интеллектом (ИИ), и пандемия коронавируса это только подтвердила. В России до конца августа президент Владимир Путин поручил утвердить федеральный проект "Искусственный интеллект" в рамках нацпрограммы "Цифровая экономика", который должен обозначить конкретные шаги на пути к достижению эры ИИ в стране.

Теперь как перед учеными, так и перед программистами стоят этические проблемы развития ИИ. Ведущий научный сотрудник Института государственного и муниципального управления НИУ ВШЭ Евгений Стырин в авторской колонке рассуждает об этике искусственного интеллекта после глобального локдауна, ее сложностях и путях решения актуальных задач.

ИИ без предрассудков

В ситуации, когда мировой порядок адаптируется к условиям пандемии, государство вслед за бизнесом стремится предложить гражданам образовательные, медицинские и иные платформы, где весь спектр сопутствующих услуг будет полностью цифровым. Рекомендательная система в рамках платформы, построенная на основе технологий ИИ, будет в автоматическом режиме анализировать информацию и принимать решения, что советовать пользователю, как ему лучше всего реализовать свои потребности.

Среди социальных принципов и ценностей этически ориентированных алгоритмов искусственного интеллекта - уважение к частной жизни человека на основе равенства прав и справедливого доступа к реализации потребностей на основе закона. Поскольку ИИ - это всегда алгоритмические решения с долей вероятности ошибок, способных в итоге дискриминировать интересы различных референтных групп населения (этнических, гендерных, возрастных), встает проблема этической пригодности этих решений. Если нет четкого алгоритма выбора нравственных шагов, захочет ли человек знать то, что может предсказать ИИ: свой медицинский диагноз, совместимость в браке, выбор профессии?

Например, в процессе обучения на онлайн-платформе выявляется профиль человека, его склонность к предметам, анализируется скорость обучения. На основании этих данных рекомендательная система предлагает человеку траекторию обучения, то есть программирует выбор знаний, а значит, и будущую профессию для человека.

И тут же встает вопрос: имеет ли право рекомендательная система на основании накопленных данных предлагать человеку траекторию жизни? А если он хочет быть художником, а не инженером? Интересный факт: успеваемость учеников в Британии статистически зависит от происхождения семьи, но этично ли учитывать этот фактор в работе алгоритма для "умных" рекомендательных систем в образовании?

Чтобы решить возникающие этические дилеммы, необходим широкий консенсус. Споры о том, каким приоритетным свойствам должно соответствовать образование или здравоохранение, ведутся непрерывно и всегда разделяют общество на несколько непримиримых лагерей, в том числе и по этическим соображениям.

В здравоохранении уже сейчас формируются цифровые медицинские портфолио, которые сохраняют все множество данных: историю болезней, назначаемые препараты, результаты анализов. На основе цифровых данных о пациенте нейросеть может прогнозировать состояние его здоровья на ближайшие годы. При этом мы до конца не знаем, как нейросеть принимает решения, как в условном "черном ящике" происходят прогнозы, классификации.

Прямая передача прогнозных результатов работы нейросети психологически травмирует пациентов, вызывает ипохондрию, неврозы, мнительность: как отнестись к 70-процентной вероятности повторного инсульта в ближайшие два-три года или 60-процентному риску микроинфаркта?

Вправе ли пациент отказаться от такого мониторинга или будет обязан его проходить из-за требований органов власти, страховых компаний, которые разработали специальные пенсионные или страховые программы? Это этическая дилемма. Так, проект Panorama на протяжении всех стадий беременности матери может генетически тестировать плод на большой разброс аномалий. И в случае выявления мутаций на родителей ложится моральная и психологическая нагрузка - прерывать беременность или нет.

В этой ситуации целесообразно обязать разработчиков раскрывать оценочные параметры алгоритма, если его результаты затрагивают общественные интересы. В обсуждении оценочных составляющих должны принимать участие различные референтные группы. В образовании - ученики, родители, эксперты, чиновники; в здравоохранении - врачи, пациенты, эксперты, научные сотрудники лабораторий.

И тут либо поиск консенсуса, либо выработка четких параметров, которые нельзя использовать в оценке в силу их дискриминационного характера. Иными словами, реализация алгоритмов на основе ИИ, призванных заменить интеллектуальную профессиональную деятельность отраслевых специалистов (будь то определение траектории обучения или процесс прогнозирования рисков первичного или повторного заболевания), должна подчиняться принципу обратной связи с теми, на кого направлена рекомендательная или прогнозная деятельность алгоритма.

От нейросетей к этичным алгоритмам

Понятно, что здесь нет идеального решения, всегда найдутся несогласные с результатами работы алгоритма. Более того, в системе образования или здравоохранения соответствующие оценивающие критерии также эволюционируют во времени, а значит, рекомендательные алгоритмы тоже будут меняться. Главное в этом процессе - не пропускать так называемую этическую экспертизу, которую могут проводить отраслевые эксперты, эксперты в области цифровых технологий, ответственные за развитие отрасли государственные служащие.

Результаты экспертизы должны обязательно учитываться при внедрении рекомендательного или прогнозного ИИ-алгоритма на отраслевых цифровых сервисных платформах. А у граждан должно быть право пожаловаться на результаты его работы в комитет по этике при курирующем отрасль ведомстве.

Так, цифровой трансформацией в образовании в первую очередь занимаются крупные российские вузы. В большинстве из них уже созданы или могут быть созданы комитеты по этике, которые занимаются всем спектром вопросов в этической плоскости: отношениями студентов и преподавателей, деятельностью преподавателей, студентов и любыми иными вопросами, связанными с реакцией университетского сообщества на события извне и внутри.

Особенно информированность важна для сферы здравоохранения. Работа алгоритмов увеличивает количество альтернатив, обогащает знаниями и прогнозами, но в силу специфики машинного обучения только с определенной вероятностью их реализации. В итоге на специалистов (медиков) ложится ответственность за этичное информирование пациентов о возможных альтернативах лечения. И тут необходимо системно повышать их квалификацию, чтобы грамотно информировать пациентов об особенностях применяемых методов на основе технологий ИИ.

Для этого следует разрабатывать курсы в системе основного и дополнительного образования медиков, проводить тренинги и повышение квалификации специалистов - так же, как и в сфере возможностей цифровых технологий в медицине. Наиболее реалистичным в краткосрочной перспективе было бы решение этой задачи с помощью назначения каждым медицинским учреждением и курирующим здравоохранение ведомством отдельных специалистов по медицинской этике, а также этике внедрения ИИ в области медицины.

Аналогично могут разбирать сложные ситуации в досудебном порядке (разгружая судебную систему) этические комитеты при крупных госпиталях, на уровне региональных или федеральных властей, в чьей ведомственной ответственности находится деятельность соответствующей организации в сфере здравоохранения.

Несмотря на необратимый характер использования решений на основе ИИ, не стоит забывать о человеческой, нравственной и моральной составляющих в жизни пользователя, на котором они сфокусированы. Нам всем только предстоит выработать подходы к тому, в какой степени ИИ-технологии могут решать за людей, могут снабжать их знаниями о здоровье, профессиональных склонностях, иных предпочтениях так, чтобы люди были способны переварить их и использовать на благо себе и не во вред другим. А государство, которое по определению должно заботиться о процветании и комфорте граждан, должно способствовать внедрению этичных алгоритмов, которые принимают или помогают принимать непредвзятые, недискриминационные решения в интересах всего общества.

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Partisan
Partisan(8 лет 9 месяцев)

Что-то в этом есть... У ИИ нет (покаsmile1.gif) вредных привычек, ему не нужна недвижимость за границей...

Аватар пользователя Корректор
Корректор(3 года 9 месяцев)

Да сколько можно, кувалда не может быть этичной. Это просто очевидно. А весь этот ИИ не более чем кувалда.

Аватар пользователя ВладиславЛ
ВладиславЛ(2 года 2 месяца)

Этика будет разделять вас от небытия. Системно нужная вещь, но сильный ИИ будет больше негуманоидом впрочем лучше можно учесть людей чем сейчас.

Аватар пользователя Basych
Basych(6 лет 8 месяцев)

Там ещё не скоро просекут эту тему. Те что поопытнее, запал свой снижают, но сзади уже напирают следующие наивные, но крайне устремлённые граждане.

А государство, которое по определению должно заботиться о процветании и комфорте граждан, должно способствовать внедрению этичных алгоритмов, которые принимают или помогают принимать непредвзятые, недискриминационные решения в интересах всего общества.

Если эту фразу дать на анализ тому же ИИ, использующему сухую логику, он зависнет напрочь.

Аватар пользователя Mrs-очевидность
Mrs-очевидность(6 месяцев 1 неделя)

Да сколько можно, кувалда не может быть этичной. Это просто очевидно. А весь этот ИИ не более чем кувалда.

smile466.gif «Если инструментом можно убить бабушку, то бабушка обязательно будет убита» Нельзя давать на откуп нейросети(ИИ) влияние на социальные практики- только человек, чтобы можно было привлечь его к ответственности в случае чего.
А иначе мы свалимся в постмодерн.

Аватар пользователя Корректор
Корректор(3 года 9 месяцев)

Нельзя давать на откуп нейросети(ИИ) влияние на социальные практики

Да ну? А может что-то не так с этими самыми социальными практиками. Если мы сами сделали общество опасным, но кувалда не виновата. Она же кувалда.

 

Аватар пользователя Hamulus
Hamulus(6 лет 4 месяца)

этика - это производное от технологий
фактически это некие правила поведения, адаптированные к тем возможностям и угрозам, которые стоят перед людьми на данный момент

а значит та этика и мораль, которыми мы руководствуемся сейчас явно не подойдет к технологиям будущего... да во многом она и к технологиям настоящего уже мало подходит

более того, человек - точно такая же нейросеть, которая тоже способна обучаться
не обязательно, а то и вредно учить человека тому, чему были обучены его предки, если он живет в совершенно иной технологической реальности чем они

а потому все рассуждения о том, каким должен быть ИИ с позиции нынешнего человека - не совсем корректно... адаптироваться будет как машина, так и человек... который по большому счету та же машина, только сбоку:)

Аватар пользователя Basych
Basych(6 лет 8 месяцев)

...который по большому счету та же машина, только сбоку:)

Да ладно!?

Какая ещё машина?

У человека есть эмоции. 90% человеческих ошибок происходит именно из-за них. Машина ценна именно тем, что не распускает нюни и не гоношится. Пытаться научить такому машину, всё равно что лить в двигатель автомобиля вместе с маслом песок. Одним словом, дурь какая-то снова на уме у всяких там проектёров.

Аватар пользователя Hamulus
Hamulus(6 лет 4 месяца)

ну на самом деле непредсказуемость эмоций - лишь следствие недостаточных знаний о мозге

и машину, кстати учат не эмоциям, машину учат обобщениям, если мы говорим про обучение нейросетей
собственно и человеческая нейросеть и нейросеть любого другого животного, и нейросеть в машине имеет ценность именно в том, что умеет обобщать и адаптироваться к имеющимся условиям, в отличие от четкой программы, построенной исключительно на логике
 

Аватар пользователя Basych
Basych(6 лет 8 месяцев)

...ну на самом деле непредсказуемость эмоций - лишь следствие недостаточных знаний о мозге...

И что это меняет?

Какая разница что именно мешает, если помеха неустранима в ближайшие лет сто как минимум? К тому же, смею отметить тот факт, что обретя достаточные знания об этом самом мозге, человечество одновременно перестанет нуждаться в электронных костылях. 

...и машину, кстати учат не эмоциям, машину учат обобщениям...

Вот именно. Но я думаю, что Вы даже не поняли что написали.

Один переживает, а другой тупо копирует внешние реакции первого. А где Вы видели постоянство в эмоциях? Сегодня они привели человека к таким-то действиям, а завтра к иным. И что копировать? И самое главное, кого брать за образец?

Сухая логика ИИ сообщит Вам, что Вы несовместимы с женщиной с которой собрались создать семью. Но Вы же её любите? Какая там ещё железяка, будет рассказывать как Вам жить и самое главное с кем? Или Вы предполагаете, что ИИ должен выступать в роли Вашего друга и нести всякую сентиментальную околесицу? Начёрта он тогда вообще нужен? ИИ нужен только для того, чтобы очищать различные анализируемые процессы от всякой шелухи. Задал ему исходные данные, получил от него последовательность действий ведущих к предполагаемому результату. Всякие сопли с сахаром должны быть исключены или с таким же результатом Вы можете обратиться к обычному человеку. Тогда выходит ИИ снова не нужен.

Аватар пользователя clinch63
clinch63(4 года 6 месяцев)

не стоит забывать о человеческой, нравственной и моральной составляющих в жизни пользователя

  Человеческая составляющая может проявляться в "духе противоречия", когда человек поступает не так, как ему советуют, а "по-своему". Что будет советовать искусственный интеллект такому человеку? Посоветует как всем то, что посчитает наиболее полезным человеку (решение "А") или, помня о "духе противоречия", посоветует противоположное (решение "Б"), чтобы человек в итоге пришёл к решению "А". И как поступит человек, зная о такой возможности ИИ? Поступит противоположно совету ИИ о решении "Б" или наоборот примет его, чтобы не придти к решению "А"?  smile7.gif

Аватар пользователя Txip
Txip(8 лет 2 недели)

И тут же встает вопрос: имеет ли право рекомендательная система на основании накопленных данных предлагать человеку траекторию жизни?

Ой-ой-ой. А счас всякое гавно рекламировать подросткам значит этично.

Аватар пользователя снежный барс
снежный барс(3 года 9 месяцев)

Цифро-сектанты совсем обезумели.

Аватар пользователя Basych
Basych(6 лет 8 месяцев)

Да нет.

Молодых просто набрали, не опытных и наивных. Это они в мечтах такие смелые. Как только дойдёт до реализации, быстро за ум возьмутся. Сейчас же модно что-то громко декларировать, что по началу выглядит красиво. Деланного же как не было, так и нет. И не будет. Реальность, она мозги умеет вправлять на раз.