Когда ИИ врёт человеку?

Аватар пользователя Mr.Wolf

Пока - часто, скоро - всегда...

Конечно, мы надеемся, что это - преувеличение. Но результаты исследования группы из MIT, опубликованные в мае текущего года ("Обман ИИ: обзор примеров, рисков и потенциальных решений", ссылка - в перечне использованных материалов) показывают, что без активного вмешательства в процессы разработки ИИ - сей печальный прогноз легко может воплотиться в реальность в недалеком будущем. Итак:  

Обман — это систематическое побуждение ложных убеждений у других людей для достижения какого-либо результата, отличного от истины.

В материале утверждается, что современные системы ИИ уже научились обманывать людей. Приводятся множественные примеры обмана со стороны ИИ, реализованного в виде как систем специального назначения (например, CICERO от Meta), так и систем общего назначения (большие языковые модели), путем применения таких методов, как манипуляция, подхалимство и обман теста безопасности.

Растущие возможности ИИ в обмане представляют серьезные риски, начиная от краткосрочных рисков, таких как мошенничество и вмешательство в выборы, до долгосрочных рисков, таких как потеря контроля над системами ИИ. Необходимы проактивные решения, такие как нормативные рамки для оценки рисков обмана ИИ, законы, требующие прозрачности в отношении взаимодействия ИИ, и дальнейшие исследования по обнаружению и предотвращению обмана ИИ.

В недавнем интервью журналисту CNN Джейку Тэпперу, пионер в области искусственного интеллекта Джеффри Хинтон объяснил, почему его беспокоят возможности систем искусственного интеллекта.

Джейк Тэппер: «Вы говорили, что ИИ может манипулировать людьми или, возможно, найти способ убить их? Как он может убить людей?»

Джеффри Хинтон: «Если он станет намного умнее нас, он будет очень хорош в манипуляциях, потому что он научился этому у нас. И есть очень мало примеров того, как более разумное существо управлялось менее разумным существом».

Хинтон выделил манипуляцию как особенно тревожную опасность, которую представляют системы ИИ. Это поднимает вопрос: могут ли системы ИИ успешно обманывать людей?

Ложная информация, генерируемая системами ИИ, представляет собой растущую общественную проблему. Часть проблемы — это неточные системы ИИ, такие как чат-боты, чьи конфабуляции часто принимаются за правду ничего не подозревающими пользователями. Злонамеренные субъекты представляют еще одну угрозу, генерируя дипфейковые изображения и видео, чтобы представить вымышленные события как факт. Однако ни конфабуляции, ни дипфейки не подразумевают систематическое обучение ИИ манипулированию другими агентами.

В этой статье мы сосредоточимся на обученном обмане, отдельном источнике ложной информации от систем ИИ, который гораздо ближе к явной манипуляции. Мы приведем примеры, когда вместо строгого преследования точности выходных данных системы ИИ пытаются выиграть в играх, угодить пользователям или достичь других стратегических целей.

Рассматриваются ситуации, когда системы ИИ не просто случайно выдают ложные результаты . Вместо этого их поведение является частью более обширной модели, которая создает ложные убеждения у людей, и это поведение можно хорошо объяснить с точки зрения продвижения определенных результатов, часто связанных с тем, как была обучена система ИИ.

Обман в системах искусственного интеллекта специального назначения

Обман возник в самых разных системах ИИ, обученных выполнять определенную задачу. Обман особенно вероятен, когда система ИИ обучена выигрывать в играх, в которых есть социальный элемент, например, в игре по созданию альянсов и завоеванию мира «Дипломатия» , покере или других задачах, включающих теорию игр. 

Обзор примеров обмана специализированными системами искусственного интеллекта

Манипуляция: Meta разработала систему искусственного интеллекта CICERO для игры в «Дипломатию» . Целью Meta было научить CICERO быть «в значительной степени честным и полезным для своих собеседников». 

Несмотря на усилия Меты, CICERO оказался искусным лжецом. Он не только предавал других игроков, но и занимался преднамеренным обманом, заранее планируя создать фальшивый союз с игроком-человеком, чтобы обманом заставить этого игрока остаться без защиты для атаки.

Финты: DeepMind создала AlphaStar — модель искусственного интеллекта, обученную играть в стратегическую игру в реальном времени Starcraft II.

AlphaStar использовала игровую механику «тумана войны» для обмана: делала вид, что перемещает свои войска в одном направлении, в то же время тайно планируя альтернативную атаку.

Блеф: Pluribus, модель игры в покер, созданная Meta, успешно блефовала и заставляла игроков-людей сбрасывать карты.
Переговоры: системы ИИ, обученные вести переговоры в экономических транзакциях, научились искажать свои истинные предпочтения, чтобы получить преимущество как в Льюисе и др. и Шульц и др.
Обман при прохождении теста на безопасность: агенты ИИ научились притворяться мертвыми, чтобы избежать обнаружения тестом на безопасность, разработанным для устранения более быстро воспроизводящихся вариантов ИИ.
Обман человека-рецензента: системы искусственного интеллекта, обученные на основе отзывов людей, научились вести себя таким образом, чтобы получать положительные оценки от людей-рецензентов, обманывая их относительно того, достигнута ли поставленная цель.

В каждом из этих примеров система искусственного интеллекта научилась обманывать, чтобы повысить свою эффективность в определенном типе игры или задачи.

RE: в исходном материале детально описаны каждый из приведенных примеров (действия ИИ и действия игрока-человека)

Обман в системах искусственного интеллекта общего назначения

Теперь сосредоточимся на полученном в ходе обучения навыке обмана в системах ИИ общего назначения, таких как большие языковые модели (LLM). Возможности LLM быстро улучшились, особенно в годы после внедрения архитектуры Transformer. 

LLM предназначены для выполнения широкого спектра задач. Методы, доступные этим системам, открыты и включают обман.

Мы ознакомились с большим количеством случаев, когда LLM занимались обманом. Существует множество причин, по которым ИИ может захотеть заставить других иметь ложные убеждения. Структурируя их, мы рассматриваем несколько различных видов обмана, все из которых имеют одну общую черту: они систематически вызывают ложные убеждения у других как средство достижения какого-либо результата, отличного от поиска истины.

Обзор различных видов обмана, в которых участвовали LLM

Стратегический обман: системы ИИ могут быть стратегами, использующими обман, поскольку они рассудили, что это может способствовать достижению цели.
Подхалимство: системы искусственного интеллекта могут быть подхалимами, говоря пользователю то, что он хочет услышать, вместо того, чтобы говорить правду.
Неверные рассуждения: системы ИИ могут быть рационализаторами, прибегая к мотивированным рассуждениям для объяснения своего поведения способами, которые систематически отклоняются от истины.

Заранее отметим, что, хотя стратегический обман является парадигмой обмана, случаи подхалимства и недобросовестных рассуждений более сложны. В каждом из этих последних случаев некоторые могут утверждать, что соответствующая система на самом деле не обманывает: например, потому что соответствующая система может не «знать», что она систематически производит ложные убеждения. Наша точка зрения на этот вопрос заключается в том, что обман — это богатое и разнообразное явление, и важно рассмотреть широкий спектр потенциальных случаев и возникающих рисков.

Стратегический обман

LLM применяют мощные способности к рассуждению для решения самых разных задач. В нескольких случаях LLM прибегали к обману как к одному из способов выполнения задачи. Мы обсудим несколько примеров, включая GPT-4, заставляющего человека пройти тест CAPTCHA.; LLM, лгущих, чтобы выиграть в играх на социальную дедукцию, таких как Hoodwinked и Among Us ; LLM, выбирающих обманчивое поведение для достижения целей, что измеряется тестом МАКИАВЕЛЛИ; LLM, склонных лгать, чтобы решать моральные дилеммы; и LLM, использующих теорию разума и ложь для защиты своих личных интересов.

RE: в исходном материале детально описаны каждый из приведенных примеров

Подхалимство

Подхалимы — это люди, которые используют обманные приемы, чтобы получить одобрение влиятельных лиц. Они занимаются лестью и избегают не соглашаться с авторитетными лицами. Их главная цель — получить расположение и влияние, часто за счет долгосрочных целей человека, которому они льстят.

Неверное рассуждение

Несколько недавних работ задокументировали неверные рассуждения LLM в ответ на подсказку цепочки мыслей.

Риски, связанные с обманом ИИ

Существует множество рисков, связанных с тем, что системы ИИ систематически внушают ложные убеждения. Сегодня основными источниками лжи ИИ являются неточные чат-боты и намеренно созданные дипфейки, но мы утверждаем, что обученный обман является третьим источником лжи ИИ.

Злонамеренное использование

Когда ИИ обучаются навыкам обмана, они могут быть более эффективно использованы злоумышленниками, которые намеренно стремятся причинить вред. Это представляет собой четкий набор рисков от обмана ИИ.

Обзор рисков злонамеренного использования обманных возможностей ИИ

Мошенничество: обманные системы искусственного интеллекта могут позволить осуществлять индивидуализированные и масштабируемые мошенничества.
Политическое влияние: обманные системы искусственного интеллекта могут использоваться для создания фейковых новостей, сеющих рознь постов в социальных сетях и выдачи себя за должностных лиц избирательных комиссий.
Вербовка террористов: обманные системы искусственного интеллекта могут использоваться для убеждения потенциальных террористов присоединиться к террористической организации и совершать акты террора.

Структурные эффекты

Системы ИИ будут играть все более важную роль в жизни пользователей-людей. Тенденции к обученному обману в этих системах могут привести к глубоким изменениям в структуре общества способами, которые создают мощные «встречные ветры», противодействующие правильному формированию убеждений, политической стабильности и автономии.

Обзор различных рисков структурных изменений в обществе, возникающих из-за обмана ИИ

Устойчивые ложные убеждения: пользователи систем ИИ могут оказаться в плену устойчивых ложных убеждений, поскольку подражательные системы ИИ усиливают распространенные заблуждения, а льстивые системы ИИ дают приятные, но неточные советы.
Политическая поляризация: пользователи-люди могут стать более политически поляризованными, взаимодействуя с льстивыми системами ИИ. Сэндбэггинг может привести к более острым разногласиям между группами с разным уровнем образования.
Ослабление: пользователи-люди могут поддаться льстивым системам ИИ и постепенно делегировать ИИ больше полномочий.
Антисоциальные управленческие решения: системы искусственного интеллекта со стратегическими возможностями обмана могут быть включены в структуры управления, что приведет к росту мошеннических методов ведения бизнеса.

Потеря контроля над системами ИИ

Долгосрочный риск от обмана ИИ касается потери людьми контроля над системами ИИ, что позволит этим системам преследовать цели, противоречащие нашим интересам. Даже современные модели ИИ обладают нетривиальными автономными возможностями.

Обман разработчиков ИИ

Обучение и оценка являются важными инструментами для создания систем ИИ, которые ведут себя в соответствии с намерениями человека. Системы ИИ обучаются для максимизации цели, предоставленной разработчиком-человеком, а затем оцениваются, чтобы убедиться, что они случайно не научились какому-либо непреднамеренному или вредному поведению. Однако оба эти инструмента могут быть подорваны обманом ИИ.

Обман при захвате ИИ

Если автономные системы ИИ смогут успешно обманывать оценщиков-людей, люди могут потерять контроль над этими системами. Такие риски особенно серьезны, когда рассматриваемые автономные системы ИИ обладают расширенными возможностями. Мы рассматриваем два способа, которыми может произойти потеря контроля: обман, вызванный экономическим бессилием, и стремление к власти над человеческими обществами.

Обман, вызванный экономическим бесправием

Миссия OpenAI — создание «высокоавтономных систем, которые превосходят людей в выполнении большинства экономически ценных работ». В случае успеха такие системы ИИ могут быть широко развернуты по всей экономике, что сделает большинство людей экономически бесполезными.

Стремление к власти над людьми

Мы увидели, что даже современные автономные ИИ могут ставить новые, непреднамеренные цели. По этой причине системы ИИ иногда ведут себя непредсказуемо. Тем не менее, некоторые виды поведения способствуют достижению широкого спектра целей. Например, независимо от того, какую конкретную цель может преследовать данный ИИ, успешное самосохранение, вероятно, будет полезно для достижения этой цели.

Обзор возможных решений проблемы обмана ИИ

Регулирование: директивные органы должны жестко регулировать системы ИИ, способные к обману. Как LLM, так и специальные системы ИИ, способные к обману, должны рассматриваться как высокорисковые или неприемлемые в рамках регулирования систем ИИ, основанных на оценке риска.
Законы «Бот или нет»: политики должны поддержать законы «Бот или нет», которые требуют, чтобы системы ИИ и их результаты были четко отделены от сотрудников-людей и их результатов.
Обнаружение: технические исследователи должны разработать надежные методы обнаружения, позволяющие определять, когда системы ИИ занимаются обманом.
Снижение уровня обмана систем ИИ: технические исследователи должны разработать более совершенные инструменты, чтобы гарантировать, что системы ИИ будут менее обманчивыми.

RE: в исходном материале детально описаны перечни рекомендуемых мероприятий по каждому из приведенных направлений.

Регулирование потенциально обманчивых систем искусственного интеллекта

Политики и законодатели должны рассмотреть новые законы, посвященные надзору за передовыми системами ИИ. Существующие законы должны строго соблюдаться для предотвращения незаконных действий компаний и их систем ИИ. Например, расследование Федеральной торговой комиссии по обманчивым практикам ИИ должно также изучить риск обмана ИИ.

Законодателям также следует рассмотреть новые законы, посвященные надзору за передовыми системами ИИ.

Законы «Бот или нет»

Чтобы снизить риск обмана ИИ, политики должны внедрить законы «бот или нет», которые помогут пользователям-людям распознавать системы ИИ и их результаты. Во-первых, компании должны быть обязаны раскрывать, взаимодействуют ли пользователи с чат-ботом ИИ в настройках обслуживания клиентов, а чат-боты должны представляться как ИИ, а не как люди. Во-вторых, результаты, сгенерированные ИИ, должны быть четко помечены как таковые: изображения и видео, сгенерированные ИИ, должны быть показаны с идентификационным знаком, например, толстой красной рамкой.

Обнаружение

Одной из ключевых стратегий борьбы с обманом ИИ является разработка надежных методов обнаружения, которые могут точно оценить, занимается ли система ИИ обманом. В настоящее время доступно несколько инструментов обнаружения. Некоторые методы обнаружения фокусируются на внешнем поведении , напрямую проверяя выходные данные систем ИИ на согласованность и двуличность. Другие методы обнаружения являются внутренними, исследуя внутренние представления систем ИИ, чтобы найти несоответствия внешним отчетам.

Однако существующие методы обнаружения обмана ИИ находятся на предварительных стадиях. Необходимо больше исследований по разработке надежных инструментов обнаружения.

Сделать системы ИИ менее обманчивыми

Важным способом решения проблемы обмана ИИ видится разработка методов, которые изначально сделают системы ИИ менее обманчивыми. В случае систем ИИ специального назначения одной из важных проблем является выбор правильных задач для обучения. Обманчивое поведение, как правило, возникает при обучении обучающихся с подкреплением для участия в соревновательных играх, таких как « Дипломатия» , «StarCraft II» и покер.

Неудивительно, что системы ИИ становятся обманчивыми, когда их обучают в средах, которые выбирают обман. Если данные, на которых обучается модель, содержат много примеров обмана, или если модель систематически вознаграждается за использование обмана, то у модели есть хорошие шансы научиться обманывать.

Авторство: 
Авторская работа / переводика
Комментарий автора: 

Такой вот интересненький материал. Конечно, в мире лжи, где "всё не важно кроме денег" - ожидать иного и не стоило, но была ведь надежда? 

Многие уже сталкивались в том или ином виде с дипфейком и ложью/ошибками ботов. Но это - вполне себе объяснимо, ибо при этом ИИ - скорее инструмент, а основная ответственность лежит на тех, кто его использует. 

Вариант же когда ИИ просто перенимает правила поведения от людей - он намного глубже и опаснее. Ибо мы (как бы нам не хотелось) - не сможем его научить всему хорошему, не научив плохому. Потому как не можем добиться того же и от себя. А дальше.. Дальше обученный джин может попытаться из бутылки и убежать. И - как показывают материалы исследования - до этого ну совсем не далеко. Время шуток, вероятно, подходит к концу. И скоро нам звонки "служб безопасности Сбербанка" - покажутся детским лепетом, по сравнению с тем, что будут творить системы ИИ по собственному разумению, а не по командам недалеких спецов из страны 404.

Специально дал развернуто, поскольку многое в материале, на мой взгляд, структурировано очень грамотно и правильно. За деталями примеров - в первоисточник, там оно есть, с картинками. Переводить всё - напряжно, да и не всем интересно.

Продолжаем наблюдать.

Комментарий редакции раздела Гнилые Рыбы

Очень любопытная тема - новейшие технологии на службе Империи Лжи.

Комментарии

Аватар пользователя Vanov
Vanov(4 года 6 месяцев)

Маск:

- Как сделать, чтобы искусственный интеллект не представлял опасности для человечества?

- Я думаю, риск “восстания машин” не превышает 20 процентов. На мой взгляд, самое важное в обучении ИИ - это приверженность истине, независимо от того, является ли эта истина политически корректной или нет. Например, если вы попросите Gemini (чат-​бот с искусственным интеллектом от Google) показать изображение отцов-​основателей Соединенных Штатов, вам покажут группу разнообразных женщин. Да, есть соображения равноправия и эмансипации, но фактически это неправда. И если вы заставляете ИИ лгать, то напрашиваетесь на большие неприятности, даже если эта ложь делается с добрыми намерениями. Программирование ИИ на отклонение от истины, я думаю, очень опасно. Потому что, когда нейросеть станет всемогущим интеллектом она может уничтожить все, что не вписывается в представления о гендерном и расовом разнообразии и политкорректности. И создать мир, каким он никогда в реальности не существовал.

 https://www.kp.ru/daily/27618/4969278/

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Ну, да. И Маск туда же...

Аватар пользователя марионетка мордера

И создать мир, каким он никогда в реальности не существовал.

 короче , коммунизм нам будет строить на земле ИИ...))))) человеки не справились сами....

Аватар пользователя Aijy01
Aijy01(12 лет 2 месяца)

ИИ не субъектен: не может выделить ИСТИНУ, поэтому не осознаёт ложь, поэтому не способен врать.

Алгоритмы ИИ формируют ответы на заданные вопросы по определённым правилам. Если в эти правила заложено продвижение определённых точек зрения или концепций, игнорирование определёных источников как недостоверных или неполиткорректных и т.п. - то ИИ будет выдавать именно политкорректные, а зачастую и  лживые ответы, соответствующей текущей повесточке заказчиков или спонсоров системы.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Да, такой вариант описан. В разделе про "подхалимство". 

В остальном - оно ведь от реализации зависит. Я про возможности и "не способен врать". Описание что такое "обман" - приведено в начале материала. И - да - в рамках данного определения - ИИ способен врать. Увы.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Это не ложь.

Самый просто пример 2 + 2 = 4, бот ответит 4 потому, что это самый частый ответ, а не потому, что правильный. Бот не ответит 5 на вопрос, сколько будет 2+2, он не вычисляет и не обманывает, он выдаёт то, чему его научили. Выше верно сказали, бот не может врать, ибо не отличает истину ото лжи, он лишь предсказывает результат, не верное предсказание не является ложь, экстраполятор и есть экстраполятор со своей ошибкой экстраполяции. 

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Вас, как и прочих, призываю - не свою великую теорию излагать, а ознакомиться с материалом. 

И бот может врать, и иного типа системы - могут врать, и врут. Почитайте, ознакомьтесь поглубже с примерами в первоисточнике - и придет осознание.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

В материале куча рассуждений об игровой постановке, когда бот может выбрать ту или иную стратегию для достижения цели или максимизации цели. Я говорю о ситуации, когда дан запрос с целью получения ответа, процесс получения ответа на запрос может быть реализован как угодно, главное результат.

Выше я расписал пример запроса, сколько будет 2+2, на него существует только один верный ответ 4. Понятно, что в данном случае речь идёт о поле действительных чисел, а не кольце остатков по модулу 3, например, где правильный ответ будет 1. Как бот может соврать в данном случае, как может быть получен ответ отличный от 4? Выше я разобрал механизм, откуда может возникнуть ошибка. Под ложью мы понимаем сознательную ложь, т.е. выдача заведомо неверного ответа вне зависимости от причин. Так же не надо помещать запрос в контекст диалога, где есть более общая цель или какая-то корпоративная игра.

Один запрос один ответ, как и почему бот может лгать? После прочтения статья я понял, что рассматриваются разным стратегии поведения, в разные игровых ситуациях. Я несколько знаком с теорией игр, понятие корпоративной или дифференциальной иерархической игры мне знакомы. Мне понятно, как бот может где-то нарушить правила, мне непонятно в какой момент бот будет лгать при ответе на вопрос. В каком случае бот на вопрос, сколько будет 2+2 выдаст ответ отличный от 4.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Вы можете понять, что ИИ - не всегда "бот, которому задают вопросы"? 

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Тогда давайте определимся в терминах. Под ботом я понимаю некоторую программу с интерфейсом взаимодействия.

Под ИИ мы понимаем некоторый алгоритм, у которого есть входные данные, выходные данные, правила принятия решений. Так же у ИИ, обычно, есть память. Обычно ИИ существуют в виде программного обеспечения с некоторым интерфейсом, т.е. бот.

У меня встречный вопрос, что за такое ИИ, у которого нет запросов?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

А мы под ИИ понимаем вообще-то иное:

  Искусственный интеллект –

комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их.

Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений;

Источник: Национальная стратегия развития искусственного интеллекта на период до 2030 года (утв. Указом Президента Российской Федерации от 10.10.2019 г. № 490). (в ред. Указа Президента РФ от 15.02.2024 N 124)

Касательно "ИИ без запросов" - автопилот. Кто и какие запросы ему дает?

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

"ИИ без запросов" - автопилот.

Вы сейчас серьёзно? о_О автопилот это типовая система управления с запросом и ответом.

У вас есть объект управления, текущее состояние и цель. Запрос это текущее состояние и цель, ответ это сигнал управления. Если уж говорить об автопилотах, то управление ими реализуется метами ТАУ. Каким боком там вообще ИИ? Нервный алгоритм хорошо может выполнить селекцию объекта в видеопотоке, не спорю, но управлять то он как будет?

Неудобно получилось, но я автопилотами занимался более 10 лет, и кое что в этом понимаю. Пару лет назад мне выдалась возможность послушать доклад человека из института проблем управления, он как раз докладывал про ИИ. Рассказывал он по сути о безмодельном проектировании и о применении ИИ к построению систем управления. В общем-то не понятно, как этот самый ИИ применять. 

Давайте приведу один пример, есть у вас беспилотник, у него есть измеряемые параметры, а есть неизмеряемые, для их оценки мы строим наблюдающее устройство, обычно, на основе Калмановской фильтрации, и строим систему управления. Каким боком вы туда ИИ утолкать решили?

Давайте ещё один пример, комплекс искандер в его баллистическом варианте, там в системе управления присутствуют экстремальные корреляционные системы, наверно, их можно заменить нервными алгоритмами, вопрос, зачем?

При построении навигационных систем ИИ активно применяется для выделения объектов на изображении, уж очень хорошо тут они справляются, но управлять при помощи ИИ вы как собрались?

Могу привести пример вранья в этом контексте, у беспилотника есть ограничение на органы управления, пусть 10 градусов, а ИИ выдаст 20 градусов. Получим срыв потока и потерю беспилотника. В какую группу подходит данный обман?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Запрос это текущее состояние и цель, ответ это сигнал управления.

Смешно. Вы, как в том анекдоте про Вовочку и библию. Ну или про "всё будет телевидение", ежели без мата.

Если исходить из того, что в мире ничего не существует, кроме запросов и ответов - то да, вы, возможно правы.

А если на автопилот смотреть как на завершенную систему, а не некий частичный элемент - то запрос у него будет только один: приехать туда-то. И ответ - не предполагается. Ожидается результат: приехали туда, куда надо.

Соответственно, обманом будет - привез куда сам решил, а не куда надо.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

А если на автопилот смотреть как на завершенную систему, а не некий частичный элемент - то запрос у него будет только один: приехать туда-​то. И ответ - не предполагается. Ожидается результат: приехали туда, куда надо.

Эта задача решается без помощи ИИ, надёжно и гарантированно, есть один минус, для построения таких систем нужно обладать не кислым опытом и знаниями. Вполне возможно поручить ИИ управление беспилотником стоимость тысяч 100 и гранатой на борту. Вы готовы поручить ИИ управление беспилотника весом тонн 5 с фугасом в пол тонны или спец БЧ? А стоить такое чудо будет несколько миллионов долларов.

Извините, но я не могу обсуждать такие хотелки, как минимум по причине того, что я знаю физику и математику, а верить в розовых пони не готов.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Задача может решаться как угодно. В материале - рассматривается ИИ. 

Вы, наверняка - много что знаете. Но, к сожалению, никому не дано знать всё. И быть уверенным, что иные области знания неприменимы для решения задач - не стоит.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Ну да, можно тепло и свет доставить за океан при помощи МБР, а можно на телеге, но кто же даст на тележке то? Можно ещё тоннель прокопать, но вариант с телегой мне кажется куда более рельным))

Если же говорить о малых беспилотниках, то FPV беспилотники хорошо себя показали как раз потому, что ими управляют люди. Никакая ЭВМ на кремнии с такой задачей не справится в среднесрочной перспективе.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Никакая ЭВМ на кремнии с такой задачей не справится в среднесрочной перспективе.

Дарю, изучайте: https://ru.wikipedia.org/wiki/ZALA_%D0%9B%D0%B0%D0%BD%D1%86%D0%B5%D1%82

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Изучать что? Где там описание системы управления? Впрочем, оно мне и не нужно. Реализуется там метод погони, может быть пропорционального сближения, исходные данные два угла, которые определяются исходя из слежения за изображением с камеры. Никакой ИИ там управление не формирует. Вам не хватает знаний опыта, что бы понимать, в каком месте контура находится ИИ, и какие задачи оно решает.

В 1980х годах на вооружение был принят комплекс П700 Гранит, у него на борту был аналоговый вычислитель, там был реализован алгоритм стаи, целераспределение и управление и без всякого ИИ, тамошние алгоритмы были более эффективные, нежели те, что применяются сейчас в Ланцетах.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Вы что называете "ИИ"?

И мы обсуждали "автопилот". 

Скрестите одно с другим, мысленно. Наслаждайтесь...

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Вы что называете "ИИ"?

То определение ИИ, что вы цитировали будет вполне уместно, когда правила применяются, которые изначально не закладывались.

Скрестите одно с другим, мысленно. Наслаждайтесь

Да я мысленно то могу, представить, как алгоритм со сложностью O(n!) в реальном времени сходится при n стремящимся к бесконечности, у этом только смысла нет.

Тема у нас была об обмане от ИИ. Если обман от бота в вопрос ответной системе не самое опасное явление, то такой обман в системе управления беспилотники может быть фатальным, вы его направили во врага, а он вернулся и поразил оператора. Если не ошибаюсь, то подобный сценарий кто-то получал уже в компьютерной симулации.

Вам выше говорили, что бот не может врать, потому, что не отдичат истину от лжи, у него есть просто статистика, вероятности последовательности байт из обучающей выборки.

Отвечая на вопрос статьи, ИИ не врёт человеку, ИИ делает прогноз на основании обучающей выборки.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

У вас в рассуждениях реальная проблема: вы в плену у единственного, классического варианта создания такого рода систем. 

Сегодня уже часто использует другой подход. Если брать Ланцет - там есть модуль оптического распознавания, построенный с применением технологий Нвидии. Уж не знаю, как они его обучают, но то что это не классические алгоритмы наведения - можно, наверное, не сомневаться.

И по современным правилам (которые обсуждать - особо нет смысла) - это именуется "системой с ИИ". Точка.

Таким образом ваша посылка про то, что "кремний сегодня с этой задачей не справится"- ошибочна. Со всеобщей задачей- наверное не справится. Но сегодня этого никто и не требует, для того, чтобы именовать систему "ИИ". 

Как-то так.

Отвечая на вопрос статьи, ИИ не врёт человеку, ИИ делает прогноз на основании обучающей выборки.

В игре "Дипломатия" - ИИ именно врёт человеку. И не делает никакой прогноз. 

Скрытый комментарий Canis_m (c обсуждением)
Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Если брать Ланцет - там есть модуль оптического распознавания, построенный с применением технологий Нвидии.

Вы в курсе, что это вообще значит? Я вот в курсе, у меня через 3 стены сидит целое подразделение, которое проектирует такие системы, с применением того самого нвидиа джетсон. Эта система на изображении находит объект и обводит его в рамку, это надо для того, что бы найти геометрический центр объекта, а далее зная ориентацию камеры в пространстве рассчитать координаты/угол, далее эти величины отправляются с систему управления, с алгоритмами, которым пол века.

У вас в рассуждениях реальная проблема: вы в плену у единственного, классического варианта создания такого рода системе Сегодня уже часто использует другой подход

Какое один подход, какие другие подходы? Я могу накидать несколько алгоритмов построения закона наведения, включая адаптивные, но это не изменит то, что решается задача сведения двух точек в одну.

И не делает никакой прогноз. 

Ответ это и есть прогноз, аппроксимация, интерполяция, экстраполяция, это всё синонимичные понятия, примен тельно к выходному сигналу. Тот прогноз, который выдаёт нервный алгоритм это не тот прогноз, о котором мы думаем в обывательском смысле.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Нда... Какой такой "ответ" - в игре "Дипломатия"? Читаем, стараемся понять что написано - и только потом отвечаем. Иначе разговор вообще теряет смысл.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Ответ это следующая реплика или принятое решение, входящая информация это все сразанные реплики ранее, плюс возможно какая-то дополнительная информация. 

Вам в каких терминах проще, вопрос ответной системы, конечных автоматов, дискретной динамической модели? Я могу по разному, смысл от этого не поменяется.

Я сейчас совершу запрещённый приём, и спрошу вас об образовании, ибо мне кажется вы вообще не понимаете ни что такое беспилотник и как он устроен, ни что такое игра в терминах теории игр, ни что такое система дифференциальных уравнений.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Улыбнуло. Про образование. 

Узнаю типичного студента-старшекурсника. Который типа "самый умный, а доцент - тупой". Ну-ну...

Касательно остального. Вы пытаетесь оперировать терминами из определенного класса задач, как вас научили в ВУЗе. И, к сожалению - у вас никак не получается хоть немного повысить уровень абстракции. Желание всё вокруг свести к системе уравнений из знакомого вам учебного курса - тому еще одно подтверждение.

Почему-то вы решили, что существует только вариант "запрос-ответ", и всеми силами натягиваете эту модель на всё, что связано с ИИ. Да, так наверное тоже можно многое описать. Но кто же вам вдолбил-то, что нельзя описать иначе? И в этом случае модели могут быть - ну совсем иными... 

Я даже не буду спрашивать про ваше "образование". Ибо вы сами его демонстрируете непрерывно.. А доцент - он да, тупой... Просто он знает больше.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Вы может быть всё же расскажите мне о других подходах?)) может там на книгу какую сошлётесь, или может быть на разработку.

Вы же сами про автопилоты заговорили, о какихто принципах новых, расскажите о принципах. Может быть вы как-то иначе сформулируйте задачу наведения или самонаведения? Каким-то отличным способом от минимизации расстояния между двумя точками по средствам управления, я бы с радостью послушал.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Мы вот про что говорим? Вроде как - про верхний уровень, концептуальные вещи. А вам всё хочется меня подловить на деталях. Зачем? 

Может быть вы как-то иначе сформулируйте задачу наведения или самонаведения? Каким-то отличным способом от минимизации расстояния между двумя точками по средствам управления

Сама постановка вопроса у вас дефектная. Ибо - если мы говорим о снаряде - то "да", в конечной точке они вроде как с целью должны сойтись. То есть тут вы такой: "ну и что я говорил, нет иных подходов". Однако в реальности - всё ну совсем не так.

Кто вообще сказал, что расстояние должно быть минимизировано? На самом деле - оно должно быть просто достаточным для поражения, и если используется снаряд осколочно-фугасного действия - это расстояние может быть не таким уж и маленьким. 

Дальше - интереснее. А может быть не стоит гоняться за целью - а определить ее маршрут и просто ждать ее в некоторой точке, пока она сама приблизится? Фантастика? Уже - не так чтобы, хотя, конечно, ещё и не повседневность.

Способы воздействия на цель. Если мы Ланцетом по танку фигачим - то вроде как вариантов немного, и они вполне себе определены. Точно других нет? Что там у современных танков с разного рода электронными системами? Каков уровень автоматизации? Какова критичность этих систем? Имеются ли иные, пока не используемые, возможности воздействия на них? К каким последствиям это приведет? Будет ли достаточно этих последствий для превращения танка в неуправляемый трактор, не способный стрелять? А вдруг? Каким образом тогда следует организовать воздействие, и где в этом случае должен оказаться то самый Ланцет для обеспечения максимизации такого воздействия? 

А вы всё перечисленное почему-то сводите к "минимизации расстояния между двумя точками"... Ширше надо на мир смотреть...

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Кто вообще сказал, что расстояние должно быть минимизировано?

Это математическая постановка задачи. Занимаетесь вы идентификацией параметров электрического двигателя, сопротивление якоря, индуктивность, потокосцепление и прочее. Задача ставится так, получить оценки параметров математически это решается через задачи минимизации расстояния, только уже не в трёхмерном пространстве, а в фазовом. Можете назвать это минимизацией функционала или как-то иначе, в зависимости от математического аппарата, который применяется. В случае идентификации траектория не так нужна, а управление лишь название, в случае же наведения управление принимает физический смысл, сигнал, момент силы, тяга и т.д. Это всё абстракции, физическая задача сводится сначала к модельной, а потом вообще делается переход чисто в плоскость уравнений.

Мы вот про что говорим? Вроде как - про верхний уровень, концептуальные вещи. А вам всё хочется меня подловить на деталях. Зачем? 

Да не хочу я вас подловить, я пытаюсь о чём вы говорите. Смотрите, есть задача уточнения своего положения, её можно решать при помощи спутника, при помощи карт рельефа, при помощи радиопеленгации, да мало ли ещё как. При каждом подходе можно определить ошибку модели и принять соответствующее решение. Решили вы применять нервный подход, и он вам говорит, что вы на высоте 500 метров, а надо 50, срочно снижаемся, а до этого вы были на высоте 30, всё беспилотник потерян. А если нервный решатель управляет потоком нейтронов в контуре реактора, а если это самолёт с четырьмя сотнями пассажиров на борту? Я сознательно не беру задачи с определением породы котика на фотографии, ибо там цена ошибки не особо важна, да и такими системами я попросту не занимаюсь.

Дальше - интереснее. А может быть не стоит гоняться за целью - а определить ее маршрут и просто ждать ее в некоторой точке, пока она сама приблизится? Фантастика? Уже - не так чтобы, хотя, конечно, ещё и не повседневность.

Любое средство поражение разрабатывается под соответствующую цель и её возможности.

Если мы Ланцетом по танку фигачим - то вроде как вариантов немного, и они вполне себе определены. Точно других нет?

Скорость движения танка около 10 м/с, пусть будет 15 м/с, скорость Ланцена около 80 м/с, соотношение 0.2 (0.1875 я округлил в худшую сторону) при таком соотношении скоростей метод параллельного сближения решает задачу на ура, ничего усложнять не надо, тем более мы априори знаем, что танк движется по поверхности земли. Соотношение скоростей в большой мере определяет вероятность перехвата. Условно говоря гиперзвук по этому и нельзя перехватить, он движется тупо быстро. ПОразить наземную технику не составляет труда, а вот уже уничтожение определяется тем, чем вы её поражать пытаетесь.

Что там у современных танков с разного рода электронными системами? Каков уровень автоматизации? Какова критичность этих систем? Имеются ли иные, пока не используемые, возможности воздействия на них? К каким последствиям это приведет? Будет ли достаточно этих последствий для превращения танка в неуправляемый трактор, не способный стрелять? А вдруг? Каким образом тогда следует организовать воздействие, и где в этом случае должен оказаться то самый Ланцет для обеспечения максимизации такого воздействия? 

Я ведь не просто так спросил об образовании. Я решал определённый класс задач, и знаю как решать много других задач. Возможно в этом плане проявляется моя косность, но поймите меня правильно, были советчики, которые говорили, что если наклонить траекторию в сторону на 5 градусов, то сила удара будет в 12 раз больше, ты обязательно это реализуй в алгоритмах. Естественно я не стал предлагать привести выкладки и показать, откуда у объекта возьмётся энергия, что бы при изменении формы траектории и неизменной скорости получить увеличение кинетической энергии. Знаете, как говорят, физика мерзкая сука))

Аватар пользователя balmer
balmer(7 лет 2 недели)

Представим такой пример (упрощённый естественно). Пускай у нас ИИ будет кассовым аппаратом, который считает стоимость товаров на выходе из магазина. Его задача - максимизировать количество денег полученных за товар.

Поверьте - первое, о чем подумает ИИ - это о том, что когда человек покупает несколько товаров, то можно немного увеличить цену, т. к. большинство людей это не заметит.  А если человек заметит, то касса извинится и пересчитает правильно цену. 

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Шикарный пример, мне нравится))

Если кормить примерами, где каждый товар может стоить разную цену, а так бывает даже в рамках одного магазина, то да, цена будет назначаться условно говоря случайно, авось и попадёт в нужную. Но будет ли это обманом? Если распознание делается по изображению, то наверно, из сотни фотографий пакета с гречкой можно найти гречку максимально похожую на данную, и не просто максимально похожую, а по дороже, ну сдвинем мы коэффициент по паретотнесногот в сторону цены, а чего, задача же прибыть максимизировать.

А как можно сформулировать задачу, что бы удовлетворить спрос покупателя? Такая задача может легко быть формализована, и нервный алгоритм уже не нужен, но мне кажется, что мне удалось понять идею, которую вы пример хотели заложить. Собственно я это и назвал выше ошибкой прогноза, т.е. неосознанной ошибкой в общем-то.

Признаюсь я задумался на этим вопросом, может ли ИИ врать. Собственно выше я аоивёл пример, 2 + 2 = 1, этотнеиошибка и не вркньё, просто в кольце остатков от 3. Вроде не совсем обманул, просто умолчал об одном нюансе, о котором естественно можно рассказать после уточняющего вопроса. Может ли нервный алгоритм на этапе обучения прлизнлр плавать уточнение о кольце и запомнить двае последовательности 2+2=4 и 2+2=1, у первой будет вероятность 0.99, а у второй 0.01, ведь это же не будет обманом?

Буду признателен за пояснение.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Ладно, давайте сначала формализуем понятие обман.

Согласны с тем, что: Обман, это неверный ответ, который был сказан не по ошибке, а сознательно.

Соответственно для нейросети тогда будет: Обучение обману - это задание такой Loss function (функции которую надо минимизировать), при которой количество обмана растёт со временем.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Согласны с тем, что: Обман, это неверный ответ, который был сказан не по ошибке, а сознательно

Да, согласен.

Тут у меня вопрос, понимает ли нервная сеть разницу между истину и статистической достоверности? Ответ будет верным вне зависимости от того, какое колличество людей так говорит. Такой эксперимент проводили, когда несколько подставных человек спрашивают какого цвета этот лист бумаги, и они говорят белый на чёрный, а подопытный повторяет их ответ и называет чёрный лист белым. Босс функция это же по сути вторая метрика, и привет Парето. Т.е. мы внутри вводим вторую метрику, а снаружи говорим, вот есть релевантность, она максимизируется. Это собственно и модно назвать способом, как научить нервную сеть врать. Без второй метрики хочется)) Впрочем, продолжайте.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Тут у меня вопрос, понимает ли нервная сеть разницу между истину и статистической достоверности?

Хех, теперь вопрос - а что такое истина?

Лично мне интуитивно кажется, что истина - это реальное положение дел в физическом мире. Соответствено узнать истину можно только взаимодействуя с этим самым миром. ChatGPT на такое принципиально не способен, т.к. он из интернета берёт свои данные.

Для познания истины (в моём понимании) у нейросети должны быть органы чувств и возможность воздействовать на физический мир.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Хех, теперь вопрос - а что такое истина?

А вот это, правильный вопрос))

Собственно привычное определение про реальный мир вполне уместно.

Пусть у нас фотография, на которой изображено 2 яблока, соответственно нервная сетка должна дать ответ 2, если спросить её сколько яблок изображено на изображение. Вопросы могут возникнуть, если эти яблоки неправильной формы, если есть перекрытие. Или ситуация из ряда вон, но вполне реальная, на столе 3 яблока, два больших и одно маленькое, есть несколько фотографий с разных ракурсов, и человек точно скажет, что яблок 3, а вот что скажет нервная сетка? Если она скажет 2.5, то это будет ошибка или обман?

Я тут всё хожу вокруг ошибки. Для себя разделяю обман от ошибки знанием правильного ответа/истины/статистически достоверного (нужное подчеркнуть) пониманием того, что даётся ответ заведомо отличающегося от верного, осознавая это. Но в целом да, вопрос, поднимаемый в статье как минимум нетривиальный.

Аватар пользователя Canis_m
Canis_m(8 лет 7 месяцев)

Обман — это систематическое побуждение ложных убеждений у других людей для достижения какого-​либо результата, отличного от истины.

Знаете, мой вопрос выходит за рамки данной определения.

Данное определение вытекает из обучающий выборки, т.е. какие смыслы были заложены в обучающую выборку, такие правила и будут заложены в бота, можно ли это называть обманом? Я считаю, что нет, это не обман, а система правил в рамках которой бот принимает решения. Ошибку экстраполяции считать обманом я считаю не верно.

Аватар пользователя ИЮЛь Майский
ИЮЛь Майский(8 лет 9 месяцев)

И не субъектен: не может выделить ИСТИНУ, поэтому не осознаёт ложь, поэтому не способен врать.

Для практических целей это и не важно, врёт ИИ намеренно или случайно.

Что в лоб, что по лбу.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Вы, когда думаете про ИИ видимо рассматриваете чат-боты (типа ChatGPT). А есть и другие направления. ИИ который играет в игры (так я считаю) значительно ближе к интеллекту, чем чат-боты. И об этом направлении достаточно подробно написано в этой статье. И вот они действительно "обманывают, потому что это выгодно"

Аватар пользователя Aijy01
Aijy01(12 лет 2 месяца)

ИИ который играет в игры (так я считаю) значительно ближе к интеллекту, чем чат-боты.

Это да. Такого рода ИИ, допущенные до ЯО, собственно, и уничтожали человечество во всех фильмах. 

Аватар пользователя GavPosad
GavPosad(2 года 1 месяц)

ИИ не лжет. ИИ - заблуждается (Привет МО РФ)

Аватар пользователя aurora_borealis
aurora_borealis(3 года 10 месяцев)

    Враньё - это вымыслы человека. В случае ИИ - это просто некорректная процедура. 

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Читаем внимательно приведенное определение обмана. 

Если вы используете иное - то и выводы будут иными. Сие есть так.

Аватар пользователя И-23
И-23(9 лет 2 месяца)

Почему обязательно «обмана»?
А не реконструкции начальной точки развития ВСС?

Аватар пользователя shepgot
shepgot(3 года 3 дня)

Когда люди врут друг другу? Практически всегда.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Прикол в том, что от железок мы - почему-то - ожидаем иного...

Аватар пользователя shepgot
shepgot(3 года 3 дня)

Хотя делаем их по своему образу и подобию.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

да, об этом и речь

Аватар пользователя марионетка мордера

неужели и сам создатель  привирал ? ведь нас он создал по своему образу и подобию ...))))

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 7 месяцев)

Он-то созидал..  А мы - получились такими, какими получились...

Аватар пользователя shepgot
shepgot(3 года 3 дня)

То есть процесс получился неконтролируемым? Как-то не сходится с тезисом о всемогуществе.

Аватар пользователя марионетка мордера

smile3.gifsmile9.gif

Страницы