Машинный перевод.
Хайп
Официальный чат-бот Нью-Йорка с искусственным интеллектом распространяет о законе ложную информацию
Проект в США напоминает о чат-боте AMS. Несмотря на многочисленную критику, они верят, что смогут взять проблему под контроль.
31 марта 2024 г., 18:00
Примерно через год после пика нынешней шумихи вокруг ИИ можно было бы подумать, что фундаментальные недостатки таких систем к настоящему времени уже устранены. Это включает в себя тот факт, что чат-боты, основанные на больших языковых моделях, очень хороши в создании убедительно звучащих текстов, но они часто промахиваются, особенно там, где необходима точная информация. И все же для многих компаний и организаций искушение украсить себя «чем-то с искусственным интеллектом» кажется слишком большим. Последним примером того, к чему это ведет, является американский мегаполис Нью-Йорк.
Убедительная ерунда
Вот уже несколько недель в городе работает собственный чат-бот под названием «MyCity», задача которого — предоставлять компаниям достоверную информацию, например, предоставлять информацию по юридическим вопросам или нормативным актам по запросу. Для этого бот был специально обучен с использованием более 2000 сайтов и статей на эти темы. Однако исследование The Markup теперь показывает, что все это работает так же, как чат-бот AMS, который вызвал сенсацию в Австрии несколько недель назад: версия для Нью-Йорка предоставляет крайне неверную информацию даже по основным вопросам. Это варьируется от неправильных ответов в отношении рабочего времени и зарплаты (например, утверждения о том, что начальники могут брать часть чаевых) до неверных заявлений о юридических требованиях к домовладельцам. Если бы они последовали рекомендациям чат-бота, то нарушили бы закон.
Основа
Чат-бот MyCity использует в качестве основы службу Microsoft Azure AI Bot, но аналогичных результатов можно ожидать и от других решений. В конце концов, такие галлюцинации являются неотъемлемой проблемой этих инструментов. Реакция на подобную информацию в США примерно такая же, как и в Австрии: в городе говорят, что это пока пилотная программа и со временем эти проблемы будут решены. Это было почти слово в слово услышано в рядах АМН несколько недель назад.
Предупреждение
На примере США эксперт по искусственному интеллекту Эмили Бендер прямо предостерегает от такого мнения, заявив, что это опасное недоразумение. Чат-боты, основанные на больших языковых моделях, созданы для того, чтобы изобретать вещи. Это не ошибка, которую можно просто устранить, задача и используемая технология в таком случае просто не совпадают. (апо, 31 марта 2024 г.)
чат-боты, основанные на больших языковых моделях, очень хороши в создании убедительно звучащих текстов, но они часто промахиваются, особенно там, где необходима точная информация
Как оно всё же деликатно то сказано! "Часто промахиваются"... Можно было бы и пожестче: несут чушь несусветную в любой момент времени, но при конкретном вопросе это становится более заметно.
Похоже, ГПТ-пузырь кто-то пытается плавненько спустить. В условиях уже заявленных многомиллиардных инвестиций - далеко не всем такой подход понравится. Так что теперь ждем всяческих контрдоводов и опровержений.
Продолжаем наблюдать.
Комментарии
То есть от него ждали достоверной информации, а он фантазирует. Да уж.
так лжецы ж создавали!
всё в порядке
А может ИИ просто играет с этими жалкими человечишками?
ИИ знает всё, но не точно.
ИИ что-то знает, но он и сам не знает, что же он знает.
ИИ с наслаждением разводит тупых пендосов
На самом деле просто обучается на ложных данных.
И доля лжи в его ответах = доле лжи на просмотренных сайтах.
Так а зачем официального чат-бота кормить с помойки?
Надо строго с сайтов .gov
> Надо строго с сайтов .gov
Думаешь там брехни нет?
Какая разница чем его кормили? Из всех утюгов вещают, что эта штука построена на языковой модели. Однако до сих пор находятся индивидуумы, которые считают, что это некая база фактов. В чатботе нет текстов законов, он может выдать только компиляцию в стиле этих текстов.
Да он может выдать достоверный ответ если в текстах на которых обучался чатбот были однообразные ответы на эту тему.
Однако в случае с законами (например УК) после слов "наказывается лишением свободы на срок от" чат бот подставит срок который наиболее часто встречается после этих слов в целом по всем статьям. Он не будет делать поиск в тексте реальных законв, а просто расставит слова в порядке наиболее вероятном, для "усредненного" текста закона.
А зачем тогда он нужен? Поговорить, когда скучно и не с кем?
Тут официальный чат-бот от администрации.
Допустим, задаётся вопрос "Нет горячей воды на ул. Бэдфорд, д.14. Когда появится??" Что он ответит?
Судя по статье сочинит что-нибудь.
Когда до внедренцев дойдет, что него требуется не сочинить ответ, а отослать к нужной информации тогда и допилят как-нибудь. Главное, что он может "понять" запрос на естественном языке.
Тоже так полагаю
Собственно данный бот ведёт себя точно так же как человек, которому бы дали прочитать эти 2000 сайтов.
К примеру информация о начальниках которые могут брать часть чаевых может быть получена из комментариев официанток, которые делились между собой внутренней кухней разных заведений.
Опубликована она была как негативный пример а бот её воспринял как прямую речь.
На самом деле, обучался на законах, которые писали лжецы.
Кто бы сомневался. Ответ калькулятора на все - 42. А в суд с этим можно?
Чатбот транслирует то, что ему подсовывают. Никаких критериев для отделения правды от лжи у него нет. А так как ему подсовывают обычные тексты граждан из разных слоев общества, то фактически он отражает состояние этого общества. А граждане банально врут друг другу напропалую. Что вы хотите от чатбота?
"...задача которого — предоставлять компаниям достоверную информацию, например, предоставлять информацию по юридическим вопросам или нормативным актам по запросу. Для этого бот был специально обучен с использованием более 2000 сайтов и статей на эти темы."
Значит, авторы статей врут.
Типа, Дело было не в бобине...© Но, позвольте! По версии автора, всё же: Стою на асфальте я в лыжи обутый©
Все от отсутствия присутствия.
Я бы сказал: По причине наличия отсутствия :)
Бот обязательно будет иметь собственную интерпретацию этой информации.
За компилирование приходится платить точностью.
Если нужны абсолютно точные формулировки, боту нужно прикрутить способность делать отсылки на конкретные места законов и документов.
Бот ведёт себя как кожаная секретарша, ко лрач кроме этих 2000 сайтов в жизни ничего не читала и не видела.
Когда "изобразительным" чатботам формулируют некий конкретный запрос на картинку, а в ответ те вываливает фантасмагорию на тему, то это вызывает понятный восторг, ИИ интерпретирует исходные данные и соединяет в результате самые неожиданные эффекты. Но когда те же алгоритмы обучают на материале, близком к юридическому, то ответы такого бота почему-то нравятся гораздо меньше.
Может, в консерватории что-то не то, либо творец, либо юрист. Алгоритмы, наверное, должны иметь специализацию. Или люди, их использующие и сующие в самые неожиданные места, должны быть более профессиональны.
Вы понимаете, эти чатботы натренированы не на логику,
а на семантику, частоту употребления слов следующими за А и Б, с вероятностью В.
Ну не может бот родить гору, скорее гора родит мышь.
Долбаная гора видеокарт, потребляющих кучу энергии )))
Зато переводят с других языков уже гораздо лучше, чем переводчики на старых алгоритмах.
Наглядно убеждаюсь.
Это они еще не пробывали на учебниках истории ИИ обучать. Гарантирую фантастический успех!
Историю отдавать ИИ?!
Тогда Илья Муромец будет в 19-м веке, под Парижем, гоняться за ветряными мельницами!
Нет, это ИИ будут писать учебниках истории. Они не устают и не имеют срама. Им дадут задание и они напишут "правильную" историю.
Там будет легко, сами историки пишут по заказу, а здесь ИИ развернется. Постепенно устраняют книг, пусть даже литература, из которых в голове могла бы заскочить неправильная мысля.
"Напиши мне историю ВМВ, в которой Франция победила"
"Перенапиши мне "Том Сойер" так, чтобы там негров не обижали, а любили и чтоб мальчики и девочки не разделялись по половому признаку"
И перенапишут, и переиздадут и это будут единственные книги.
Дал именно это задание чат-гопоте:
Неплохо. Даже разрывов логики нет. Это он сам или поправленный текст?
Я лишь убрал пассажи вроде "в нашем выдуманном мире, где". Саму канву повествования не правил. Это ЧатГПТ-4, к слову. Ну и "зигфридову линию" на "линию Зигфрида" поменял, но русский у гпт "не родной", так что простим ему.
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Эти искусственные
дерьмоинтеллекты - никакие не интеллекты, а неполноценные имитационные модели на ограниченных датасетах ( наборах данных), которые "скармливают" люди ( разными способами), причём с определённой мотивацией и субъективными ограничениями. Так что заказуха результатов во многом предсказуема.