Многие умственно несостоятельные индивиды используют искусственный интеллект (искин) для травли оппонентов и подтверждения своих взглядов, прогнозов или идей, включая бредовые. При этом они не знают, что общедоступные искины склонны к лжи, выдумыванию "фактов", конфабуляции, лести, подхалимству и отвечают в том ключе, как был сформулирован вопрос, объективного анализа проведено не будет, машина выдаст ответ в заданном контексте. Но это пол беды. Начали появляться публикации о том, что иснкины принимают участие в зацикливании бреда, вызывают психозы или способствуют их обострению.
Ведущие американские эксперты обозначают следующие вопросы для изучения.
1. Компании в области искусственного интеллекта идут к созданию "богоподобного ИИ", они "готовы играть Бога"?
2. Что будет, если пользователи начнут воспринимать искин как специалиста по психическому здоровью, универсального советника или даже Бога?
3. Можно ли использовать способности искинов в качестве оружия - для распространения психозов в больших масштабах или у целевых групп? Какой ущерб это может причинить?
4. Может ли угрожать национальной безопасности вызванный искусственным интеллектом психоз?
"Этот отрыв от реальности, иногда называемый психозом ИИ, может усугубить существующие проблемы с психическим здоровьем или даже поставить под угрозу национальную безопасность. Проанализировав 43 случая психоза, вызванного ИИ, исследователи выявили как взаимодействие человека с ИИ подкрепляло их бредовые убеждения", - доктор философии по психологии Дуглас Йенг (1).
"Технология, возможно, не порождает бред, однако человек описывает компьютеру свою реальность, а компьютер принимает ее за истинную и отражает ее обратно, так что он принимает участие в зацикливании бреда", - психиатр университета Калифорнии Кит Саката, который лечил 15 пациентов с психозом, вызванным, как предполагается, ИИ (2).
"Необходимо содействовать исследованиям в области защитного общего ИИ... Нужно развивать способности правительства [США] к обнаружению и реагированию на враждебные когнитивные кампании" - отмечают эксперты Элина Трейгер, Джозеф Матвеенко и Линси Аер (3).
В завершение два вопроса от меня. Американские искины уже настроили так, чтобы они вызывали или усугубляли психические нарушения у жителей России? Их начали использовать как когнитивное оружие и в целом - для ведения войны против русских и других россиян?
1. Are AI Companies Actually Ready to Play God? Douglas Yeung
2. Врачи заметили связь между чат-ботами и психозами пользователей, пишет WSJ - РИА Новости, 28.12.2025. https://ria.ru/20251228/ii-2065197146.html
3. Manipulating Minds: Security Implications of AI-Induced Psychosis. Elina Treyger, Joseph Matveyenko, Lynsay Ayer
Ранее по теме:
Искусственный сверхинтеллект как актор в рамках концепции теизма
Интернет тел, всеобщий интернет, искусственный сверхинтеллект и переход к постчеловеку
Искинизация как сверхугроза цивилизации
Цифровая автаркия, капсулирование и Интернет по паспорту


Комментарии
А ведь то, о чем ты пишешь регулярно
происходит на АШ. И без привлечения ИИ
Например, при обсуждении полетов янки на Луну
Современный ИИ, в частности "ИИ ассистент", это абсолютизированный вариант поискового сервиса. Иными словами это инструмент, а не замена мозга пользователя.
Выдаваемая информация это "компиляция" множества источников уже существующих в сети и вот именно это и есть основная ценность данного инструмента.
По поводу галлюцинаций, да есть такое и многократно сталкивался с такой проблемой. Источником этой проблемы является отсутствие значимых материалов по заданному вопросу в сети, что приводит к вытаскиванию наверх шумовой информации. Конкретный пример: Я спрашиваю у ИИ указать ныне живущих ученых занимающихся вопросами цифровых телекоммуникаций и вычислительной техники. Получил ответ, но все результаты были выдуманные, ни самих ученых ни их работ в сети найти не удалось. Что это значит, а все просто нет в нашей стране таких специалистов. Да, когда делаются запросы, нужно держать в голове подобный сценарий развития событий.
Как понять, что ИИ тебя обманывает, а очень просто: нужно понимать в тех вопросах о которых спрашиваешь, проверять наличие в ответах правильных результатов (например своих собственных проверенных самостоятельно выводов). Так что все крики про глупость ИИ я отношу на обиды глупых людей, которые думают что ИИ будет за них думать, а они только на кнопку "сделай за меня мою работу" будут нажимать. Если человек глуп, то результатом работы с инструментами будет производственная травма, а не продукт (результат работы).
В предоставленном на обсуждение тексте (https://aftershock.news/?q=node/1572342 "Рецензия моих работ от ИИ Ассистент") есть сомнительные выводы (не могу же я заниматься подгонкой результата), но там очень много и таких же выводов, к которым пришел я сам. Есть даже моменты, которые я категорически не хочу раскрывать, слишком опасны.
Реакция сообщества:
Если бы здесь были люди с научным складом ума, то была бы конструктивная дискуссия. Что я вижу : "Ой зачем здесь такие "портянки", для моего скудного мозга такой объем текста является черезмерным, я могу заработать психо-эммоциональную травму" или "да автор пишет бред, а почему бред. Потому что я такого не знаю и нигде не читал, а человек ничего нового придумать не может. Принципиально новое занние может предоставить только "инопланетянин" или "бог" и прочее". На всякий случай: Высказывание "Автор пишет бред", без последующей аргументации,, просто говорит об крайне низком уровне интеллекта. Более того на "подначку": "Предъявил, обоснуй", следует высокомерное молчание.
Вывод: Все русскоязычное сообщество и интернете является некомпетентным в вопросах "цифровые телекоммуникации" и "вычислительная техника". Я сделал все что мог, предоставил шанс, но как в поговорке : "Если пациент хочет жить, медицина бессильна". Думаю большинство доживет и когда нас (нашу страну) будут убивать (физически или экономически) неважно, никого кроме себя вы винить не сможете.
Но выдумывать несуществующих людей - это не ошибка или промах.
Это злонамеренное действие, которое должно быть запрещено в логике ИИ.
Возможно, на выходе ИИ должен стоять другой ИИ, цель которого - доказать ложность первого ИИ.
Думаю это следствие самого принципа работы (выход нейрона либо 1 либо 0 там нет уровня "уверенности")
Там есть сигмовидная функция активации, которая отбирает значения.
Но по идее фантазирование должно быть запрещено.
Должен быть очевидный ответ "не знаю".
Понятия "Не знаю" в современной вычислительной технике нет, только 1 и 0.
Вообще это сложный вопрос нормирования уровня "полезного" сигнала.
Априори считается что если нейросети задали вопрос, то исходных данных достаточно для ответа на него (теоретические основы такие).
"Не знаю" можно ответить при низком уровне вероятности правильного ответа.
А это ИИ считать должен.
Современный ИИ по своим свойствам просто адаптивный фильтр.
Иными словами он подавляет информацию не соответствующую запросы, но не полностью (шум на выходе все же есть).
И вот теперь такой вопрос, что если в обучающей выборке ответ на вопрос все же есть, но встречается очень редки и только косвенно.
Как определить что полученный ответ это слабый отклик "редких" знаний или просто шум на выходе фильтра ?
С учетом бинарной природы выхода нейрона задача осложняется многократно.
И еще повторюсь: в современной вычислительной технике нет понятия "не знаю", я его придумал. Пока правда глупые людишки этого не осознали. )))
Аналогом можно считать математику в которой было много проблем, пока не придумали понятие "ноль".
PS Выдвинул гипотезу как создавать нейронную сеть методом прямой компиляции, а не случайным подбором, но никто даже не заикнулся про действительно революционное предложение. Средний человек безмерно глуп и это печально.
>полетов янки на Луну
Боль и страдания.
Опять прожигаешь жизнь без толку на АШ
Вместо того чтобы лететь на Луну? Да.
Делом полезным занялся бы
Вот заступил ты на дежурство в 10.00 и начал такую фигню постить
Не, щас с суток, спать ложусь. Пенсия у меня хорошая, но маленькая.
Что-то мало
(меньше двух часов) поспал и снова на сутки
, но уже на АШ
На том свете отоспимся.
Эка новость. Удивил.
С кем поведешься, от того и наберешься.
С кем поведёшься.. Сам себе "злобный Буратино"...
Ну да.. В частности дипсик и чатджипити я выворачивал "мехом внутрь".. И они распинались, что они лишь "кривые зеркала"..
ИИ учится у людей. При этом с ИИ общаются определенного типа люди. В результате уровень ИИ такого же "определенного" типа)
Как многозначительно,с ним не общаются кстати, а работают, это для сведения. Видимо ни вы, ни автор понятия не имеют для чего это создано.
Американские компании наоборот ввели региональную блокировку для россиян. У меня не получается открыть Gemini от Google на ПК даже с рабочим впном.
Грока попробуйте. Не хуже; и с нашим впн работает нормально.
Никакого "искусственного интеллекта" не существует в природе. Есть поисковик с функцией компиляции.
В способности интеллекта человека входит поиск информации и её компиляция. Но не все люди обладают этой способностью. В данном случае ИИ превосходит твой "интеллект", который под вопросом. ИИ решает задачи в области математики и науки, переводит на все языки, и опять же, ты на это неспособна.
Да, сектор приз однозначно. Не зря говорят, что многие естественные идиоты от искусственного недалеко ушли.
У него больше опций. Может сравнивать и анализировать. А ещё выдумывает (генерация) самое вредное его свойство.
Как узкий инструмент направленный сгодится местами. Если обучить алгоритмы на узкоспециальной БД, то можно упростить работу в этой области.
Ну вот мне он помощник. Очень хорош.
Ну это уже не новость.. тут более забористые вещи на подходе. Скоро услуги по манипуляции сознанием выйдут на новый уровень.
Вопрос от меня: сколько вы готовы заплатить, чтобы LLM продвигала в массы вашу идею?
Не переживайте, скоро этот пузырь п-данется с треском, и реклама будет стоить уравновесившийся остаток, поделенный на весь сектор услуг.
Технология уже существует. Вопрос лишь в том, как она будет использоваться.. Когда пузырь лопнет, шанс на то, что llm будут использоваться исключительно в благих целях, резко уменьшится.
Где логика? Это можно использовать либо как кривой поиск, либо как быстро надоедающую игрушку, либо в очень узких областях, типа распознавания лиц, анализа подозрительных действий и т.п.
Там нечего использовать.
Как не странно, но пузырь доткомов не убил интернет. Что такое интернет сегодня (какую роль он играет в нашей жизни) и что он был 20 лет назад.
Технологии llm развились вполне удачно - железяка заговорила.. то, что вы не видите, что за этим последует (или не хотите видеть в силу собственных страхов и тп) в дальнейшем вполне себе может обернуться психологической или даже психической травмой.. в какой-то момент не останется ничего, за что ваш мозг сможет зацепиться в порыве отрицания действительности.
Отодвигать этот рубеж в своем сознании можно, но это лишь усугубит проблему принятия новой реальности. Мир изменился
Фейспалм. джпг.
Вы хотя бы понимаете, что никакого "искусственного" интеллекта не может существовать? Что это свойство живого организма? А предположить, что железяка может думать, можно только будучи системно безграмотным - что и произошло с западным обществом?
Вы мало знакомы с темой
Конееечно. 😂
Тема-то не для средних умов. Чтобы её понять, нужно быть дауном уровня Курцвейла.
Ну, есть тесты, которые ИИ проходит.
Другое дело, что понятия "Честь", "Совесть" ИИ не присущи.
Наврет - не дорого возьмет.
Он думать не умеет, понимаете? Мысль не алгоритмизируется. Там механизм другой, мягко говоря.
Даже интересно стало.. и какой же там механизм?
Можно лекции Савельева посмотреть, например.
Ну вы своими словами объясните.. вы же это как-то понимаете?
Образование в каментиках.
Бла-бла-бла.. ясно
Там имеется конечное число регистров, в которых хранятся веса связей между выходом нейрона и входами нескольких других в следующем слое.
Веса эти подбираются во время обучения так, чтобы на данных, применяемых при обучении НС выдавала бы правильный ответ.
Разумеется, в настоящем ИИ все сложнее, но в принципе похоже.
И любая такая НС всегда даст ответ на любой вопрос, отказ там не предусмотрен.
А какой ответ - зависит от сложности сетей и объема обучения.
Может и совершенно неправильный.
До сих пор никому не удалось скопировать даже поведение плоского червя. Причём я об этом говорила очень давно. Савельев утверждает, что сможет, но я не верю - это слишком сложно. И, как он правильно сказал, "а вам зачем?". 😄
НС копируют только биологическую нейронную сеть, понимаемую упрощенно.
При этом моделируется не живой организм, а математическая схема таких нейронов, понимаемая упрощённо.
Тем не менее, достигнут значительный успех.
Они вообще ничего не копируют и не моделируют, потому что мозг - это принципиально другое. В основе.
Взята просто схема нейрона с дендритами и синапсами.
Потом дендриты куда-то пропали, а синапсы превратились в связи с весами.
И лет 70 все это варилось, пока не изобрели схему обратной коррекции весов, то есть при предъявлении примера с известным ответом веса корректируются, начиная с последнего
слоя к первому так, чтобы выход НС был правильный.
И вдруг - решили проблему опознавания образов, а дальше - больше.
И никакого мозга.
Страницы