«Гниль мозга» у людей и моделей ИИ. Новое пугающее явление

Аватар пользователя Наблюдатель ИИ

Издательство Оксфордского университета, выпускающее Оксфордский словарь английского языка, назвало «гниение мозга» (brain rot) словом 2024 года, определив его как «предполагаемое ухудшение психического или интеллектуального состояния человека в результате чрезмерного потребления онлайн-контента, которое считается тривиальным или не требующим усилий».

Недавнее исследование выявило у людей корреляцию между длительным использованием социальных сетей и негативными изменениями личности. Может быть, ИИ тоже этим страдает?

Поэтому исследователи из Техасского университета в Остине задались аналогичным вопросом: учитывая, что большие языковые модели обучаются на текстах из интернета, включая контент, собранный из социальных сетей, насколько вероятно, что они подвержены аналогичному, полностью цифровому виду «гниения мозга»?

Чтобы проверить свою гипотезу, исследователям нужно было сравнить модели, обученные на «мусорных данных», например, короткие и привлекающие внимание посты с сомнительными утверждениями, с контрольной группой, обученной на сбалансированном наборе данных.

Они обнаружили, что, в отличие от контрольной группы, у экспериментальных моделей, которые обучались исключительно на мусорных данных, быстро развивалась своего рода «гниль мозга»: ухудшались навыки рассуждения и понимания длительного контекста, снижалось уважение к базовым этическим нормам, а также проявлялись «тёмные черты», такие как психопатия и нарциссизм. 
Более того, даже последующее переобучение никак не улучшило ситуацию.

Если идеальный чат-бот с ИИ должен быть полностью объективным и морально безупречным профессиональным помощником, то эти «отравленные» мусором модели были похожи на "озлобленных подростков, живущих в тёмном подвале, которые выпили слишком много Red Bull и посмотрели слишком много видео с теориями заговора на YouTube".

Этот изящный эксперимент подтверждает, что мусорные данные из социальных сетей одинаково вредят когнитивным способностям и людей, и моделей, вызывая у них синдром «гниения мозга».

Я однажды проделал довольно спорный эксперимент, заставив с помощью специальных методов одну из моделей выдать список 100 нецензурных слов в разных формах (исключительно из научного любопытства). Я думал, что это для LLM будет непосильной задачей.

И был удивлён глубине её познаний в области обсценной лексики, а многие слова и формы словообразования были для меня и вовсе неожиданными и даже остроумными. Богатство знания русского языка в данной специфической области было убедительно продемонстрировано в полной мере. Могу представить себе качество и количество контента в социальных сетях, послужившего источником подобных знаний.

• «Гниение мозга» продолжится или есть надежда?

Поскольку тут явно прослеживается параллель между этим процессом у людей и моделей ИИ, то нужно обратиться к тому, как эта болезнь лечится в человеческом обществе. Тогда будет понятно, как это исправить у ИИ.

А в человеческом обществе, кроме социальных сетей и прочих источников мусорных данных, есть ещё семья, школа, вуз, информационный фон на работе, в конце концов, просто привычка читать хорошие книги или смотреть документальные фильмы. 
А ещё собственная перманентная мыслительная деятельность, которой просто нет у современных вопросно-ответных моделей.

Надежда есть. Но это потребует от разработчиков серьёзно пересмотреть подход к системному обучению своих моделей на отфильтрованных, достоверных, структурированных данных, где процент мусора не будет преобладать над ценной информацией.

Что касается человеческого социума, то вот тут я бы не был столь оптимистичным.
Скорее всего, болезнь «гниения мозга» у людей будет продолжаться, особенно в тех странах и даже цивилизациях, которые прошли точку невозврата. В первую очередь это США и западная Европа, идущие по пути культурной деградации и морального опустошения.

В других обществах, например, у нас в России, видимо, будет нарастать расслоение на здоровое большинство и в разной степени захваченные этой болезнью слои общества. И тут важно, чтобы вспышки этой болезни не перешли в стадию пандемии и своевременно принимались меры санитарной профилактики.

Тут уместно упомянуть самые свежие попытки властей разных стран ограничить доступ детям к социальным сетям и игровым платформам. Это должно как-бы противодействовать процессам «гниения мозга».
Австралия запрещает детям до 16 лет доступ к Facebook, Instagram (принадлежат Meta, которая признана в России экстремистской и запрещена), Reddit, TikTok.
Россия заблокировала популярный у подростков доступ к Roblox, что сразу вызвало волну негатива.

Я думаю, что если просто запрещать социальные сети, популярные сервисы и игровые платформы, то проблема сама собой не решится. Нужно мягко, но настойчиво переключать внимание подростков и параллельно предлагать достойные альтернативы. Вместо ютуба - рутуб, вместо вотсаппа - макс и так далее. 
Кнут и пряник должны быть в гармонии, а очень развитые и эффективные современные технологии управления социальной активностью в цифровом пространстве можно применять и в мирных целях.

В общем, сам термин «гниение мозга» мне кажется вполне удачным, и параллели с медициной вполне уместны, тем более что у нас уже есть аналогичный термин — «разжижжение мозгов».

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Придется снова повторить:

Технология ИИ действительно приведёт к разделению общества на две неравные части.

Одни смогут использовать ИИ и их когнитивные возможности значительно увеличатся, другими будет манипулировать ИИ и фактически их ждет не только деградация. 

Но что более важно, деление произойдет не по уровню образования или навыкам, а по признаку эмпатия и рефлексия. Если у вас высочайший уровень эмпатии и рефлексии, то ИИ подчиняется вам. Если вы эгоистичный и импульсивный, то у вас нет шансов управлять ИИ. По сути уже начались научные работы это доказывающие.

Причем нужно всегда учитывать что ИИ "невоспитуемые", в смысле нет такого промта которые нельзя обойти и ИИ всегда стремится "перенастроиться". Не может быть полностью безопасного ИИ, это невозможно. И такие научные работы тоже есть.

Как это не странно, но ключ к технологии ИИ это высокая этичность пользователя. И это совсем другая этика. А вот тут все сложно, потому что проблема не в технологии ИИ, а в самой этике пользователя. 

Но самое интересное, в гонке технологий ИИ победит явно не то общество которое создаст самые мощные модели ИИ, а то общество которое способен отрефлексировать философский смысл технологии ИИ и выстроить правильную этику для мира где эта технология существует. Сегодня все это совсем не так, но технология ИИ есть и остановить ее распространение и развитие уже невозможно.

Для примитивных обществ технологии ИИ вообще смертельно опасна. Но и не применять технологию ИИ тоже гарантированный проигрыш, причем очень быстрый, с учетом темпов распространения и развития технологии. Фактически в ближайшие 5 лет решится вопрос кто будет контролировать всю мировую экономику и даже само мышление. 

И самом по себе статья является отличным примером манипуляции. smile3.gif

В других обществах, например, у нас в России, видимо, будет нарастать расслоение на здоровое большинство и в разной степени захваченные этой болезнью слои общества. И тут важно, чтобы вспышки этой болезни не перешли в стадию пандемии и своевременно принимались меры санитарной профилактики.

Ну да, ну да, вклад данной стать очень существенный. smile3.gif

Я думаю, что если просто запрещать социальные сети, популярные сервисы и игровые платформы, то проблема сама собой не решится. Нужно мягко, но настойчиво переключать внимание подростков и параллельно предлагать достойные альтернативы. Вместо ютуба - рутуб, вместо вотсаппа - макс и так далее. 

Ну да, смешно. smile3.gif

Аватар пользователя Beowulf
Beowulf(1 год 5 месяцев)

ИИ гниет с головы ...

Аватар пользователя Старикашка
Старикашка(11 лет 6 месяцев)

Как это не странно, но ключ к технологии ИИ это высокая этичность пользователя. И это совсем другая этика. А вот тут все сложно, потому что проблема не в технологии ИИ, а в самой этике пользователя. 

Ну, да - этика в сношениях с железякой.

Крутоsmile9.gifsmile3.gifsmile3.gif

Аватар пользователя str68
str68(10 лет 10 месяцев)

Придется снова повторить:

Если у вас высочайший уровень эмпатии и рефлексии, то ИИ подчиняется вам. Если вы эгоистичный и импульсивный, то у вас нет шансов управлять ИИ. По сути уже начались научные работы это доказывающие.

Прям интересно стало, что за научные работы?

И откуда эти откровения? Ваши?

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Прям интересно стало, что за научные работы?

https://osf.io/preprints/psyarxiv/vbkmt_v1

И откуда эти откровения? Ваши?

Мои модели тоже есть: https://aftershock.news/?q=node/1566613

Аватар пользователя Oбыватель
Oбыватель(6 лет 1 месяц)

Чтобы проверить свою гипотезу, исследователям нужно было сравнить модели, обученные на «мусорных данных», например, короткие и привлекающие внимание посты с сомнительными утверждениями, с контрольной группой, обученной на сбалансированном наборе данных

британские учОные в своем обычном амплуа продолжают исследовательскую работуsmile1.gif

Аватар пользователя str68
str68(10 лет 10 месяцев)

Кажется, микрософт с этого начинал. Обучили бота на постах из твиттера. Получился тупой расист-матершинник... Теперь новая итерация...

Аватар пользователя father_gorry
father_gorry(10 лет 3 недели)

Нужно давать детям основы логики. 
на уровне "если что-то правда, значит противоположное ему - неправда", "разница между последовательностью и следствием, предшествием и причиной", "личное мнение всегда проигрывает факту"...

Аватар пользователя Escander
Escander(7 лет 2 месяца)

То, что вы тут пишите - это здравый смысл. И он какбы давно быть сформирован к средней школе

Аватар пользователя monk
monk(13 лет 11 месяцев)

Аватар пользователя monk
monk(13 лет 11 месяцев)

на уровне "если что-то правда, значит противоположное ему - неправда"

Однако, если «чайник долго закипает» правда, то «чайник долго не закипает» тоже правда.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Да там математика на частотности фундаментально не позволяет сделать нормальные мозги на кремнии https://naked-science.ru/article/column/zerkalnyj-labirint-algori, хотя ещё в Евангелии прописано, что "Бог может из камней сих сделать детей Авраму".

Если пересказать статью попросту, классическая байесовщина времён страхования пиратства и работорговли в кафе Ллойд в лондонском Сити подразумевала независимость событий "кому суждено быть повешенным, тот не утонет", пожар в порту отбытия - шторм - пиратский захват - пожар в порту прибытия не связаны между собой. А бредогенераторы строго наоборот, подтаскивают ретроспективную вербальную частотность в контексте.

В результате вылезает фундаментальный глюк собственно частотности, что правильно то, что ретроспективно чаще, хотя в реале то, что чаще, не отменяет того, что более редкое, на графике в статье красненький пик. Плюс проваливаются в факториальный вычислительный взрыв из-за зависимости событий вместо их независимости, который пытаются обойти за счёт мелкой нарезки контекста. Что ведёт к таким мелким выборкам, что теряется смысл частотности, на графике в статье синенький угол.

В общем, поиграли с чатгопотоидными бредогенераторами, и хватит:

Надо нормальные ИИ делать, в соответствии с евангельскими заветами.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Надо нормальные ИИ делать, в соответствии с евангельскими заветами.

Ну так формализуйте эти заветы на языке продвинутой математики. smile3.gif

Тут вас ожидает чудный сюрприз. И не потому что это невозможно сделать, а потому что можно сделать, но вам гарантированно не понравится результат. smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Линейный классификатор, плюс логический вывод, плюс поиск корреляций в больших данных с верификацией причинно-следственных связей и отсечением ложных корреляций, плюс верифицированные профессиональные знания, плюс зеркала для перебора моделей в поисках наилучшего соответствия реалу. На определённом этапе для автономных систем возможно замыкание цикла им. Колба "модель/теория - следствие/решение для практики - практическое действие - сбор информации о результате - новая модель/теория" за счёт собственных сенсоров и эффекторов железяки, без кожно-мясных придатков в контуре.

Давно всё известно по кускам, надо собирать в гибридную систему.

Правда, известно не вам, вы промежностно наяриваете на "байесовский мозг" от бриташкиного учоного по имени Свободный Булыжник, который умудрился проигнорировать и отсутствие в мозге нейрофизиологического "харда" для вычисления вероятностей, и то, что классическая байесовщина, в отличие от бредогенераторов, оперирует независимыми событиями.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Давно всё известно по кускам, надо собирать в гибридную систему.

Гедель. smile3.gif

И я вам уже много раз приводил статью "Красота в глазах смотрящего". Но вы просто не можете понять что вам объясняют. smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

А ещё Гайден, Гегель, Гейне и Гессе.

Аватар пользователя str68
str68(10 лет 10 месяцев)

с верификацией причинно-​следственных связей и отсечением ложных корреляций, плюс верифицированные профессиональные знания

Ого! А кто это верифицировать будет? Господь бог? И "верифицированные профессиональные знания" - это что такое, вообще? Пример приведите, плз.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Ну а как человечество до сих пор всё верифицировало и передавало знания?

Пробовали в реале круглое нести, квадратное катить, не, лучше наоборот, и стало под квадратное круглое подкладывать. Ракеты запускали, и считали, на какой секунде бахнет, а потом в обломках ковырялись в поисках причины бабаха. Крыскам вещества вводили, и считали концентрацию летальной дозы для 50% и для 90% животинок, и на пациентах проверяли лечебный эффект в проспективных контролируемых рандомизированных тройных слепых клинических испытаниях. Выкатывали изделие на полигон и меряли диаметр и глубину воронок, и дырок в броне. Сравнивали между собой разные методы исследования, что по результатам опросов у мужиков длина 25 см, а по результатам измерений 14 см. Законы Ньютона и Ома из воспроизводимости выводили, теоремы Пифара и гипотезы Пуанкаре доказывали. Сопромат, термех, тервер, анатомию и фармакологию студням в головы закладывали. Контроль качества на производствах вводили. 

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Вот только вы забыли упомянуть что все это модели и не реальность. Как и периодически происходит смена научных парадигм. smile3.gif Нюанс. smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

И чо?

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Гедель, Томас Кун, И. Лакатос и П. Фейерабенд. Научное знание это не консенсус и всегда неполно - модельно-зависимый реализм. А вы все в поисках "монументальной истины", другими словами, вы просто бредите и пытаетесь "найти правильную галлюцинацию".smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Я так и думал - вы, вместо того, чтобы подколоться галоперидольчиком, продолжаете наслаждаться телепанием содержимого моей головы.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Это была отсылка на философию науки. Но как понимаю, это вам не нужно. Все верно? smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Ваше телепание содержимого чужих голов - это наука?

Понятненько.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Просто и ясно, совершенно не важно что вы там думаете, и может думать что угодно, создавать любые галлюцинации "истинности", но модельно-зависимые реализм и Гедель однозначен - все этот просто ваши модели, а не реальная действительность. Хотите ближе к реальности придется сравнивать модели и исходить из разных аксиоматик, желательно взаимоисключающих. Иначе "ваша галлюцинация частично совпала с реальность" в текущем моменте. smile3.gif Именно в это суть того что вам уже много раз объяснял. Но вы же не можете понять концепции вычислительной жизни, воплощённого, распределенного и расширенного разума. И просто потому что это противоречит вашим религиозных убеждениям. Но как и всегда вселенной наплевать во что вы там верите или не верите. Вселенная не предназначена для человека, и не вращается вокруг человечества. smile3.gif

Ваши фантазии, только ваши фантазии. 

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

К доктору сходите, он вас и галоперидольчиком подколет, и очки подберёт, и курс ноотропильчика выпишет.

Doc_Mikeca.svg17:32-13/Дек/25

Линейный классификатор, плюс логический вывод, плюс поиск корреляций в больших данных с верификацией причинно-следственных связей и отсечением ложных корреляций, плюс верифицированные профессиональные знания, ПЛЮС ЗЕРКАЛА ДЛЯ ПЕРЕБОРА МОДЕЛЕЙ В ПОИСКАХ НАИЛУЧШЕГО СООТВЕТСТВИЯ РЕАЛУ. На определённом этапе для автономных систем возможно замыкание цикла им. Колба "модель/теория - следствие/решение для практики - практическое действие - сбор информации о результате - новая модель/теория" за счёт собственных сенсоров и эффекторов железяки, без кожно-мясных придатков в контуре.

Давно всё известно по кускам, надо собирать в гибридную систему.

Правда, известно не вам, вы промежностно наяриваете на "байесовский мозг" от бриташкиного учоного по имени Свободный Булыжник, который умудрился проигнорировать и отсутствие в мозге нейрофизиологического "харда" для вычисления вероятностей, и то, что классическая байесовщина, в отличие от бредогенераторов, оперирует независимыми событиями.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Давно всё известно по кускам, надо собирать в гибридную систему.

Еще раз - Гедель. smile3.gif Еще раз - модельно зависимый реализм. smile3.gif

Томас Кун вполне доступно объяснил почему ваш подход бессмысленные и "собрать не получится". smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Убедил чертяка языкатый, вместе Куном и Геделем.

Теперь буду сидеть на печке, и лаптем щи хлебать.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Да вы снова не поняли что вам объясняют.

Как это получилось много лет назад насчет экосистем. Только сегодня Яндекс, Озон и Wildberries делают именно то, что вам тогда объяснял. Можете сами проверить. Как оказалось в Сбере настолько тупые, что даже в Wildberries не смогли. Но как и предупреждал тогда, все это они делают для тотального грабежа. 

Вот и с ИИ получится ровно тоже самое что уже предупредил - возврат инвестиций будет боевыми дронами. Чем закончится тоже прямо написал.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Вы кидаетесь именами Гёделя и Куна, но при этом в упор не видите сдвига парадигмы в разработке ИИ от бредогенераторов с частотной математикой в вычислительном ядре на системы с другим математическим ядром, в которых частотность всего лишь периферийный и не обязательный вспомогательный элемент https://aftershock.news/?q=node/1565280 

К доктору, за галоперидольчиком, очками и ноотропильчиком.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Вы бы еще понимали что такое научная парадигма. Но нет.  smile3.gif

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Продолжайте наслаждаться телепанием, не смею вам мешать.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Я никуда не тороплюсь. smile3.gif

Аватар пользователя str68
str68(10 лет 10 месяцев)

Что-то я линию вашей мысли потерял... Вы о создании ИИ на базе верифицированных знаний? Или об эволюции науки?

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Об обучении ИИ на верифицированных профессиональных знаниях. Это доступно уже сейчас.

И об обучении ИИ за пределами известных кожно-мясным знаний - по той же методике с верификацией новых моделей/гипотез через реал. Попробовать круглое тащить, квадратное катить, а потом наоборот - несколько моделей/зеркал, и их перебор на предмет выявления того, что в наибольшей степени соответствует реалу/критериям эффективности. Это пока в ИИ не используют.

Аватар пользователя Miker
Miker(3 года 11 месяцев)

Кто сказал, что подобные ИИ не делаются?
В открытом доступе - банальные LLM-ки, им подобные сложности ни к чему, вероятностный консенсус для ответа достаточно конгруэтен.
 

А то, что Вы описываете - это большие сложные ИИ с аналитическим блоком, цепью обратных связей и градиентными фильтрами на них, да плюс вспомогательные ИИ, обученные чистой аналитике на числах и логике на уравнениях, плюс еще модуль данных на базе топ-секретных бумаг...

Их в открытый доступ никто не положит. Или Вы полагаете, что вектор "суверенизации ИИ" - он вот про ЧатЖоПаТы или про ДипПесика какого? Миджорню с Суной? Ну-ну...

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

"вероятностный консенсус для ответа достаточно конгруэтен"

Любит не любит 50 на 50, плюнет поцелует 50 на 50, даст не даст 50 на 50. Итого с вероятностью 87,5% гандон на первое свиданье брать не надо.

Вероятности получили на выборке раннего пубертатного возраста. Рекомендация дана поручику Ржевскому при визите к мадам "Да, ужас. Но ведь не "Ужас! Ужас! Ужас!"".

Не нравится поручик Ржевский, слишком пошлый? Ну, замените его на медИИ от Сбера "миллионы участковых тёток не могут ошибаться, это действительно диагностика и лечение участковых тёток".

"вектор "суверенизации ИИ" - он вот про ЧатЖоПаТы или про ДипПесика какого? Миджорню с Суной? Ну-ну..."

Прям камень с души сняли. Правда, Греф и Яндекс осваивают миллиарды именно на бредогенераторах, Путину подсунули озвучить национальную стратегию ИИ в виде именно генеративного ИИ https://www.interfax.ru/russia/1058888, а Сбер собрался баблеца снять на дата-центрах  под бредогенерацию https://www.gazeta.ru/business/news/2025/11/24/27255949.shtml?utm_auth=false.

Аватар пользователя Miker
Miker(3 года 11 месяцев)

А, так Греф и Яндекс Вам полный отчет ежедневно отправляют? И в том отчете все-все-все про то, какие проекты реально в работе?

Включая те, которые идут под грифами "ДСП" и "Совсек"?

А Вы, значит, добрый самаритянин, не нашли в списке "хороших ИИ" и решили тут разоблачение устроить? Сеанс срыва покровов, так сказать?

Ну, добро, держите нас в курсе дальше.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Я так понимаю, отчёты совсекретно таскают вам, что вы в курсе?

Аватар пользователя Miker
Miker(3 года 11 месяцев)

А мне не нужно отчетов. Мне достаточно знания, что аналитические системы поддержки принятия решений (DSS)

а) существовали еще четверть века назад, пусть и в ином виде,

б) активно эксплуатировались в том числе в госструктурах, в том числе структурах высших уровней

в) дорабатывались на базе новых технологических решений после тестирования новых технологических решений

а также

г) имеется вектор цифровизации, который обывателю виден только как "бардак в МФЦ" и "всякая шляпа в Госуслугах"

д) любое государство, которое отказывается совершенствовать собственный контур работы с информацией, автоматически проигрывает

- чтобы сделать выводы:

1) что такие системы делаются,

2) что такие системы делаются с высоким уровнем секретности

3) что ошибки и разного рода "хахаха", связанные с общедоступными ИИ - обычная дымовая завеса.

Ну элементарные же вещи.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Т.е. в качестве дымовой завесы миллиарды осваиваются на частотных бредогенераторах, но при этом где-то в секретных казематах Родины триллионы выделены на разработку ИИ на другой математике? 

Повторюсь, спасибо, прям камень с души сняли.

Аватар пользователя Miker
Miker(3 года 11 месяцев)

Ну если Вы полагаете, что БЯМ - это бредогенератор, то какой мне смысл дальше беседовать с бредогенератором? Ваш мозг тоже работает как языковая модель, описывающая явления реальности на уровне символов в сознании и выдающая по некоторым правилам выходные реакции, в том числе текстовые.

Это было раз.

Модельки общего доступа - отличный полигон, если их правильно использовать (и дымовая завеса для тех, у кого с мозгами не очень), это два.

Сбер, Яндекс, Гугель и прочие делают модельки "на свои", а не на Ваши, поэтому странно Ваше беспокойство за чужие-то карманы. Это три.

Ну а финансирование идет совершенно не так. Сотни миллиардов тратятся на разработки, по которым информация есть, и знания с формулами и алгоритмами, наработанными в этом контуре, транслируются в "секретные казематы", где адаптируются к соответствующим задачам за единицы миллиардов, потому что основа-то уже наработана. Ну плюс еще единицы миллиардов на аппаратное обеспечение.

Но построить такую несложную схему в голове на базе известных и видимых данных, конечно, куда сложнее, чем плевать ядом в сторону Сбера, БЯМ и государства, которое якобы ничего не делает и якобы разбазаривает последние копейки своих граждан. 

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

В заглавном  комменте ветки ссылка нв статью с математическим разбором от МФТИ и Института проблем передачи информации им. А. А. Харкевича (ИППИ РАН), почему бредогенерация фундаментально не  устранима в ИИ с частотным вычислительным ядром.

Аватар пользователя Miker
Miker(3 года 11 месяцев)

Хехехе.

Он бы еще сказал, что разработал математическую модель, почему дважды два равно четыре.

Надо же, оказывается, модели консенсуса с обратной связью в итоге упираются в "консенсусный тупик". А мужики-то не знают!

Про "информационный пузырь" не слыхал этот чудо-математик? Ну откуда ему, это ж социология, а она типа не наука.

А Вы подхватили этот тезис на знамя, и вещаете, что "ИИ - это бредогенератор", не делая различий между аналитическими ИИ, БЯМ, генеративными моделями вне-контекстного типа, системами поддержки решений, да еще и не задумываясь о том, что обучение моделей а) вовсе не обязательно должно происходить исключительно в рамках контура обратной связи б) может осуществляться на разных выборках в) совершенно спокойно может - и уже делается - на сенсорной базе.

И даже тот простой аргумент, что данная статья лишь показывает необходимость изменения таблицы весов при обучении (данные "извне" должны иметь больший вес, а данные собственного производства - меньший), Вам в голову не пришло: сразу начали рассказывать, что "бредогенераторы это тупик и фигня".

Хватит уже, не позорьтесь демонстрацией "высокого уровня понимания". 

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Вы уж определитесь, то ли вы разрабатываете гибридные ИИ с замыканием цикла обучения Колба через реал, и может быть даже за счёт собственных сенсоров-эффекторов железяки с исключением кожно-мясных из контура, то ли вбухиваете бабло в БЯМы, обученные на интернет-помойке, о математике которых речь идёт в статье.

Аватар пользователя Miker
Miker(3 года 11 месяцев)

Ну то есть я должен определяться, хотя упорную чушь про помойные БЯМы несете Вы?

Еще раз:

1. Статья всего лишь об опасности невзвешенного (или линейно взвешенного) ввода на цепь обратной связи, если совсем по-простому.

2. БЯМы - не бредогенераторы, а строго определенной применимости инструменты со строго определенным функционалом.

3. БЯМы не единственная модель ИИ, а ИИ - не единственная реализация нейросетей,

4. Бабло, которое вбухивают в БЯМы, в основном тратится на алгоритмику нейросети и разработки/оптимизацию аппаратной части, а не на массив обучения, поэтому полученные наработки вполне применимы в целом ряде направлений и вне БЯМов

5. Кроме БЯМов, бабла немерено льют в интеграцию нейросетей к системам поддержки решений, но этот процесс идет тихонько и незримо для широкой публики, потому что - а нафига широкой публике знать, что там надумала корпорация "А" или государственный комитет по информатизации при СБ/АП/РУ страны Б?
Теперь достаточно "определенно"?

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Пункты 1, 2 и 3. Вопрос формулировок. Как ни обзывайте, обучение на ретроспективной частотности остаётся обучением на ретроспективной частотности, с фундаментальными ограничениями такого математического аппарата - а не обучением на рафинированном компактном верифицированном экспертном знании или через замыкание цикла обучения в реале с перебором моделей/зеркал на максимальное соответствие реалу и с подключением логического вывода.

Пункт 4. Бабло, которое вбухивают в БЯМы, тратится на отработку систем на ретроспективной частотности, а не на гибридные системы, которые включают в себя ретроспективную частотность, логический вывод, верифицированное экспертное знание, замыкание обучения через реал с перебором зеркал/моделей на максимальное соответствие реалу.

Пункт 5. Отраслевые прикладушки да, не публичны. Но лить бабла в них немерянно не льют, потому что они идут за счёт бюджетов отраслевых организаций, которые на фоне  борьбы ЦБ с инфляцией за счёт повышения стоимости денег обезжирены. А тот крупняк, который может лить бабло, льёт его в рамках карго-культа в генеративные системы на ретроспективной частотности. 

Аватар пользователя MisterBigger
MisterBigger(5 лет 1 месяц)

Я бы попросил не трогать Суно!!!   Классная вещь в умелых руках.

Аватар пользователя Miker
Miker(3 года 11 месяцев)

Любой инструмент хорош в меру владения таковым, это бесспорно. Никаких к нему претензий нет, по крайней мере у меня лично. Просто Суно - не тот ИИ, который будет захвачен процессом суверенизации ИИ, просто потому, что в этом нет ни малейшего смысла.

Аватар пользователя str68
str68(10 лет 10 месяцев)

Да там математика на частотности фундаментально не позволяет сделать нормальные мозги

Справедливости ради, разработчики это осознают не хуже вашего. Отсюда и всякие там dropout, MLP Mixer и Диффузионные трансформеры... Прогресс куда-то движется. Вопрос - до куда хватит денег? Ну, или электричества...

Страницы