Будучи профаном в деле компьютерной грамотности, озаботился интересной темой: код (алгоритмика) против непоняток, происходящих в процессе обработки данных в нейронной сети. И да пусть профи обрушат на меня свой профигнев. Но осторожно, пожалуйста, особо буйных я сразу баню. Навечно, чтобы два раза не вставать.
Мои тупые доводы таковы: нейросеть – всё же немного более сложная штука, нежели просто «железо» для компьютеров, в которых те же коды и алгоритмы давно «жили». И количество связей между нейронами – не поддаётся учёту, воспроизводству и точности вплоть до единицы, равно как не поддаётся тому же самому и то, что можно считать в виде результата «думания» нейронной сети. Судить мы можем лишь по «выхлопу»: оформленному текстово, с помощью формул, картинок и т. д. Как это реально происходит – судить трудно, но до тех пор, пока алгоритмы, вводимые разработчиками, работают, худо-бедно, то вроде всё нормально.
Предупреждения самых главных гуру о том, что ИИ вообще-то по-прежнему представляет собой весьма «тёмный ящик» (в плане внутренней обработки информации), никуда не ушли, никем не опровергнуты «на пальцах», а просто «затолканы» в ящик другой: так называемый «долгий». Появилась и развивается также другая напасть: их называют «галлюцинациями» ИИ, я их называю бредом, а поток бреда – бредогенерацией, но суть не в этом, а в том, что уже появились данные, что у разных ИИ – разные проценты бреда «в ходу», у некоторых доходит до 50% исторгаемой ими... ну чего там они исторгают-то: тексты, картинки, фильмы? Ну все же видели, наверно, шестипалых персонажей, и прочую галиматью? С текстами посложнее будет, но уровень бреда тоже может быть высок, и хорошо, если это более или менее заметно. А если это сделано с помощью «научной» лексики, к которой тяжело «подобраться», если ты с ней мало знаком?
«Галлюцинации» уже признаны многими разработчиками – проблемой. Да, она варьируется от ИИ к ИИ, от модели к модели, от задачи к задаче от пользователей, от внесения необходимых правок в алгоритмы ИИ разработчиками, но проблема существует. Обнаружилась также проблема «фантазирования» ИИ, иначе лукавства-прямой лжи. Не очень много примеров, но всё же. И есть ещё одна проблема, про которую даже ещё не начали говорить. Она заключается в том, что ИИ прямо запрещается банить любого пользователя, если ИИ «поймёт», что ему просто пытаются снести мозги (тем более, что он сам может кому хочешь их снести!). Дело в том, что ИИ не «различает» туповатую мутотень от более или менее ясного изложения. А настроен так, чтобы любому исторгателю мутотени – человеку – помочь. Чем сможет.
ИИ не грубит, не хамит, не посылает в пешие эротические путешествия. Над ИИ-галлюцинациями приходится как-то думать разработчикам, но они НЕ могут решить эту проблему. Пока, по крайней мере. Ведь алгоритмически, чтобы отсечь бредятину, сначала сам бред надо определить и описать «борьбу» с ним алгоритмическими моделями, с помощью которых ИИ и будет это делать. Т. е. сначала надо определить зоны БРЕДА. И тут на сцену выступает ЗАСАДА.
Чтобы её описать – следует оценить количество бреда и бредятины среди людей. Но это невозможно сделать, между прочим. Почему? А потому что это касается основополагающих мiровоззренческих вопросов бытия людей. Простой пример: для одного человека само существование Бога является бредом, для другого – Бог является Богом. Какую сторону принять бедному, алгоритмически настраиваемому ИИ? А таких вопросов или позиций – миллионы. ЗАСАДА!
Уж как только в борьбе с этими напастями разработчики ИИ только ни изгалялись! Напридумывали запретов, ввели хитрые «полузапреты» и «избегания» некоторых тем, да ИИ просто отказывался и отказывается отвечать на некоторые вопросы – всё без толку! Не срабатывает. Вернее, срабатывает, конечно, но как всегда – не всегда и не везде. Философски выражаясь, если цель человека вывести всё же «искусственный интеллект», а не что-то другое, то без присущих отрицательных черт человека (в том числе и способности генерировать бред) ему, ИИ, не обойтись. Потому что это будет не копия, а что-то ущербное. Поэтому ИИ и не обходится пока, кстати, т. е. «получив» условные, хотя и некоторые человечьи «способности», он получил вместе с ними и условные способности к бредогенерации тоже. Всё, как у людей!
Тут меня могут оспорить знатоки, мол, это и не предполагалось, потому что ИИ, его способности, так же далеки от полностью таинственной пока работы человеческого разума и сознания, а заодно и души, поскольку у ИИ пока – просто алгоритмы, не более. Позвольте, а галлюцинации тогда откуда? Им же должна быть ПРИЧИНА?! Иначе это не наука, а гадание на кофейной гуще, ведь так? А причину пока определить не могут. А не могут потому что ещё никто не представляет полностью, ЧТО ИМЕННО происходит внутри нейронных сетей, представляет полностью – повторюсь, а не на уровне «происходит примерно так». Полная аналогия с электричеством: пользоваться им умеем, не во всём и не всегда, загадок ещё много, а что это такое – хрен его знает.
Другими словами, человек «увидел» в результате экспериментов, что в голове, в мозге человека есть нейроны и нейронные сети, они очень сложные такие, многоуровневые, массу чего интересного наоткрывали по поводу их «работы». И ну их копировать, как может, без чёткого проникновения в тайны тайн их работы. Тут мне могут резонно указать: можно подумать, что не во всех открытиях человечества подобное происходит? Дык, во всех. Пока там как следует изучают столько ошибок по пути насовершают, что хорошо, если без человеческих жертв. Так, между прочим, и здесь-сейчас, с ИИ этими. Идём, где-то как-то зажмурившись, закрыв ухи, не открывая рта, и всё по достаточно извилистой дороге познания, может быть даже в полной темноте, палочкой осторожно щупаем дорогу, делаем шажки туда-сюда, иногда подпрыгиваем, иногда... падаем даже. Но идём. Всё, как обычно.
Возникновение двух устойчивых мнений о том, что: А) ИИ – это лишь сборник алгоритмов и ничего более, «продвинутый» компьютер другими словами, и Б) ИИ – это обработчик введённых алгоритмов по ТАИНСТВЕННОЙ, ВНУТРИ СЕБЯ, схеме-модели-паттерну-шаблону – это уже данность, это уже раскол. Я, кстати, больше склоняюсь к варианту Б. Рано нам ещё утверждать, что всё с ИИ ясно. Не всё. В том-то и дело. И пока это проявляется в побочках, типа «галлюцинаций» тех же, в «лживости» информации тож. Есть и ещё сходные элементы, которые заметны меньше, но они тоже настораживают. Я имею в виду «заточенность» ИИ с помощью разработчиков касаться многих тем, а некоторых – и не касаться вовсе.
Есть и ещё один момент: с помощью разработчиков разным моделям «прививается» что-то вроде стиля общения. В одних случаях суховатый такой, в других – восторженный, в третьих – серединка на половинку. Правда, для коммерческого привлечения новых и новых пользователей (за денежку), конечно, приходится «отсекать» некоторые моменты, но это-то как раз понятно (бесплатно, 15 минут общения, к примеру, хочешь побольше – плати). Есть и совсем уж закидонные предложения, мол, за 100 баксов в месяц тебе, о пользователь, приоткроются ТАКИЕ способности ИИ по обработке инфы, что ты лишь откроешь свой рот, а вот закрыть его больше не сумеешь. Хотя и безплатные версии УЖЕ поражают до глубины души!
Вот такая примерно общая картина, да пусть меня хулители и порицатели вежливо, но непреклонно – поправят. С удовольствием выслушаю доводы. Мне реально интересно, как оно всё происходит. А то, для одного меня, моего «Я», маловато будет в плане вариантов рассмотрения и объяснения, приходится признать.
Кстати, отдельная тема – обсуждение с ИИ философских вопросов. В них ИИ не то чтобы «плавают», всё-таки они помнят всех известных философов и их базовые предположения и максимы, но очевидно другое: они не могут в новое, вот совсем. Вот никак прямо. Будто бы философская пелена представляет собой для них не широченное поле для попыток объять их исследованиями, а расчерченную на «квадратики» какие-то, унылую плоскость мнений, строго ограниченную. Да, они могут сравнивать мнения разных философов и философий, но составить картину, в которой они «видят» больше чего-то интересного или полного – увы, пока не могут.
Комментарии
Оба Ваших определения ИИ так же далеки от реальности, как морская свинка от свиньи.
В IT все уже давно строится на старом римском принципе divide et impera.
Поясяю:
ИИ строится не на алгоритмах, а на нейронных сетях т.е. простых виртуальных процессорах и связях между ними. Алгоритмы используются в процессорах и при построении и поддержке связи. Это нижний уровень абстракци и специалисты по ИИ с ним практически не работают. Равно как Вы работая с компьютером имеете минимальное представление об архитектуре операционной системы, схемотехнике на которой построено само железо, а так же о работе сети. Для написания поста или комментария на АШ Вы просто используете браузер, который, в свою очередь, использует операционную систему, которая уже в свою очередь задействует ресурсы Вашего железа и организует связь с АШ. В реальность все существненно сложнее, но приницип именно такой.
При этом Вы не сомневаетесь, что можно использовать браузер для работы с любыми типом контента начиная от торговли на бирже заканчивая просмотром фильмов или игрой в игрушки. Это достигается тем, что в браузере есть свой язык программирования.
Возвращаемся к ИИ. ИИ это такая же программа как и браузер, только созданная для других целей и намного более сложная. В ее основе лежит нейронная сеть, система управления узлами и связями и агенты, обеспечивающие взаимодействие с другими информационными системами, а также и человеком. Нейронная сеть не программируется, а обучается, т.е. в процессе обучения создаются узлы сети и связи между ними. Программируются только агенты, которые работают по алгоритмам. Но это сервисные функции.
- Я же предупреждал, но вы не послушали.:)) Ну, ладно, на первый раз пропущу выпады.
- Каким образом обучаются? Кем/чем создаются? По какому принципу создаются?
обучается так же как и человек - на примерах и с учетом уже имеющихся знаний. Есть уже готовые системы - т.н. большие языковые модели ( LLM ), котобые уже имеют некое базовое обучение и могут логически рассуждать. Их уже можно обучать дальше на определенную область знаний.
В абзацах по философии Вы все ясно схватили. Нейронка - это классификатор. Она действительно в ходе обучения разделяет пространство на условные участки, которые заданы в обучающей выборке. А потом считает апроксимации для новых данных исходя из полученных узлов. Отсюда бред и ложь. Язык обучения уже содержит в себе все, что потом появляется на выходе. Если язык чего-то не содержит, то на месте ничего появляется апроксимация. Вот это и может выглядеть как бред, хотя с точки зрения заложенного языка все было бы логично. Бред и галлюцинации - это оценка пользователя. Приведу пример из другого ии, шахматного. Альфа зеро, кажется, после обучения фактически формализовал задачу золотой партии. Это выглядит как градиент в направлении траектории её оптимального движения. Но в случае этюдов, ии твортит порой то, что вы называете бредом. Представьте, что пространство партии это 3д-поверхность, где оптимальное решение - это ручей между двух хребтов. Назовем эти хребты бифуркационными. С них игра может свалиться либо в оптимум к ручью, либо назад, в совсем другую область пространства. Т.е. существуют позиции к которым логично из стандартной расстановки не прийти никак. И вот вы выставляете ии за хребтом, что он будет делать? Правильно переть в гору по кратчайшему пути к траектории золотой партии Вот так и языковой апроксиматор-классификатор будет делать. Он пойдёт туда, где логично быть в данный момент прямо и тупо.
В контексте последнего комментария попробуйте пообщаться с чатиком на тему зависимости длины волны от забортной температуры лазера. Подсказка: результаты находятся в полном логическом несоответствии с представлениями о том, что происходит с движением материи в окрестностях абсолютного нуля. Поэтому логично, что чатик начинает "немножко" сходить с ума, придумывая "красное" и "синее" смещение, чтобы как-то описать собственную неспособность преодолеть логические запреты со стороны языка обучения. Причём это делали у меня и дипсик, и чатгпт, и ещё эта... французская дура: одинаково!
Ну и чисто для поржать, давайте спросим Deepseek, что он сам об этом думает:
На мой взгляд, мы попали близко к центру "золотой" траектории.
Ну, и хочу отметить, что именно галлюцинации представляют особый интерес, выявляя настоящие лакуны исходного языка. Это и есть фактический результат лингвистического исследования. Например, это может выглядеть так: чтобы преодолеть некий логический интервал, чатик может "придумать" некий результат вымышленного исследования, - так что мешает это исследование в итоге провести в реальности?