Проблемы языковых ИИ

Аватар пользователя NeaTeam

Поигрался тут с парой «искусственных интеллектов» на предмет того, какую и каким образом они мне могут предложить информацию в ответ на мой вопрос. Всё норм, как в энциклопедии. Только ещё и по полочкам изложено, кратенько так (пользовался безплатным «не более 4 000 знаков в ответе»), но с намёком, что можно и побольше инфы раскопать и предоставить. Ну я мужчина тёртый, меня на разводе на бабки не проведёшь, поэтому отказался. Я ж для исследований, типа лингвистических, а не абы как. Да и ответы на вопросы я и без ИИ прекрасно знал, поскольку читывал то же самое, что и они оба.

Другими словами, исследование было проведено, но оно было поверхностным. Но при этом выяснилось кое-что другое. Совсем как бы вроде и не к месту, но... как-то смешно, что ли. Дело в том, что на пару страниц текста оба ИИ умудрились сделать по одной-двум ошибкам. Грамматическим. Они просто бросаются в глаза. Насчёт смысловых я особо не проверял, потому что смыслы в языках могут пониматься более, чем разносторонне и многозначно. А вот грамматика – наука более «жёсткая», тем более что ИИ в словотворчество не очень умеют. Ну и как бы... сами понимаете. Сразу вспомнились рисунки от ИИ разных людей о трёх руках там, или шести пальцах на руке.

Т. е. я просто убедился, что ИИ в плане языков ещё есть куда шагать. Далековато ещё ИИ до человеческого интеллекта и словесно-словарно-мысленного опытов. Как-то вот ИИ пока не очень врубаются в тонкости. Или их просто не замечают. Это ни хорошо, ни плохо, потому что по своим детям я помню, как они делали не то, чтобы ошибки в составлениях фраз, а просто «тренировались» и попадали иногда на грамматические исключения такие, более принятые. Ну, когда учились говорить ещё, лет до 5 где-то. Т. е. идёт обучение ИИ. Обычное. Ну и успехи уже есть, правда, есть куда работать и есть что улучшать.

У меня есть собственные идеи по поводу того, как «научать» ИИ языкам, уже излагал их пару лет назад здесь, на АШ, но, разумеется, кому они нах нужны. Тем не менее, снова изложу их, вдруг, кто работающий в этих областях заметит, оценит и попробует применить после осмысления.

Итак, язык – это система с гибкими «краями». Её сердцевина – это грамматика, узловые точки соединений слов, что-то вроде каркаса. Эта сердцевина пронизывает весь язык на манер кровеносных сосудов, пронизывающих тела человеков. Важно помнить при этом, что сердцевина эта НЕ материальна, а ментальна. Собственно и сам язык тоже не материален, а мысленен. Но сердцевина грамматическая это что-то вроде особой крутой «ментальности», всунутой в общую, более расплывчатую «ментальность». Или подойдёт другое сравнение: система языка имеет внутри себя опорную подсистему-грамматику, которая формирует узлами соединений общую языковую систему. Примерно так.

Что означает «гибкость» системы языка по «краям»? А это означает, что на «краях» находятся спорные грамматические моменты, которые однозначно не трактуются правилами грамматики. Или, если говорить проще, нарушают правила грамматики. Как? А вот как угодно. Дело в том, что сама по себе грамматика – это совокупность стандартов (стандартных правил), выработанных для мгновенного понимания/узнавания стандартных форм. Поэтому-то отступление от «жёсткости» грамматических конструкций по «краям» ведёт лишь к затруднению понимания. К затруднению, а не к отсутствию понимания. Хотя в некоторых случаях, если отступление от грамматики велико, то и полному непониманию тоже.

ИИ, как машина-автомат, хотя бы и самообучающийся, не может «играть» без правил. Не может также «чудить» по своей свободной воле. Не может нарочно становиться «непонятным», за ради игры, балуясь. Он может лишь собирать и анализировать всё, что делает человек, как человек себя выражает, ну и копировать. По пути отметая «чудинки» и прочие несуразицы. Он ведь раб грамматики. Любопытно при этом, что даже вобрав в себя (по слухам) уже столько информации, сколько их вообще есть в человечестве, он по-прежнему остаётся рабом грамматики. А вот люди рабами грамматики никогда не становятся, потому что они прекрасно понимают всю иллюзорность этих правил, и могут и похулиганить иногда, НАРУШАЯ эту самую грамматику, но тем самым и «расширяя», или проверяя на «гибкость», ареалы языковых границ.

Здесь нужно вернуться к той предпосылке ко всему вышесказанному, о которой я уже сказал чуть выше. Дело в том, что мысль, при переходе к языку, к его оформлению в языке, не делает это абы как, хлоп – и готово. Это просто нам так кажется. На самом деле мы просто используем массу стандартных «путей» преодоления первичной невнятицы смыслов и постепенного ФОРМИРОВАНИЯ языкового отображения этих смыслов. А вот когда (редко, но бывает) такие стандартные пути отсутствуют, тут-то мы и начинаем заниматься тем, что в просторечии зовётся «ищем слова».

Связь мысли и языкового выражения проходит несколько этапов. Они легко вычисляются, кстати, если кто захочет это сделать самостоятельно. Никаких особых навыков здесь не нужно, просто быть внимательным достаточно. Эти этапы можно ещё назвать фильтрами смысловых «воронок». Где на каждом этапе отфильтровываются те оттенки выражения смыслов словами, которые «не подходят» в конкретной ситуации. Все эти этапы или «воронки» при этом строго индивидуальны (чего лишены ИИ, этой самой пресловутой индивидуальности). Я назову лишь три, самых очевидных, этапа или три «воронки», хотя на самом деле, у каждого индивидуума (человека) они свои, могут быть не только разными, не только разнообразными, но и количественно очень сложными. Всё это само по себе ещё одна система. Можно сказать так: система «перехода от мысли к языку».

Итак три «воронки». Первая фильтрует самые общие, самые присущие всем на Земле человекам понятия: к примеру, пища, питьё, семья, возрасты, дети, взрослые, окружение человека самое общее, типа тепло/холодно, мокро/сухо и т. д., тело человека, работа, дом, результат, цель. Обращать внимание следует на «общее» для всех человеков. Это фильтр, этот этап – «очеловечивает» или привязывает к человеку любую мысль человека. Всё, что вне человека (так тоже бывает), этот этап «заценивает» как взгляд человека же. Ни одна мысль человеческая не может появиться без хотя бы слабой и еле заметной «привязки» к общечеловечеству, или я бы сказал к сущности в теле человека.

Этап или «воронка» вторая фильтрует общечеловеческое на разное культурно-цивилизационное отличие, включая различие на женское и мужское (если подходит по смыслу). Здесь стоит обратить внимание на то, что никакого языка на этом этапе ещё нет. Идёт просто разбраковка мысли на составляющие с присвоением её тех или иных «маркеров» дальнейшего отличия.

Ну и наконец этап третий или третья «воронка» втёсывают предыдущий уже «отфильтрованный» материал в язык. Причём по склонности конкретного человека. Собственно говоря, только на этом, третьем этапе и происходит претворение мысли в язык. Склонность человека как бы «шлифует» выбранные слова, понятия, вообще всё языковое.

Это было о выражении человеком себя. В процессе вбирания в себя информации происходит точно так же, только наоборот: этап третий становится первым, второй – остаётся вторым, а этап третий – это этап первый из пути «от мысли к слову».

Когда в ИИ, имхо, будет введён вышеописанный алгоритм, а он не за горами, то проблема будет в конкретной склонности (выше выделено жирным), которая у ИИ будет поначалу отсутствовать. «Вживление» определённой склонности ИИ будет ещё той задачей, и вовсе не факт, что нейросети с этим самостоятельно справятся, при отсутствии у них живой души. Я так думаю, что разработчики будут пробовать вводить свои склонности, но для этого их надо вычленить и обрисовать. Что трудно сделать. Не могу сказать, что невозможно, потому что не знаю.

При этом я понимаю, что у разработчиков ИИ могут быть свои понимания о душе. К примеру, что её вообще нет или что она, в приложении к ИИ, и не нужна вовсе. Но тут возникнет тот самый ментальный парадокс, который можно обрисовать так: на третьем этапе перехода от мысли к слову... требуется склонность человека, как определяющий фактор «живости» языка. Мы же все чувствуем «мёртвость» текстов или их «живость», или даже то, что кто-то очень «ловко пытается нас обмануть» своей якобы «живостью», но при этом ощущения у нас, живых, очень СТРАННЫЕ. А это самые явные проявления живых душ, у которых есть свои уникальные склонности. И эти склонности запросто «проникают» в язык и окрашивают его, когда язык исходит от человека. Живого.

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя felixsir
felixsir(9 лет 11 месяцев)

Не так подробно и внятно, но что-то подобное ощущал. Язык ии - язык бухгалтера. А бухгалтер не вполне человек.

Аватар пользователя user3120
user3120(10 лет 3 месяца)

Проблемы языковых ИИ

ИИ хорошо пишут книги / "сказки"(новые идеи). А если этот движок (горе кулхацкерами) без доработки использовать для точных дисциплин вроде юридических - то получаются галлюцинации на галлюцинациях.

Даже рассуждающие модели делают детские математические ошибки.

Это проблемы адаптации (к конкретным задачам) и что эти адаптации делают люди(что учатся по ютубу). Но это больше чем мелкие неурядицы*.

***

Контекстное вырождение.

На более специализированных темах (где мало источников) и на языках где мало исходной информации языковым моделям приходится в лучшем случае использовать материалы из других языков. И здесь начинаются сложности перевода.

*

Вспоминаю, как на одном обмене опытом со стартапами они чётко делились на 2 группы: первая – с менеджерами про невероятные инновации и всеобщее благоденствие,

а вторая – с инженерами, которые с красными глазами рассказывали, что так и не смогли победить галлюцинации, что окно контекста заканчивается очень быстро и что для того, чтобы на нормальном продакшнене и вся эта магия заработала, нужны огромные инвестиции в инфраструктуру, оркестратор, агенты, векторные базы, кратковременную и долговременную память и так далее.

Чтобы понять что окно контекста быстро заканчивается - надо долго и упорно(последовательно) разговаривать с ИИ на одну и ту же тему уточняя вопрос (почти по кругу).

Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

Чтобы понять что окно контекста быстро заканчивается - надо долго и упорно(последовательно) разговаривать с ИИ на одну и ту же тему уточняя вопрос (почти по кругу).

- Наверно, так и есть. 

Аватар пользователя barbudos
barbudos(13 лет 8 месяцев)

Дело в том, что на пару страниц текста оба ИИ умудрились сделать по одной-​двум ошибкам. Грамматическим.

Приставку "без" писал "с буквой "с" наверное.

Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

Приставку "без" писал "с буквой "с" наверное.

- Я общался на английском. Там "беса" не славят. Там всё по-другому.

Скрытый комментарий С Правого (c обсуждением)
Аватар пользователя С Правого
С Правого(11 лет 4 месяца)

".меня на разводе на бабки не проведёшь"-сколько раз разводились?))).

Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

".меня на разводе на бабки не проведёшь"-сколько раз разводились?))).

- Два раза. 

Аватар пользователя С Правого
С Правого(11 лет 4 месяца)

smile13.gif Это я 40+лет частично "вразжопицу" живу )).ЗЫ: ..двое сыновей)))

Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

Это я 40+лет частично "вразжопицу" живу )).ЗЫ: ..двое сыновей)))

- Твой вопрос просто не понял сначала. Я думал, спрашивал, сколько раз меня разводили жулики на деньги.:))))) А так я лишь один раз разводился (с первой женой). А  не два.:)) 

Аватар пользователя С Правого
С Правого(11 лет 4 месяца)

А вот мне не повезло,развестись). ...или наоборот повезло жениться через 4 месяца после дембеля)).Хотя иногда путаюсь в определениях)).Будьте добры поиграйте с ИИ в "разжопицу"и  в стихах))).

Аватар пользователя Облако
Облако(7 лет 9 месяцев)

Оо, так долго уже не было комментариев от меня, но тут не удалось пройти мимо. Ну вот никак! Автор, твои тестируемые ИИ это LLM модели. Чтобы понять, что у них «под капотом», надо для начала понять, как оно работало до этого. А что это оно? Поиск информации! А до этого были поисковые машины, основанные на ключевых словах и семантике, и связанных с этим ограничениях. Ну там, семантические деревья на основе двух (!) ключевых слов. Ну а LLM модели это реально большой шаг вперед, и это уже многомерные векторные модели, которые позволяют работать со словом-словосочетанием-предложением-фразой. Правда тут уже основа в статистическом совпадении, а не «понятности» логики. Не буду долго про ИНС в сути, но типо это в сути своей сумма взвешенных критериев с «откалиброванными обучением» весами. Ну то для тех, кто понимает. Автор, это такой бред, что вы написали. И ведь проблема, что скоро просто единицы будут понимать фундаментально, как все работает

Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

Автор, твои тестируемые ИИ это LLM модели.

- А я так и написал (в названии прямо, для дурней, которые плохо умеют в "читать"), что это ИИ в плане языков. Подветвь. Что не так-то? А, умное слово LLM не употребил. Ну, бывает, я многие слова не употребляю. Стараюсь обходиться без иностранщины, если возможно...

Автор, это такой бред, что вы написали. 

- Да, нет, это ты - напыщенный дебил, который даже читать не умеет как следует хотя бы названия статей. Я уж не говорю про "понимать".

Чего ты сказать-то хотел? Что ты на свете один такой умный? А никто никогда, кроме тебя, не слышал, не сталкивался с ни поисковиками, ни с автопереводичками, никто не видел, как это всё развивается и работает?

Так ведь нет. 

Тогда что ты хотел сказать-то? Что именно? Неужели вот это: "И ведь проблема, что скоро просто единицы будут понимать фундаментально, как все работает." 

Это ты, что ли "фундаментальщик"? А другие лаптем щи хлебают?

Аватар пользователя Nientemiele
Nientemiele(4 года 2 месяца)

пользовался безплатным «не более 4 000 знаков в ответе»

"Бесплатным", в первом обзаце, поправьте.

Аватар пользователя Tegucigalpa
Tegucigalpa(1 год 10 месяцев)

Ты пользовался обрезаным (кастрированым, квантованным) LLM - они на какое-то количество токенов выдают один неверный. Да, да. Та самая грамматическая ошибка.
И из этого столько фантастических выводов, эххх...

"не более 4 000 знаков в ответе" это контент ~2000 токенов
Ужас, это что вообще такое? Это что-то настолько примитивное, что даже затрудняюсь предположить что это было. Потому что из десятков моделей что у меня есть, только одно с таким контентом, это что-то настолько убогое что предназначено вообще для телефона и для демонстрации что подобное можно сделать ради прикола и оно даже вроде шевелится. О чем с ним вообще можно говорить, оно тупое как пробка.

Вот нормальные, огромные и умные модели. Все бесплатны.

https://chat.qwen.ai/

https://chat.deepseek.com/

https://grok.com/?referrer=website

Комментарий администрации:  
*** отключен (невменяемое общение) ***
Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

Вот нормальные, огромные и умные модели. Все бесплатны.

https://chat.qwen.ai/

https://chat.deepseek.com/

https://grok.com/?referrer=website

- Вот эти проверил, всё, как под копирку с тем, на чём я проверял. Так что - никакой разницы нет. 

Аватар пользователя NeaTeam
NeaTeam(10 лет 11 месяцев)

Ты пользовался обрезаным (кастрированым, квантованным) 

- Вполне возможно.

Вот нормальные, огромные и умные модели. Все бесплатны. 

- Спасибо. 

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Облако
Облако(7 лет 9 месяцев)

Ты говоришь о смыслах и мыслях, но у LLM их нет. Они не мыслят, не осознают язык и не работают с ним так, как человек. Ты пытаешься применить к ним человеческую логику, но это просто алгоритм, который обеспечивают последовательность слов. Ты говоришь о гибкости и "воронках смысла", но модели не фильтруют смысл, а лишь имитируют осмысленный текст. Поэтому твоё предложение "научать ИИ языкам" через фильтрацию мысли — бессмысленно. У ИИ нет мыслей, есть только весовые коэффициенты в многомерном векторном пространстве. Вот почему бред.
Ну а про единицы, ну так welcome, разберись и пиши еще