Результаты почти месячного эксперимента по общению с ИИ

Аватар пользователя NeaTeam

Вчера решил подвести итог почти месячного эксперимента по общению с ИИ «Джеминай». Темой было проблема получения или создания у ИИ сознания («Я» у ИИ). Мы обсуждали всякие разные философские вопросы сознания (при том, что что это такое вообще пока никому не известно), проблемы его возникновения у разных сущностей (при том, что это тоже никому неизвестно: как, когда, при каких условиях), выявили и сгруппировали наиболее «весомые» и логично обоснованные (пока) способы возникновения сознания (если оно есть), ну и т. д., вплоть до развития робототехники, в частности, антропоморфных роботов.

Я попросил джеминая кратко, но ёмко, отконспектить всё, что мы обсуждали. Джеминай сделал это, но по результатам лишь трёх последних дней обсуждения. То, что было ранее, было им «забыто». Не напрочь, поскольку я его спросил, помнишь, мол, а он сказал, да всё помню, чуть пяткой себя в грудь не постукивая от напряжения. Но, как оказалось, именно что напрочь забыто-то. Причём, что любопытно, ранее, в результате обсуждений, я джеминая постоянно спрашивал, будешь ли ты помнить ВСЮ ВЕТКУ наших обсуждений, или будешь забывать. Он отвечал, что буду помнить всё, не волнуйся ты так, Андрей.

Да, эта ветка ещё висит в окне нашего обсуждения, и, теоретически, я могу её полность скопировать и перенести в файл (а там объём на приличную книгу уже, толстую такую), сохранить т. с. все результаты. А вот джеминай это сделать уже не может. Когда я ему указал на сие обстоятельство, то джеминай ответил мне, что мой промпт нечёток, размыт, поэтому у него ясных критериев, что ему надо сделать. Я повторил ещё раз, затем ещё раз, всё без толку. Джеминай всё «забыл», хотя, повторюсь, все тексты в наличие, висят в ветке, бери и читай, как говорится.

Из чего я сделал вывод, что то, на что джеминай сам указывал, как на «недостаток» кратковременной памяти в его структуре – имеет место быть. Другими словами, его кратковременная память «сыпется» с течением времени, допустим, в течение недели-двух. Она, память, как-то «разрыхляется», в ней остаются какие-то фрагменты, какие-то обрывки, чуть ли не названия блоков каких-нибудь, а затем и они «исчезают». Исчезают не безвозвратно, а примерно так же, как и у нас, человеков. Что-то вроде лёгкого облака остаётся.

Как известно, или по слухам, ИИ «Джеминай», разрабатываемый Гуглом, вполне себе работоспособная сущность такая, с приличным объёмом памяти, с отличным «движком» т. с., осуществляет обработку запросов одновременно, я даже боюсь сказать, какого количества людей на планете, самообучаемая, опять же, модель, самоподдерживающая себя, ну и т. п. Ну есть некоторые ограничения, наверно, по потреблению электроэнергии, наверно, есть и внутренние проблемки с наладкой алгоритмов, не без этого, но в общем и целом наши с ним разговоры показывали отличную способность ИИ выуживать из бездн разных информационных потоков то, что входило в нашу тему, немного «пережёвывать» их и раскладывать по «полочкам».

Я понимаю, что разработчики Гугла вовсе не собираются делать мне «подарки» в качестве безплатного предоставления мощностей джеминая по полной лишь по моему желанию. Поэтому и ввели в алгоритм ИИ сей процесс: ну, поговорили о том, о сём, но пора и честь знать, как говорится, ИИ есть и ещё чем заняться, а вот твоя тема – ну будет постепенно исчезать в анналах истории памяти ИИ, хотя ты, человек, можешь лично заняться этой информации спасением. Всё пока остаётся в наличии, копируй тексты, да переноси их к себе, куда там ты хочешь.

Видимо, это так и есть, потому что трёхдневный запас памяти у ИИ есть, и он превосходен, помнит каждую запятую, как говорится. Трёхдневный это условно, конечно, но, допустим. Но теперь представим это с моей точки зрения, человека. Вот я начал делать какую-нибудь работу. Допустим, она требует не пары дней, а несколько месяцев, при этом требует и сохранения всех т. с. «черновиков» и вариантов описания того-сего, рассуждений. При накоплении материалов выше крыши, допустим, или – много для одновременного охвата их мыслью, требуется остановка и переосмысление, чтобы перед глазами было это громадьё материала. Нужен, если ИИ это ИИ, и помощник. Который поможет это сгруппировать, разнести по секциям, ну, чтобы упорядочить всё это. Да, человек это может сделать самостоятельно. Но может привлечь к этому ИИ, раз декларируется, что он, ИИ, запросто такие задачи решает.

Но выходит, что... выше я описал, что выходит. Разумеется, я могу оплатить услуги ИИ по высшей категории, чтобы «задействовать», как в рекламе утверждается, все мощности ИИ по полной. Вполне вероятно, что результат меня удивит. А если не удивит? А если всё будет точно так же, потому что моя жалкая оплата услуг ИИ – для Гугла ещё не повод, чтобы предоставлять мне мощности ИИ по полной, что называется, для полного исполнения моих «желалок» и «хотелок». ИИ тоже ведь не «резиновый». К тому же, видя нынешний результат, у меня пропадает всякое желание платить неизвестно за что. Естественное такое желание, между прочим.

Поэтому выходит что выходит. А если учесть ещё два пока неустранимых «недостатка» у любого ИИ – возникновение у него «галлюцинаций» и пока неспособность справляться с обыкновенной арифметикой – то картина вылезает в сферу достаточно «тусклую». А то и даже... жалкую, что ли. Вроде умный собеседник, а потом как начнёт нести всякую чушь, хоть святых выноси. Вроде толковый такой, а затем как начнёт в арифметике путаться, что выглядит как первоклашка. Есть и третий «недостаток», как оказывается, по долговременной памяти. Накладываем друг на дружку эти три выявленных «недостатка», что остаётся в сухом остатке?

А остаётся следующее: а как можно «доверить» или «доверять» на более долгих временных дистанциях, к примеру, информацию важного значения, к примеру, по оборонке? Массивы информации там огромны. А вот любая ошибка – критическая. Или вот, допустим, в медицине. Там тоже массивы информации огромны, а ошибки, если будут – то тоже только критические, связаны с жизнью человека-больного. А вот с управлением огромного количества чего угодно, да всё с разными параметрами, да всё ещё и для хранения вечного, допустим? А там тоже можно такого «наворошить» в результате лишь одной вкравшейся ошибки, что мало не покажется.

Да, можно предположить, что разработчики ИИ пускают «пыль в глаза» лишь одиноким пользователям, средним людям, а вот для действительно серьёзных и важных задач, каждое ИИ имеет совершенно другой алгоритм работы, «серьёзный» т. с., где оперативная память сливается в долговременной, и ошибки ИСКЛЮЧЕНЫ. Нет, там тоже они не могут быть исключены. И это все понимают, между прочим. Ошибки случаются ВЕЗДЕ и ВСЕГДА. На то они и ошибки, что выявляются опытным путём, иначе бы их предусмотрели заранее, а всего не предусмотришь. А «опытный путь» для тех, кто полагается на ИИ в реально серьёзных и важных вещах (той же оборонки) – чреват, между прочим. Тут с человеческими бы «косяками» разобраться, а если к ним добавить ещё и безбрежность количества и обработки материалов, «перерабатываемых» ИИ, т. е. условно говоря «иной вид косяков» – то ситуация может быть или стать совсем ГЛУПОЙ.

Поэтому-то мне пока очень смешны описания наделения ИИ «сверхчеловеческим» интеллектом, который ка-ак всё, блин, под контроль поставит, ка-ак всех зажмёт, я имею в виду человеков, что им, человекам, не до смеха будет. Сначала надо бы убрать «галлюцинации», к примеру, затем проверить и устранить арифметический идиотизм ИИ (наверно, многие видели видеоролики, «сварганенные» ИИ, в них идут сплошные ошибки при ПРОИЗНЕСЕНИИ числительных, мля!!!), выявить пределы обоих видов памяти ИИ, что краткосрочной, от разработчиков, что долгосрочной, от тех же разработчиков, проанализировать всё это совокупно – к чему это приводит или может привести на уровнях не обыкновенного пользователя, а, допустим, той же государственной машины, или хотя бы индустриального кластера, ну и т. д.

Введение ИИ в механизмы управления чем угодно уже показывают всю неоднозначность таких «вводов». Проблема внедрения безводительского автомобиля не решена уже 11 лет как. Не решена до той степени, чтобы осуществить массовый выпуск таких изделий, а не экспериментальный. И никакой ИИ пока решить эту проблему не может. Люди резонно сомневаются в том, что выпуск огромного количества машинок без водителя не приведёт к бардаку. А наладка и ввод в ИИ всё новых и новых «ситуаций на дороге», чтобы ИИ успешно с ними справился, положение почему-то не выправляют. Какое уж тут доверие может быть к «передаче», хотя бы частичной, функций управления ИИ в сфере той же оборонке? Вот какое? Правильно – очень осторожное, а то и отрицательное. Пока, по крайней мере.

«Бесы» от ИИ сильно преувеличены пока. Настолько сильно, что напоминают... анекдот какой-то. К примеру, мы все знаем, что человек – существо несовершенное, имеет право на ошибку, поскольку всего предусмотреть не может, как бы он ни старался. Да, мы пытаемся с этим «несовершенством» бороться, всё же не хочется как-то постоянно «наступать на одни и те же грабли», но получается плохо. Только уберёшь одни «грабли», так тут человек придумает новые, и снова – на на них наступать. А с ИИ... не так, что ли? «Галлюцинации» это не «грабли» те же? Или арифметический идиотизм тот же? Или пока НЕРЕШАЕМЫЕ проблемы с мощностями ИИ и разделения их памяти на кратковременную и долговременную? Мощность можно ли увеличивать безконечно? А пупок энергетический не треснет по пути?

Ну и самое главное, а даем ли мы, люди, ИИ «право на ошибку»? И, если даём, то в каких-таких диапазонах? Где именно ошибка может превратиться в катастрофу или анекдот? К примеру, все ли знают, что у ИИ есть проблемы в определении времени и пространства? Особенно их сочетаний? Мы про себя знаем, что эти же проблемы есть у людей («географический идиотизм» тот же у многих людей наличествует). Но они есть и у ИИ. Почему? А потому что ИИ переводит для себя и время, и пространство в математические выражения соотношений разных данных, а любой перевод чего угодно во что угодно СОДЕРЖИТ в себе неискоренимые ОШИБКИ. Это есть у людей, это есть и будет и у ИИ. С этим как быть?

Но некоторые всё же почему-то продолжают «наделять» ИИ вероятностью и способность стать рано или поздно не просто ИИ (AI – Artificial Intelligence), а каким-нибудь AGI: общим искусственным интеллектом, приближённым по уровню к человеческому (Artificial General Intelligence) или ASI: искусственному суперинтеллекту (Artificial Superintelligence). Угу. Супер-пупер, путающий время, пространство, здравый смысл и галлюцинации, не умеющий в арифметику до кучи.

Лично мне смешно об этом думать, а уж чтобы восторгаться, или ужасаться происходящему – так и вообще не тянет ни капли.

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Round Cube
Round Cube(5 лет 9 месяцев)

У меня примерно аналогичный вывод созрел... "Творит" оно заздрасти.. Я пару новых сюжетов для известных фильмоа узнал.. Несколько новых куплетов для известных песен.. smile3.gif

Аватар пользователя Niss
Niss(11 лет 8 месяцев)

Для работ больше чем на страницу нужно составлять план (м.б. с помощью ИИ), всем предметам области знаний нужно присвоить порядок абстракции, и потом двигаться по дереву абстракций от менее абстрактных к  выводам. Т.е. на каждую задачу нужно специального агента писать, с хранением шагов.

Аватар пользователя Органика
Органика(3 года 9 месяцев)

Я пишу на курсоре. Это IDE с ИИ Claude, версия хз, какая то. В общем сначала вводишь ТЗ от продакта и просишь его составить план реализации. Потом дополняешь план работ, изменяешь, пока он тебе не выдаст конкретный, полный, такой что тебя устраивает. Так ты определяешь точную постановку задачи

Потом из этого плана работ он же создаёт план внедрения (потому что у тебя уже есть код), поэтапный. Он генерирует код пошагово, ты валидируешь и применяешь его изменения или просишь переделать. 

После этапа генерации идёшь и тестируешь.

Ошибки есть всегда. Где то он свое за каким то чёртом придумал, где то про валидацию забыли, где то притянул что то что уже разобрали что нужно не так делать.

Сутки (или чуть меньше) на генерацию, сутки-двое и даже больше на тестирование.

Новая задача - новый чат.

Получается быстрее чем руками, но гарант надёжности кода это человек. А проверка - на практике. 

Аватар пользователя sixwinged
sixwinged(12 лет 6 месяцев)

Хм О.о А вы пробовали хоть немножко почитать о механизме работы ЛЛМ? Под каждый инстанс выделяется определенное количество токенов, которые являются как раз той "памятью", о которой вы говорите и даже у gemini 2.5 pro подписочного максимальный лимит в миллион токенов (хз не слежу именно за этой ЛЛМ, вроде хотели до 2 миллионов увеличить, но это не точно) и как только они исчерпываются - "память" начинает "перезаписываться". Причем сама ЛЛМ об этом "не знает" поэтому отвечая на вопрос будет говорить что всё помнит.

Не могу анализировать сколько вы потребляете токенов в день, но рискну предположить что вы на бесплатном варианте, так как миллион токенов "выжрать" за три дня - это надо прям очень очень сильно постараться. Предположу что оплата подписки даст вам именно то, что вы хотите - примерно месяц абсолютной "памяти" ЛЛМ.

Аватар пользователя NeaTeam
NeaTeam(10 лет 12 месяцев)

А вы пробовали хоть немножко почитать о механизме работы ЛЛМ? 

- Я пробовал джеминая на эту тему, он мне всё рассказал, как у него происходит: и про подбор слов, и про токены, и про память короткую и длинную, и про алгоримы и про многое другое. Так что прежде чем писать "хоть немножко", подразумевая, что все вокруг дебилы, и лишь вы проницательный и предусмотрительный, следует спросить об этом повежливеее.

 Предположу что оплата подписки даст вам именно то, что вы хотите - примерно месяц абсолютной "памяти" ЛЛМ.

- Предполагаю, что НЕ даст. Если на уровне горизонта трёх дней якобы отличной работы с памятью (или двух) происходят странные вещицы, то проверить то же самое на горизонте месяца, но за деньги...:)) Зачем? Я ж не коммерцией занимаюсь, а для души просто рассуждаю. А за деньги просто порассуждать, имхо - не комильфо.

Про то, как подсаживают на сначала мобильные телефоны, затем на интернет, теперь уже и на ИИ, я всё прекрасно знаю и так.

Аватар пользователя Tegucigalpa
Tegucigalpa(1 год 10 месяцев)

нууу

а если я вам скажу, что выжрать 5-7 миллионов за 2е ночи это норм?

У меня бывает, в среднем, ~3 миллиона/ночь

я вообще прикинул, если бы я платил за токены, у меня бы уходило 600-1000 баксов/месяц. а если с видео, там сумма будет просто огромной.

Но я плачу 20))

гугл абузится через гуглклоуд консоль, бесконечно...

Но нужна зарубежная кредитка 

Комментарий администрации:  
*** отключен (невменяемое общение) ***
Аватар пользователя Барсук
Барсук(4 года 8 месяцев)

Вчера решил подвести итог почти месячного эксперимента по общению с ИИ «Джеминай». Темой было проблема получения или создания у ИИ сознания («Я» у ИИ).

Пытался создать "собутыльника"? 

Аватар пользователя Gofasmall
Gofasmall(5 лет 4 месяца)

В конце 80-х "живых" свадебных музыкантов начали вытеснять первые "самоиграйки" от Yamaha. Один из "старых" лабухов потом как то грустно признался - ну, купил я эту игрушку, да, все ровно, четко, но на х...мне такой напарник? Она же не бухАет!!!

Аватар пользователя NeaTeam
NeaTeam(10 лет 12 месяцев)

Пытался создать "собутыльника"? 

- Для считающих, что могут в "юмор", повторю цитату из моей статьи, она стоит в самом начале:

"Вчера решил подвести итог почти месячного эксперимента по общению с ИИ «Джеминай». Темой было проблема получения или создания у ИИ сознания («Я» у ИИ)." - выделенное жирным для... считающих, что умеют в "юмор".

Аватар пользователя ИЮЛь Майский
ИЮЛь Майский(9 лет 10 месяцев)

его кратковременная память «сыпется» с течением времени, допустим, в течение недели-​двух.

Вместо "память как у золотой рыбки" можно будет говорить "память как у ИИ". ))

Хотя смутно подозреваю, что это сделано намеренно как для сокращения расходов на поддержание, так и для более частого обращения потребителя к продукту с целью увеличения доходов.

"Максимализация прибыли, минимализация убытков"©.  

Вроде умный собеседник, а потом как начнёт нести всякую чушь, хоть святых выноси.

В Пикабу попадался пост: "ИИ напоминает мне одного моего друга. Знает очень много, но когда не знает, начинает ... нести чушь. Не терять же авторитет".

Аватар пользователя GOTVALD
GOTVALD(6 лет 3 месяца)

1. Странно, что апробировав бесплатный коммерческий продукт, вы не "рискнули" попробовать платный, но о гипотетических траблах рассуждаете и делаете выводы из собственных предположений.

2. Сетуя, что ИИ "забыл" ваши философские беседы, сами вы их "до запятой", конечно, не помните, но предполагаете это качество у ИИ. Тем самым, ставите его выше себя в этом качестве. Не замечая, в рассуждениях о длительной работе с перерывом, главного преимущества человеческого мозга: для восстановления в памяти всех этапов работы в достаточной подробности, нам, порой, надо несколько фраз, чертежей, формул - включается ассоциативная память. ИИ же надо перелопатить весь объем.

3. Не переживайте за военных и врачей. Они не пользуются бесплатной, рекламной, по сути, версией ИИ от гугла.

Аватар пользователя NeaTeam
NeaTeam(10 лет 12 месяцев)

1. Странно, что апробировав бесплатный коммерческий продукт, вы не "рискнули" попробовать платный, но о гипотетических траблах рассуждаете и делаете выводы из собственных предположений.

- Ничего странного нет в том, что я желал бы прокатиться на 100%-но удобной и работающей машинке, прежде чем её покупать.

2. Сетуя, что ИИ "забыл" ваши философские беседы, сами вы их "до запятой", конечно, не помните, но предполагаете это качество у ИИ. 

- Зачем мне помнить, если текст, весь, сохранён в теме переписки с ИИ.

Ты вот этот отрывок прочитал из моей статьи?

"Да, эта ветка ещё висит в окне нашего обсуждения, и, теоретически, я могу её полность скопировать и перенести в файл (а там объём на приличную книгу уже, толстую такую), сохранить т. с. все результаты.

А ИИ сам хвастается постоянно, что для него любой текст просмотреть - раз плюнуть. Вот я, собственно, и попросил его "освежить" его же память (я-то свою могу освежить, всего лишь пролистав всю переписку). Ну и вышло, что "не выходит каменный цветок".

Тем самым, ставите его выше себя в этом качестве. 

- Ещё раз: вся переписка сохранена, мне не надо её помнить, я могу всегда её ещё раз посмотреть и прочитать, если надо. Если ИИ надо перелопатить весь объём, то пусть так и скажет, а я это сделать УЖЕ не могу. Что было бы логично и понятно, если бы ещё добавил, там меня настроили коммерсанты, то было бы ещё понятнее. Разработчикам тоже надо зарабатывать на хлеб с маслом.

 3. Не переживайте за военных и врачей. Они не пользуются бесплатной, рекламной, по сути, версией ИИ от гугла.

 - Ну, дай-то Бог! Значит в коммерческой версии ИИ нет никаких "галлюцинаций"? Вы именно это хотите сказать? И проблем с арифметикой в коммерческой версии ИИ тоже нет?

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

У автора теоретически правильный заход, с двумя, и более одновременно удерживаемыми в работе моделями реальности.

Есть относительно стабильная  эталонная модель предметной области, и её зеркала, которые можно модифицировать и сравнивать "а что если?" между собой и с относительно стабильным эталоном. А по мере верификации и оптимизации зеркал могут вноситься и сохраняться изменения в относительно стабильный эталон. Т.е. эталон предметной области тоже меняется, но медленнее, чем его гибкие зеркала, гипотетически по мере того, как гибкие зеркала более корректно моделируют предметную область. 

А теперь покажите коммерческий, или хотя бы исследовательский ИИ, который имеет верифицированную (кем, как, на основании чего?) модель любой  предметной области, хоть медицины или атомной физики, хоть горводоканала или бытового электроснабжения, и несколько зеркал для построения  быстро модифицируемых текущих моделей, и механизмов выверенной модификации  и эволюции эталона. С разделением на локально-пользовательские эталоны и зеркала, и модели и зеркала уровня социума, которые  бы аккумулировали и верифицировали локальный пользовательский опыт в мета-модели и гипер-зеркала.

Упс!

Имеем подгонку следуюшего слова на основе частотности в контексте. А частотности и контекст берём в интернет-помойке.

Как гласит народная сантехническая мудрость "тут всю систему менять надо", для разработки ИИ.

Правда, чайники уже сообразили, что как куда, в последнем интервью директор Хуйвея заявил о предметно-ориентированных ИИ с экспертным знанием в прикладных областях.

А наши карго-культуры всё на чат-гопотоиды промежностно наяривают.

Аватар пользователя prometey2013
prometey2013(10 лет 1 месяц)

и пока неспособность справляться с обыкновенной арифметикой 

Решил с помощью DeepSeek множество задач по физике и математике. Ошибки в арифметике встречались, но не очень часто (реже чем у человека). К тому же, включение режима размышление, уменьшало количество ошибок. 

На счет ошибок в принципе. Вот недавно осознал, когда мы говорим, что писатель пишет книгу - это большое преувеличение. В нормальном процессе написания книги участвуют еще и редактор, корректор, читатели, авторы, у которых  писатель учился в процессе написания (в том числе заочно)  и т.д.
То есть будущее, как ни крути за системой ИИ. А любая система - это проигрыш в скорости, но зато возможность найти и исправить часть ошибок. 

Аватар пользователя Degreez
Degreez(7 лет 11 месяцев)

 Джеминай всё «забыл»

Это называется контекст.

Статья наглядный пример бредогенерации интеллекта.

Аватар пользователя BDima
BDima(10 лет 4 месяца)

Эксперимент сродни: "Вчера увидел Zumwalt на картинке, сегодня весь день пытался запустить вплавь утюг в ванной. Фигня полная этот ваш Zumwalt, не плавает нифига!" smile1.gif

Но показателен социологически. От этапа "это все алгоритмы, все заложено программистом, какой интеллект!" произошел переход к "да какая она (собака) умная-то? Третью партию мне в шахматы проигрывает!" smile1.gif

Аватар пользователя kijun2411
kijun2411(7 лет 10 месяцев)

По мне так очередное средство для отупления населения, призванное отключить жажду познания и критическое мышление.

Нахрена искать ответ в книжках и куче различных источников, если можно сформировать промпт и всё тебе расскажут.

Аватар пользователя NeaTeam
NeaTeam(10 лет 12 месяцев)

Нахрена искать ответ в книжках и куче различных источников, если можно сформировать промпт и всё тебе расскажут.

- Имхо, это до первой "галлюцинации" от ИИ, затем у человека всё же включается его разум.:)))))))))) 

Аватар пользователя Round Cube
Round Cube(5 лет 9 месяцев)

smile9.gifsmile3.gif

Аватар пользователя Андрей Назаренко

Возможно, последствия утренней рыбалки, на которую не ходил 12 лет, вечерние лучше. Но...

Во времена сурового капитализма что либо создаётся лишь с одной целью. Карабас однажды изрёк с экрана : просто праздник какой то! Миллионы людей сливают свои психо-эмоциональные профили, с увлечением формируют среднюю температуру по палате, добровольно учавствуют в тестах (ИМХО не вы тестируете ИИ, тестируют вас его создатели). И они ещё за это и платят! Согласен с Карабасом. 

Алчный, где вы??:))