Что такое "искусственный интеллект" и почему он не интеллект

Аватар пользователя pascendi

Вокруг искусственного интеллекта (ИИ) много разговоров и мнений, причем ноосфера сильнейшим образом засорена разговорами и мнениями людей, которые вообще не понимают, что такое ИИ, как он устроен и работает. В результате засилья непрофессиональных рассуждений у массовой публики складывается впечатление, что, во-первых, ИИ -- это нечто чудесное, магическое, а во-вторых, что ИИ действительно думает, рассуждает и может в чем-то заменить человека.

На самом деле всё не так.

Попробую немножко прояснить ситуацию с ИИ. Ограничусь только одной стороной: так называемыми "большими лингвистическими моделями" (LLM, Large Linguistic Models) и не буду затрагивать ни "рисовалки", ни "музыкальные сочинялки", поскольку они, хоть и более эффектны, чем LLM, но по сути проще.

Постараюсь также описать работу ИИ в самых простых словах, чтобы не вдаваться в математическую лингвистику и прочие заумные для обычного человека дисциплины.

Итак, что же такое LLM (БЛМ по-русски)? 

Для пользователя это некий "черный ящик", которому можно задать вопрос и получить на него ответ, очень похожий на то, что сказал бы живой человек, обладающий соответствующими знаниями. Поэтому у пользователей возникает от общения с БЛМ ощущение, что они разговаривают с таким вот живым человеком. Отсюда и восприятие БЛМ как интеллекта -- искусственного интеллекта.

На самом же деле никакого интеллекта там и близко нет.

БЛМ -- это прежде всего огромная база данных, содержащая кусочки, отрывки текстов (и полные тексты). Эта база структурирована таким образом, что каждый кусочек разобран синтаксически, а затем проанализирован семантически (то есть с точки зрения смысла, а не формального содержания). Например (это очень упрощенно), для отрывка "вот бегает дворовый мальчик, в коляску Жучку посадив, себя в коня преобразив" помечено, что речь идет о человеке мужского пола допубертатного возраста, который посадил в транспортное средство небольшого размера животное собаку по имени Жучка и катает ее, выступая в роли тяглового непарнокопытного вида "лошадь". В более продвинутой модели будет еще помечено, что с большой вероятностью собака -- черного цвета, а мальчик является крепостным из числа закрепленных за обслуживанием владельца (в отличие от крестьян, работающих в поле). Всё это еще обвешано связями с такими понятиями, как "поэзия", "роман в стихах", "Пушкин", "Евгений Онегин", "зима", "описание зимы" и т.д., и т.п.

И вот все эти связи -- как раз главное, что отличает БЛМ от обычной базы данных. Связи при этом формируются как "многие ко многим" (то есть образуют сетевую модель, которая не может быть полноценно воспроизведена реляционной СУБД). Более того, связи эти носят вероятностный характер, для чего каждой из них приписывается "вес" (грубо говоря, коэффициент от 0 до 1, в зависимости от того, насколько связь однозначна и постоянна; так например, для данного отрывка связь с понятием "Пушкин" будет иметь вес 1, а с понятием "романо-германская поэзия" -- вес 0).

Нейросеть выбирает данные из всего массива на основании того, у каких объектов этого массива связи с запросом имеют наибольший вес. Затем из полученных данных по определенным правилам, также входящим в состав БЛМ, формируется ответ, который и выдается пользователю.

Откуда берутся веса связей? Первоначально эти веса присваивают специалисты -- руками. А затем начинается самое интересное: нейросети задают вопрос, она дает ответ, и этот ответ пользователь либо принимает, либо отвергает (совсем или требует уточнить). В зависимости от этого нейросеть сама меняет веса связей. Это и называется machine learning, машинное (само)обучение.

Теперь вы понимаете, почему разработчики стараются выложить свою модель, состоящую из массива данных, связей между ними и нейросети, в общее пользование и привлечь к ней как можно больше людей? Больше пользователей -- больше запросов -- больше оценок результатов -- больше точность определения веса каждой связи (и больше оцененных связей между объектами).

Это же хорошо!

Да не очень. Дело в том, что:

- поскольку массив данных изначально привязан к соответствующей БЛМ, в ее контент попадают и ответы нейросети на запросы пользователей. Если этот ответ неверен, но пользователь его не отверг (ну не опознал он некорректность ответа), то для созданных этим ответом связей будут установлены высокие веса, а значит, он будет и далее выдаваться как верный;

- есть давно известная закономерность: чем больше делается уточнений весов, чем больше при этом вовлекается объектов, тем больше вероятность неверного ответа нейросети. Это называется "переобучение". Я столкнулся с этим в 1990 году, когда обучал систему распознавания текстов фирмы Kurzweil читать русские тексты: если хотелось получить точность распознавания больше 95% и для этого использовать больше вариантов одной и той же литеры, то точность, наоборот, падала ниже 80% из-за того, что разные литеры система воспринимала как одну и ту же;

- и наконец, нельзя забывать, что некоторые пользователи -- ради стёба ли, со зла ли, или просто от недоумия -- специально обманывают нейросеть, выбирая заведомо неверные ответы из предлагаемых ею.

В результате БЛМ засоряется нерелевантными, некорректными данными и связями, что приводит к ухудшению качества работы нейросети. В ИИ-терминологии это называется "галлюцинации": нейросеть формирует неточные, неверные, фейковые ответы.

Как следствие, пришлось даже создать архив данных и связей, накопленных до 2023 года, когда началось массовое использование ИИ.

В последних версиях многих БЛМ добавили механизм "рассуждений" (reasoning AI). Грубо говоря, поверх нейросети повесили некую логику, которая анализирует ответ и пытается прийти к выводу о его достоверности. Для пользователя это выглядит примерно так:

Пишем в промте "Адыреднинуб убкдетянже храрн".

Обычная модель выдает либо сообщение об ошибке, либо случайно выбранный текст, либо пытается "догадаться", что имелось в виду (то есть подобрать ответ для объектов, в той или иной степени похожих на то, что получила на входе).

Модель "с рассуждениями" решит, что перед ней шифр и надолго задумается, анализируя структуру сообщения и пытаясь расшифровать его разными способами. А потом выдаст, в принципе, то же самое.

Как ни странно (а на самом деле вполне ожидаемо), оказалось, что модели "с рассуждениями" галлюцинируют значительно чаще обычных.

Приведу несколько цитат из одной из статей, ссылки на которые я дал ниже:

Последние модели LLM проявили ещё одно новое качество, которого раньше не было: они сознательно врут пользователям, даже зная правильный ответ. Такое поведение называют «стратегическим обманом», то есть продуманной тактикой введения человека в заблуждение. LLM действительно знают, когда их оценивают - и меняют поведение соответствующим образом.

...исследователи из компании Apple продемонстрировали интересный недостаток LRM (больших рассуждающих моделей), таких как Claude 3.7 Sonnet с функцией рассуждения и DeepSeek-R1 - при возрастании сложности задач точность решения сначала плавно снижается, а потом резко падает до нуля.

По мнению авторов исследования, это демонстрирует отсутствие «понимания» проблемы в человеческом смысле. Модель тупо перебирает варианты, не понимая даже базовую логику задачи. И она продолжает перебирать неправильные варианты даже после того, как найдёт правильное решение. Такое поведение моделей нельзя называть рассуждением. Это просто «шаблонные вычислители, которые ломаются при малейшем выходе за пределы обучающей выборки».

Это ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных. Даже семимесячные дети способны экстраполировать и обобщать информацию на таком уровне, который недоступен нейросетям.

Что же из всего этого следует?

Да то, что не надо относиться к БЛМ как к интеллекту. ИИ -- это маркетинговое название, и не более того. БЛМ -- помощник в поиске и анализе информации, но только помощник, не в большей степени, чем, допустим, электронная таблица вроде Microsoft Excel. ЛЮБОЙ ответ ИИ следует считать заведомо неверным и ПРОВЕРЯТЬ. 

Короче, не полагайтесь на "искусственный интеллект" и включайте свой естественный.

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

1. враньё,  обучение происходит не так, не вручную,   специальный софт "читает" миллионы текстов и сам выявляет веса связей между словами

2. мозг человека обучается точно так же, принципы те же - нейроны (слова) и связи между нейронами (веса)

3. ответы ИИ на вопросы человеков никак не портят знания ИИ,   софт использует ответы (контекст) только во время конкретной беседы, и всё.   Начал новый чат - ИИ не помнит и не знает что было в старом.

Так что ИИ устроен так же как мозг человека, обучается тоже так же.   И в нём нет никаких текстов или кусочков текстов.  

Аватар пользователя pascendi
pascendi(8 лет 7 месяцев)

Описано упрощенно в расчете на неспециалистов.

По п. 3 -- портят. Доказано.

Аватар пользователя Джериба Шиган

Квалификацию человека ровно точно также портит отсутствие оппонирования и принятие мнения без критики.

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

где пруфы на твоё "доказано" ?

испортить можно если неправильные ответы собрать в кучу и использовать для обучения новой версии нейросети, но так не делают,   разработчики ИИ собирают только правильные ответы для последующего обучения

Аватар пользователя evg
evg(11 лет 2 месяца)

вы не правы есть много типов сетей -с обратной связью/подкреплением и так далее поэтому да веса меняются в зависимости от типа

плюс есть обучение с учителем и без

вообщем ответы могут изменять веса и сооответсвенно ответы

Аватар пользователя Zivert
Zivert(5 лет 5 месяцев)

разработчики ИИ собирают только правильные ответы
 

Вы сами-то осознаете, какой бред пишете?

Чтобы разработчики могли собирать ТОЛЬКО ПРАВИЛЬНЫЕ ответы - они должны иметь компетенции уровня Бог во всех возможных областях знаний. А блм-ки обучаются на контенте про который разработчики и не слышали никогда. 

Аватар пользователя Mr.Lux
Mr.Lux(14 лет 2 недели)

Не будем слишком строги к ожиданиям от лысого Дизеля, в конце концов, тут топик не про тачки и даже не про Голливуд. .../с интонациями от Вести ФМ/ Хоооотяяяя? smile13.gif

Аватар пользователя DalekoNaSevere
DalekoNaSevere(3 года 12 месяцев)

"разработчики ИИ собирают только правильные ответы для последующего обучения"

Враньё!  

Откуда они узнают, что ответы правильные?
Люди проверят?  Где вы найдете столько людей, специалистов во всех областях, чтобы все проверять? 
Даже то, что написано в книгах, не 100% правда. 
Сейчас и научным исследованиям доверять нельзя. Британские ученые Вам такого понапишут! 

Аватар пользователя Надоело
Надоело(4 года 5 месяцев)

Если бы действительно портили - это было бы дополнительным аргументом в пользу того, что ии "мыслит" как люди

Аватар пользователя DalekoNaSevere
DalekoNaSevere(3 года 12 месяцев)

Проблема в данных.  Их столько нет. Поэтому приходится выжимать отовсюду.

У нас 8 млрд человек. Редко, кто за свою жизнь написал книжку или вообще текст на 100 страниц. Одна печатная страница  это 40 строк по 60 символов  = максимум 2400Байт, 2,34КБайта

"Достояние" всего человечества можно оценить =  2400*100*8 000 000 000 символов.


1 920 000 000 000 000 байт = 1875000000000 кБ = 1831054687,5 МБ = 1788139,34 ГБ = 1746,2ТБ

С учетом того, что большая часть населения земли неграмотные и то, что осмысленного текста еще  меньше - это очень оптимистичная цифра.   

По своей сути,  мы живем в потоке инфомусора.  

PS. И да,  даже если Вы генерите ежедневно  страницу  во всех мессенджерах, то 2400*365*50лет = 43800000 байт = 42773,43 МБ = 41 ГБ   за всю жизнь.
Т.е. с учетом сжатия  текстовых файлов  "вся осмысленная жизнь.rar"  поместится на флэшку 1ГБ smile3.gif
 

Аватар пользователя Хитрый Лис
Хитрый Лис(10 лет 7 месяцев)

2. Мозг человека обучается не так. Эти устаревшие сведения годятся для школьников. Попробуйте создать на псевдоИИ абстрактные ассоциативные надстройки. Выражаясь словами ВВП, замучаетесь пыль глотать. А между тем, человеческий мозг ими оперирует, а не тупой последовательностью весовых связей.

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

Ну значит ты легко придумаешь вопрос с абстракцией, на который ИИ не ответит, а человек ответит, ага ?

Твой вопрос - в студию!   Скормим его ИИ.

Нет вопроса - значит ты лепишь чушь.

Аватар пользователя nefelin
nefelin(6 лет 11 месяцев)

Покажите человеку стул новой формы, которой он никогда не видел, и человек опознает в нём стул. Если ИИ никогда не видел такой стул, то он никогда не догадается что перед ним/на картинке. 

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

ну вот и покажи мне фото такого стула, я скормлю его нейронке

нет фото - ты проиграл спор

Аватар пользователя nefelin
nefelin(6 лет 11 месяцев)

вы предлагаете мне угадывать базу выборки вашей нейронки? Ещё и сходу. Вы же что-то доказать хотите, я и так знаю. Вот и думайте

Аватар пользователя pascendi
pascendi(8 лет 7 месяцев)

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

ChatGPT  gpt-4o

gpt-4o

На фото изображён стул для коленей, также известный как эргономический стул. Он имеет специальный дизайн для поддержания правильной осанки, с наклонным сиденьем и подставкой для коленей.

Аватар пользователя DalekoNaSevere
DalekoNaSevere(3 года 12 месяцев)

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

а человек без подписи поймёт ?

Аватар пользователя DalekoNaSevere
DalekoNaSevere(3 года 12 месяцев)

Поймет. По контексту, по предыдущему опыту,  по неестественной для лопат красоте и пр. сразу заподозрит неладное. И главное, - он сразу определит, что сущность предмета "не лопата".

Чтобы отличить сущность пистолет, от идеально похожей на него сущности "игрушечный пистолет"  - необходимо исследование человеком объекта на предмет наличия отличий или отрицаний.  

Т.е. если нечто выглядящее как пистолет, ощущаемое как пистолет, в которое можно запихать патроны и даже можно пощелкать,  если у него отрицается стрельба - по своей сущности будет что угодно только не пистолет.  

У полицейских есть инструкции, исследования не проводить, и если на них направлен  предмет похожий на пистолет, то нужно безусловно его идентифицировать как пистолет. И действовать соответственно.

И тут мы приходим к выводам, что нужно не со стороны лингвистики строить ИИ, а со стороны сущностей и их взаимодействий. 

А это совершенно другой уровень. И нынешний ИИ к этой "объектной, сущностной"  модели может быть приложен как модуль первичного опознавания. 

Почитайте Гегеля. Кстати с сегодняшним опытом компьютерных игр, с эффектом бога,  Вы вдруг ощутите его мощь, как он описал компьютерные технологии. 
Есть соблазн перевести его на компьютерный язык. 
И его "сначала было слово, из которого выросло  бытие в котором есть ничто ..." 
Переводится: как создали именованный пустой файл.  ;)

Аватар пользователя ktrace
ktrace(4 года 1 месяц)

 А между тем, человеческий мозг ими оперирует, а не тупой последовательностью весовых связей.

Вот тут желателен пруф, желательно от нейрофизиологов, а не от философов.

Аватар пользователя balmer
balmer(8 лет 3 месяца)

Соглашусь. В современных нейросетях есть интеллект. Но этот интеллект работает на этапе обучения модели. То, что дают нам в виде LLM это предобученная нейросеть, не способная к обучению. Но это не значит, что нейросеть не способна обучаться. Она способна, но только на этапе обучения. Причем есть варианты "обучение без учителя".

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

Когда Вассерман отвечает на твой вопрос - его мозг это интеллект ?  Или его мозг в этот момент - предобученная нейросеть ?

Аватар пользователя balmer
balmer(8 лет 3 месяца)

Хм, интересный вопрос. Когда быстро отвечает на вопрос - то точно предобученная нейросеть.

А вот сможет ли он ответить на вопрос, на который не читал ответа - этого я не знаю. Люди (в том числе и я) с огромным трудом отвечают на вопросы, ответам на которые они не были обучены до этого.

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

Васс много раз говорил что он не знает ВСЁ,   но он знает принципы по которым устроен и функционирует мир,  поэтому отвечает на вопросы исходя из этих принципов.    Например зная физику можно понять как будет вести себя вода которую выльют из шлюза в космос,  но никто ж этого лично не видел ?

Так что ИИ отвечает как человек,   но ИИ прочитал в тысячи раз больше текстов чем человек, на двух сотнях языков, соответственно и отвечает на большее число вопросов, и может отвечать на всех этих языках

Аватар пользователя Zivert
Zivert(5 лет 5 месяцев)

Когда быстро отвечает на вопрос - то точно предобученная нейросеть.
 

И на чем это бредовое высказывание основано? 

Аватар пользователя balmer
balmer(8 лет 3 месяца)

На примерном представлении как работает человеческий мозг. Когда быстро отвечаешь на вопрос - то не думаешь, а говоришь что помнишь/что чмог придумать на рефлексах, которые выработались ранее. Это и есть аналог предобученной нейросетки.

Аватар пользователя atman82
atman82(10 лет 1 месяц)

На примерном представлении как работает человеческий мозг.

Как работает человеческий мозг наука еще толком не выяснила.

Аватар пользователя Любопытство не...

Как работает человеческий мозг наука еще толком не выяснила.

И не толком не выяснила. 

Ибо мозг вообще не мыслит, как не мыслит жёсткий диск в компьютере или операционка. Но мысли через мозг проходят, этого нельзя не учитывать. Вообще были заметки про людей, у которых не было в черепе серого мозгового вещества, но они не были идиотами, на бытовом уровне вполне себе здраво действовали. Никто и не догадывался, что без мозга живёт, пока не делали томографию всвязи с частыми головными болями. 

И в то же время имеются полные дебилы с большой массой мозгового вещества.

В чём дело? А просто надо учитывать энергоинформационную сущность, которая и есть наше Я.

Аватар пользователя Органика
Органика(3 года 11 месяцев)

Не, мозг намного сложнее нейросети. Дело даже не в общем количестве связей, а в том что система "весов" не одномерна и индивидуальная для каждого человека.

Аватар пользователя balmer
balmer(8 лет 3 месяца)

Ну как-бы в большинстве нейросетей используется Conv2D (т.е. двумерная система весов). Можно использовать и трёхмерный вариант.

Про индивидуальность. Очень часто нейросетки обучают с нуля. Даже с одинаковым наборов данных для обучения они приобретают разные индивидуальные свойства.

Аватар пользователя Органика
Органика(3 года 11 месяцев)

Там посложнее все равно. На несколько порядков посложнее. Плюс больше стохастичности, то есть при одинаковых входных данных ИИ как система выдаст примерно идентичные результаты, а естественный интеллект сильно разные может выдать. Это как вечером  кажется хорошей идеей сбегать за ещё а наутро уже не такой уж) можно конечно считать это человеческим несовершенством, однако в вариативности этих результатов секрет человеческого гения. 

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

вот не шаришь - куда ты с таким апломбом пишешь ?    в настройках ИИ настраивается степень рандомности и непредсказуемости,   юзер сам может зайти в настройки ChatGPT и вручную прописать числами

  • Температура (Temperature): Этот параметр контролирует "креативность" или случайность генерируемого текста

    . Более высокое значение температуры (например, 0.7) приводит к более разнообразным и менее предсказуемым ответам

    . Чем выше температура, тем креативнее может быть текст

    Top P (или nucleus sampling): Этот параметр ограничивает выбор следующего токена (слова/фразы) только наиболее вероятными вариантами, суммарная вероятность которых превышает значение P. Это позволяет модели выбирать из динамического набора наиболее вероятных слов. Рекомендуется изменять либо Top P, либо температуру, но не оба параметра одновременно

Аватар пользователя Органика
Органика(3 года 11 месяцев)

Ну чё, ИИ лучше Достоевского уже текст написал? Че нибудь может изобрел? 

Аватар пользователя pn
pn(5 лет 5 дней)

Вассерман также умеет галлюцинировать, так как не гасе вопросы отвечает правильно. При этом не говорит, что не знает ответа, а предлагает неверный

Аватар пользователя Zivert
Zivert(5 лет 5 месяцев)

Соглашусь. В современных нейросетях есть интеллект
 

Уууу. Еще один спёкся. А душа есть? smile3.gif

Аватар пользователя balmer
balmer(8 лет 3 месяца)

Я предполагаю, что интеллект - это способность решать задачи и умение извлекать и обобщать для этого информацию из нечетких наборов данных. В такой трактовке интеллекта - нейросети им обладают. Причём заметьте - я не говорил, что у нейросетей интеллект выше человеческого. Говорил только о наличии интеллекта.

Дайте определение души, тогда попытаемся прикинуть - есть ли нечто, подпадающее под это определение у нейросеток.

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

душа - это единственное отличие ИИ от человека,   у человека душа есть,   у ИИ нету,

душа - это сущность человека, каким он стал по итогу всех прожитых ранее жизней (склонности и способности),   например если человек в прошлой жизни был бандитом - ему и в этой интересны только сериалы про бандитов и уголовные хроники,   а если был учёным - то хорошо учится в школе.      Когда ИИ стоит перед выбором какое слово написать дальше - он смотрит на веса и использует генератор случайных чисел если веса одинаковые.    А у человека в эти моменты душа склоняет чашу весов.  Например ютуб показывает школьнику заставки разных видюшек и какую человек выберет для просмотра ?   к какой душа больше лежит,    бывший в прошлей жизни гопником выберет где на заставке мордобой,    бывший учёный выберет чего-нить развивающее или с интригующим названием

Аватар пользователя Коралл
Коралл(5 лет 3 месяца)

душа - это единственное отличие ИИ от человека,   у человека душа есть,   у ИИ нету,

имхо, глубокое заблуждение. Человек строит не языковую модель Языка, а модель Мира (физического, идеального/субъективного и духовного мира). И критерий выбора другой, не формальный а субъективный.
Человек раньше учится холить, а потом говорить.

Аватар пользователя balmer
balmer(8 лет 3 месяца)

При вашем определении души никто кроме человека не может ей обладать. Т.е. даже если сущность будет абсолютно идентична человеку, но не являться человеком, то по определению души в этом быть не может.

Но давайте поразмышляем. Почему вы не считаете истинный генератор случайных чисел проявлением божественной сущности? Ведь пока единственный способ сделать его - это воспользоваться квантовыми шумами. А что это, как не глас самой вселенной?

Аватар пользователя Antybred
Antybred(2 года 2 месяца)

Я влезу.

Душа - это алгоритм, который из предназначенной конкретно ей массы квестов в виде четырёхмерного заданного пространства событий осуществляет свой осознанный выбор, формируя тем самым следующее вариативное пространство событий. В библии результат выбора души упрощённо называется раем и адом, на самом деле существует бесконечное множество реализаций, причём как вариации "нашего" четырёхмерного мира, который беспрерывно делится на подмножества при принятии решений во время срока пребывания души в "нём", так и после убытия души в другую плоскость бытия. В принципе душа пребывает одновременно в различных вариантах с целью ощущения результатов того или иного выбора, таким образом происходит подбор весовых коэффициентов в ходе обучения.

Комментарий администрации:  
*** отключен (гнилоязыкий) ***
Аватар пользователя otherone
otherone(3 года 7 месяцев)

Врядли душа - алгоритм. Скорее процесс (циркуляции возмущений в лимбической системе)

Аватар пользователя Antybred
Antybred(2 года 2 месяца)

Можно и так сказать. Это именно то, что осуществляет выбор в текущем пространстве выбора. Имея при этом свойство перемещаться между вариантами с помощью Духа.

Комментарий администрации:  
*** отключен (гнилоязыкий) ***
Аватар пользователя Любопытство не...

Душа - это краткое название энергоинформационной сущности, которая занимает выбранное ею тело, чтобы иметь стимул к развитию и защиту от распада. Как у всякого энергоинформационного сгустка, распад вполне может случиться. Но как непростой сгусток, а имеющий опыт множества жизней в разных телах, начиная чуть ли (а может и не чуть) не с камня, и приобретший вследствие этого жизнестойкость, ум, гибкость и пластичность, энергоинформационный сгусток/пакет информации,если другими словами, дорос до способности вселяться в человеческое тело. И мы назвали этот пакет информации душой, средоточием человеческой сущности. Хотя у каждого живого существа кроме микробов и бактерий есть такая души, но рангами пониже. В зависимости от количества жизней, с помощью которых души учатся и развиваются. А их, жизней, нужно пройти очень и очень много, миллиарды и миллиарды. 

Конечно, в ходе многочисленных жизней вырабатываются и определённые алгоритмы. Но как их использовать, если из тела низшего ранга душа переходит в тело рангом повыше? Там уже другие алгоритмы требуются. Так вырабатывается жизнестойкость и пластичность - ответ на смену алгоритмов. Ведь в худшем варианте - распад.

Аватар пользователя Antybred
Antybred(2 года 2 месяца)

Хорошо написано. Смущает лишь что тела у Вас обладают некоей ранговостью и даже возможно, приоритетом над душой. Смотрите, в кино есть много персонажей, обладающих разумеется ранговостью, но по сути это одинаковые пиксели, складывающиеся в окружение зрителя, в сюжет.

Комментарий администрации:  
*** отключен (гнилоязыкий) ***
Аватар пользователя Любопытство не...

Вообще-то ранг - это для понимания путей перехода из одного тела в другое. Физически, то есть, по законам физики, это выглядит несколько иначе. Правильнее было бы назвать "уровень развития", но тут уже потребуется расшифровка: уровень развития - это как? Вот у животных, например, или у растений? И если для животных такую классификацию ещё можно выстроить, то как это сделать для деревьев? А с человеком и вовсе непонятки, потому что уровень развития - это не уровень образования.

По вопросу приоритетов тела или души, то тут однозначно можно сказать только в отношении людей. (У всех прочих такой вопрос не стоит.) Некоторые считают, что тело рулит. И не понимают, что главное-то - это течение энергий в теле и через тело, а энергия есть основа души. Мы ведь в нашей Вселенной созданы из энергии, принявшей разные формы: волны, частицы, поля. И всё это нуждается в подпитке энергией, которая нас окружает. Вы и сами можете сообразить, что нехватка энергии какому-то органу тела приводит к нарушению его работы. И открою вам секрет: мы можем управлять потоками энергии. В основном это делается неосознанно, поскольку техники управления потоками почти никто не знает. А она совсем не сложная, ведь неосознанно-то мы это делаем! В основном во вред себе.

Аватар пользователя Органика
Органика(3 года 11 месяцев)

Не, интеллект это способность к абстрактному мышлению. Когда аналогии с решаемой ситуацией "хочу кушать" не прямые и поверхностные "в синей мисочке моя еда", а от "надо бы что то делать с кабачками" до пирамиды Маслоу и идеи денег Адама Смита, как в виде уже оформленного концепта, так и ещё не оформленных индивидуальных идей "где бы перехватить до получки". Причем обучение интеллекта происходит непрерывно.

Определение "души" таким образом - это индивидуальный стиль абстрагирования и морально этические нормы (каковые у ИИ отсутствуют как материал для анализа в принципе, в вопросах морали и этики ИИ опирается на указанные при настройке веса).

Да, индивидуальный стиль абстрагирования описывается как сознательными процессами так и бессознательными. Интуиция, акцентуации характера и тд.

Аватар пользователя Franz L
Franz L(11 лет 2 месяца)

В базовой архитектуре трансформеров для обучения используется большой корпус текстов любого формата: вопрос/ответ, стихи, проза, вики, чаты. Это позволяет генерировать токен за токеном (слово за слово) в текст, содержащий смыслы. Если нужно чтобы сетка хорошо писала химические формулы или SQL , то кормим ей SQL  с табличкой Менделеева. Естественно, все должно быть корректным и проверенным. Далее openAI прикрутили такую фигню, которая называет обучение с подкреплением. Кто пользовал эту шайтан машину, тот видел два варианта ответа с просьбой указать какой вам нравится. Обычно разница этих ответов чисто косметическая. Тут машина была более многословна, а тут краткая и со смайликами. Вот эта разница задается неким параметром, который оптимизируется обучением с подкреплением. 
То есть в принципе пользователь может повлиять на ответ сетки, но на практике все сводится к рюшечками и кружавчикам. 

Ну и в целом вопрос: настоящий интеллект или не настоящий - это тема не тривиальная. Что есть интеллект человеческий? Должны ли быть у интеллекта эмоции, желания, воля? 

Аватар пользователя DjSens
DjSens(7 лет 6 месяцев)

обучение с подкреплением не так проводят,   

а когда ИИ обучен - его записывают на сервер и веса больше трогают,  никогда,    

если есть новые знания - обучают новую нейросеть и записывают её на новый сервер,  а старую версию или оставляют, или отключают

Аватар пользователя Zivert
Zivert(5 лет 5 месяцев)

Ооо! Вот тут-то Вы и пишете, что это никакой не интеллект, так как не способен к обучению и развитию smile3.gif

Это даже без учета всего остального…

Страницы