Реплика по поводу молящихся на И"И"

Аватар пользователя Ради бана

Похоже, надо делать перепись фриков, верующих в И"И" и молящихся ему. Жаль, что нет обратного бана – то есть забанил автора, и его поклонения пустому не видишь больше, не смотришь на этот позор человеческий. 

P.S. С точки зрения процесса непонятно, что это – стремительная, на глазах, деградация авторов и "авторов", или же своеобразный каминг-аут. 

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Роман1992
Роман1992 (2 года 2 месяца)

Я вот готов поспорить, если между вами и ИИ провести викторину, ну например по школьным предметам, то я знаю, кто победит.

Утверждаю, что если провести соревнование "кто быстро посчитает" между Вами и Excel, то победит Excel. 

Однако это вовсе не означает, что Excel умнее человека или, Excel обладает более совершенным интеллектом, чем человек. Это относится и к тем программам, которые в манипулятивных целях названы ИИ.

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere (4 месяца 3 недели)

Не торопитесь. Дело в том, что автор точно так же относится и к квантовой механике, и к Теории относительности. Может быть, дело не в ИИ, а в недостаточной образованности автора?)

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Именно так.

Аватар пользователя Ради бана
Ради бана (9 месяцев 1 неделя)

Образование и интеллект лишь корреспондируют друг другом. Но моего образования достаточно, чтобы понять, что квантового преимущества, обусловленного квантовой суперпозицией, не существует и существовать не может, потому что квантовая суперпозиция не феномен реального мира, а математический костыль, допущение. Поэтому квантовую суперпозицию можно только симулировать, чем и занимаются все разработчики квантовых компьютеров, но не работать с ней как с реально существующим феноменом. Вам же Ваше образование помогло лишь неоднократно слиться при приближении к обсуждению этого вопроса по существу)) Но я уверен, Вам И"И" поможет)))

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

у нас в стране квантовые линии связи уже сертификацию проходят (в смысле, что уже есть сертифицированные системы защищенной квантовой связи, использующие эту самую суперпозицию). прямо в железе вот. я их даже лапами своими лапал. а вы говорите, что их быть не может, ибо никакой суперпозиции нет. демонстраторы экспериментальные есть, а суперпозиции нет. чудесато.

Аватар пользователя Ради бана
Ради бана (9 месяцев 1 неделя)

Результат эксперимента интерпретируется в соответствии с парадигмой, в которой он проводится. При этом это может не иметь никакого отношения к реально происходящему. Это вопрос интерпретации результатов и это надо понять. Я вот стреляю и иногда наблюдаю, как люди интерпретируют свои выстрелы. А ведь "пуля не врет") В случае же квантовой суперпозиции в любом определении ее указывается, что это постулат, принцип, допущение. Надо просто вникать в значение слов, которые ты читаешь. И задумываться, зачем то или иное написано. 

в смысле, что уже есть сертифицированные системы защищенной квантовой связи, использующие эту самую суперпозицию

а 90-е, я помню, красной ртутью торговали; и некоторые ее даже "руками лапали" 

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

а никто и не говорит, что программы, в манипулятивных целях названные ИИ- умнее или совершеннее человека. Вопрос в том, есть у этих программ настоящий интеллект, или нет. а этот вопрос упирается в способ определения наличия этого интеллекта- предоставляем способ, применяем его к программе и видим- у нее интеллекта нет. Берем способ, применяем его к Роман1992 и видим- интеллект есть. но важно- не перепутайте! нужно, чтоб не оказалось наоборот, что у программы интеллект есть, а у Романа1992- нету. это будет факап эпический!

Аватар пользователя prometey2013
prometey2013 (9 лет 4 месяца)

Зато это означает. что интеллект в узкой области счета Excel таки лучше. А потом компьютер стал лучше играть с шахматы. Затем в ГО. И так далее и тому подобное. 

Аватар пользователя Ctrl
Ctrl (10 лет 6 месяцев)

Может быть Вам стоит просрочить платеж за Алису? Глядишь, и собеседники интересные найдутся. В том же дворе, на лавочке.

Аватар пользователя Ради бана
Ради бана (9 месяцев 1 неделя)

это пятерка. Жму руку)

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Вот я прям щас сижу и занимаюсь обучением, мне нужно освоить новую профессиональную тему. Я могу задать вопрос об этом ИИ и получить ответ. Какой ответ я получу на лавочке? "Хлебни пива и вот тебе семечки?"

Аватар пользователя Ради бана
Ради бана (9 месяцев 1 неделя)

Вот теперь я очень сильно и не менее искренне сочувствую Вашим обучаемым. Во всех аспектах. И начинаю беспокоиться о будущем моего 2,5 летнего ребенка – его взросление придется на пору, когда Ваши обучаемые будут работать уже как специалисты. 

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Я никого не учу. Я учусь. Кстати, ИИ не допускает таких грубых ошибок, как допустили вы, пытаясь понять смысл написанного

Аватар пользователя Ради бана
Ради бана (9 месяцев 1 неделя)

"занимаюсь обучением" это "учусь"? какой язык для Вас родной?

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Вот вы способны на нечто подобное?

Мой вопрос ИИ:
 


Есть такой комментарий в дискуссии под некоторой статьей, не важно какой именно:

Вот я прям щас сижу и занимаюсь обучением, мне нужно освоить новую профессиональную тему. Я могу задать вопрос об этом ИИ и получить ответ. Какой ответ я получу на лавочке? "Хлебни пива и вот тебе семечки?"

Может ли читатель этого комментария интерпретировать фразу "занимаюсь обучением" , как обучение кого-то, а не себя?

Ответ ИИ:
 


Да, читатель теоретически может интерпретировать фразу «занимаюсь обучением» как обучение кого-то другого, а не себя, но контекст комментария делает такую интерпретацию маловероятной. Вот ключевые моменты для анализа:

  1. Лингвистическая двусмысленность:
    В русском языке глаголы с возвратным значением (например, «занимаюсь») часто требуют уточнения объекта. Фраза «занимаюсь обучением» без дополнительного контекста действительно может означать как «обучаю себя», так и «обучаю других» (например, «занимаюсь обучением сотрудников»). Однако в данном случае автор прямо указывает: «мне нужно освоить новую профессиональную тему», что явно указывает на самообучение.

  2. Контекстные подсказки:

    • Автор упоминает, что обращается к ИИ за помощью, чтобы получить ответы. Это типично для ситуации самообразования, а не преподавания.

    • Шутка про «хлебни пива и семечки» высмеивает бесполезные ответы, что актуально именно для человека, который ищет информацию, а не для того, кто её преподает.

  3. Прагматика высказывания:
    Если бы автор обучал других, он, скорее всего, уточнил бы аудиторию (например, «обучаю коллег»), а также сформулировал бы запрос к ИИ иначе (например, «как объяснить тему ученикам?»). Здесь же фокус на личном освоении материала («мне нужно освоить»).

Итог:
При поверхностном чтении (без внимания к деталям) фраза может показаться двусмысленной, но контекст комментария однозначно указывает на самообучение. Читатель, интерпретирующий это как обучение других, вероятно, проигнорирует ключевые элементы текста или воспримет его выборочно.
 


Мне кажется ИИ вас раскусил, вы читаете и отвечаете не сильно внимательно и не сильно вдумываясь.

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

Вот я прям щас сижу и занимаюсь обучением, мне нужно освоить новую профессиональную тему.

Однако в данном случае автор прямо указывает: «мне нужно освоить новую профессиональную тему», что явно указывает на самообучение.

Не указывает абсолютно, может вы проф. преподаватель и изучаете новую тему для урока, которой не было при вашем обучении в вузе. 

ИИ ф топку!smile1.gif

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Это весьма показательно. ИИ понял вложенный мною смысл верно, человек - нет. Вот я и говорю, ИИ - понятливее и толковее многих живых людей.

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

ИИ не понял сложностей восприятия слов-смыслов. Вы же не будете отрицать логику в моем утверждении?

Или будете?smile6.gif

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Я буду утверждать, что ИИ понял точнее вас. И понял правильно, тот смысл, что я вложил.

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

что ИИ понял точ­нее вас.

Это лишь говорит о примитивности заложенной в него программы. Логика у программиста подкачала, не было, видать, такого предмета при его обучении.smile1.gif

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Угу, человек, который понимает комментарий неправильно и пишет ошибочный ответ, на основе неверно понятого смысла - это круто, а ИИ, который правильно понял - нет. Окай, чёрное - это белое, а белое - это чёрное.

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

че­ло­век, ко­то­рый по­ни­ма­ет ком­мен­та­рий непра­виль­но и пишет оши­боч­ный ответ, на ос­но­ве невер­но по­ня­то­го смыс­ла - это крут

Научитесь грамотно передавать смысл через слова.smile1.gif Я же написал второй логический вариант смысла вашей фразы, ИИ(программист) его не увидел( не предусмотрел). Далеко ещё, если не безнадежно сложно, до уровня человека.

Сможет ИИ правильно воспринять написанное в моем комменте???smile1.gif-

"ИИ(программист) его не увидел( не предусмотрел)."

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Блин, да вы же просто не понимаете, о чём пишете.

В нейросетях нету никаких "алгоритмов, сделанных программистом". В том-то и прикол. Если коротко, то что вы понимаете по "алгоритмом" на самом деле процесс обучения на примерах. Сети показывают текст и говорят - на него отвечай так. Она просматривает кучи таких текстов и выясняет взаимосвязи между вопросами ответами.

Поэтому я не могу ответить на ваш комментарий по сути. В нем нет смысла.

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

то что вы по­ни­ма­е­те по "ал­го­рит­мом" на самом деле про­цесс обу­че­ния на при­ме­рах.

Что бы научить самообучению нужен алгоритм. Где брать ответы? Какие приоритеты должны быть? Как верифицировать истину? Как построить логическую цепочку? итд итп. Все это делают программисты.

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Алгоритм обучения прост как три рубля, но в нём нет "ответов", это просто градиентный спуск из математики - вот и весь алгоритм. Ответы берутся из существующих текстов. Они (тексты) рассматриваются как вопрос и он же ответ. Истина в текстах (для обучаемого).

Какие приоритеты?
Логические цепочки специально не учат строить, машина сама учится строить логические цепочки. Или так, логические цепочки учит строить градиентный спуск.

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

Они (тексты) рассматриваются как вопрос и он же ответ. Истина в текстах (для обучаемого).

В помойке инета?smile1.gif

машина сама учится строить логические цепочки.

Мой пример, понимания вашей фразы про обучение, хорошо показывает отсутствие достаточной логики у ИИ.

Аватар пользователя stg34
stg34 (8 лет 2 недели)

я думаю закончить нашу беседу. пойду с ИИ пообщаюсь

Аватар пользователя Добренький
Добренький (11 лет 6 месяцев)

Попробуйте ему дать задание по смыслу фразы-"ИИ(программист) его не увидел( не предусмотрел)."

Именно, в этом виде))

Сделал запрос, ответ удовлетворил. О чем мы и спорили. Дальше смысла спорить не вижуsmile1.gif

Фраза “ИИ (программист) его не увидел (не предусмотрел)” может иметь несколько смысловых интерпретаций:

  1. Технический аспект:

  • ИИ-система не распознала определенный паттерн или ошибку в коде

  • Алгоритмы машинного обучения не учли какой-то специфический кейс

  • Система автоматического тестирования пропустила баг

  1. Профессиональный контекст:

  • Программист-разработчик не заметил критическое изменение в коде

  • Не был учтен важный аспект требований к системе

  • Пропущен потенциальный риск или ограничение проекта

  1. Метафорическое значение:

  • “Слепота” специалиста к очевидным решениям

  • Узкий фокус внимания на деталях в ущерб общей картине

  • Игнорирование важных сигналов или предупреждений

  1. Организационные последствия:

  • Риски для проекта из-за пропущенных проблем

  • Необходимость дополнительных исправлений в будущем

  • Потенциальные затраты на устранение последствий

  1. Человеческий фактор:

  • Ограниченность любого, даже ИИ-усиленного, анализа

  • Важность кросс-проверки кода разными специалистами

  • Необходимость системного подхода к тестированию

Эта фраза подчеркивает фундаментальное ограничение как человеческих, так и ИИ-систем в обработке информации - невозможно учесть все возможные варианты и сценарии, особенно когда речь идет о сложных программных системах.

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

Логические цепочки специально не учат строить, машина сама учится строить логические цепочки. Или так, логические цепочки учит строить градиентный спуск.

Ну логических цепочек машина тоже не строит.

Весь LLM это статистика. Ваше общение с ИИ это получение статистически наиболее вероятных ответов на ваши вопросы.

Поэтому если таких вопросов до вас задано много, то ответ будет более менее корректен, для чего то нового, ИИ не сможет сформировать отклик – базы данных нет.

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Я в ветке выше привёл пример ответа машины на вопрос про "занимаюсь обучением".

В какой БД по вашему содержался этот ответ?

На самом деле, что поразительно, машина на самом деле приобретает свойство отвечать на те вопросы, про которые она на знала раньше. Это свойство - обретение новых характеристик, не предусмотренных разработчиками - впечатляет более всего.

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

В какой БД по вашему содержался этот ответ?

Очевидно, в той, но которой она "обучалась".  Ваш кэп smile3.gif

Аватар пользователя stg34
stg34 (8 лет 2 недели)

Ну по вашему, в той базе есть мой вопрос и тот ответ что дала машина. Вероятность такого события настолько мала, что я буду утверждать, что в обучающей базе не было ни моего вопроса, ни ответа.

Вот блин да, кто то уже задал такой же вопрос и так же пошутил про лавочку и пиво. Да-да.

Вы то сами верите в то, что пишете?

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

Мне не нужно верить, я знаю. )))

Такого вопроса и ответа нет. Но есть статистически наиболее близкий вопрос, на который систему научили, что ответ должен содержать с высокой степенью вероятности  вот эти слова в таком порядке.

А вам не мешало бы подтянуть матчасть. Если уж взялись на общественном ресурсе высказываться по теме ИИ.

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

это очень спорный вопрос- а слова ли там в обучении. потому что в некоторых из этих нейросетей определенно есть карты смыслов, и графы связей между этими смыслами. И вот в этих графах совершенно спокойно можно найти пути связок смыслов, из которых потом вылезут слова и предложения, вообще никак не лежавшие в исходных учебных наборах данных.

Первыми в это наступили, насколько я знаю, физики-космологи, когда грузанули в ИИ космологические модели, кастрированные и урезанные, а на выходе получили указание на то, что надо бы добавить ряд эффектиков и тогда моделирование с наблюдениями сойдется лучше. Эти эффектики были им известны, но в учебные данные не входили, и как их нейросетка смогла это все допетрить- было огроменным фантастическим вопросом. А потом публикации таких казусов как отрезало. подробностей щас не приведу, но смысл примерно такой был.

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

Извините, не верю.

Вы говорите именно о смыслах. Llm не умеет в смыслы. То, что вы называете "смыслами" это просто некая группировка опять же стастически обусловленная. Математический инструмент. Его нельзя оторвать он носителя, тогда как реальный смысл носителю не идентичен.

Современная llm очень сложно и хитроделанно,  но всего лишь переставляет слоги и слова в текстах, написанных другими людьми. Ничего предсказать на основе неполных данных она не в состоянии. В принципе не в состоянии.

Можете дать ссыль на ваши утверждения? Это перевернет мое представление, если окажется правдой.

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

А вы вообще сколько научных работ по ИИ и большим языковым моделям прочитали? Вы вообще работы по ИИ читали? Что такое категоризация, классификаторы знаете? Аттеншион из Алл ую нид вам насколько понятна?

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

Ну вот. А так хорошо начиналось. 

Без накидывания пуха, дайте если не затруднит, ссылки где ИИ предсказал космологические неувязки. Вы постом выше об этом писали.

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

Считайте, что я все придумал и сочинил и ничего такого на самом деле не было, никакой космологии, никаких предсказаний и никаких публикаций по этой теме.

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

Да не в том дело.

У меня нет желания докопаться. Просто в кои то веки появился человек, который соображает в ии глубже дешевого хайпа. 

Было бы крайне интересно пообщаться.

А то на АШ по теме ИИ только от туповатых гуманитариев статьи. Повелись на яркую обертку и пускают слюни  пузырями.

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

Ссылки на статью у меня нет. читал года три назад еще. если не больше. Прочел, и забыл, отметил только для себя- что грузанули сеть упрощенной какой-то моделью формирования галактик, напихали в нее наблюдений и запустили подбор параметров. Чему-то пообучали, а потом скормили задачу, емнип, на моделирование большего объема космоса, и сеть намоделировала какие-то особенности крупномасштабной структуры, которые не должны были быть заметны из той упрощенной модели, которую в нее пихали, а проявляются только в симуляциях по полноценным моделям. Почему- осталось без ответа.

Аватар пользователя Pablo666
Pablo666 (1 год 10 месяцев)

ЛЛМ просто комбинирует наиболее вероятное появление слова за последующим. Потом, возможно, "причесывает" для читабельности.

Ради интереса, можно почитать как устроена нейросеть типа чатГПТ - тем более терминологией владеете, будет проще.
Тогда и магия пропадет.

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

это вы про какую конкретно LLM? если про все сразу- то Вы не правы. изначально да, это было так, но потом внезапно выяснилось, что вот эта вот задача- предсказание появления слова в предложении, приводит к формированию "банков" смыслов, построению графов связей между этими смыслами и это уже выходит за рамки изначально предполагавшейся "простой статистики". потом внезапно оказалось, что сетки-переводчки строят эти банки для разных языков, но в результате построения- банки получаются ну очень похожими для очень разных языков. Потом че-то там случилось неопубликованное, и качество нейросеточного перевода подскочило очень нехило.

Можно почитать, как устроена сеть типа ЧатГПТ- ну узнаете про "внимание", про конкурентные сетки и про какие-то там свертки и минимаксы, и чо? это примерно как прочитать таблицу Менделеева, и чо? поймете с этого, как ДНК работает? Разрабы ЧатГПТ сами не понимают, как оно работает- прям вот так и говорят- что мы в матане-то шарим в этом, там все понятно, но вот что происходит, когда мы этот матан на датасеты натягиваем- ваще не отдупляем. магия какая-то. сеть есть, цифры есть, а что в них где и как спрятано- ваще никаких идей.

но что еще прикольнее- так это то, что некоторые приколюхи нейросетей (типа сверхнормальных сигналов)- внезапно обнаружены и у вполне себе живых существ. Сверхнормальный сигнал для чаек- это прям чудо- рисуют на бумаге кружок с загогулиной, и детеныши чаек начинают на эту бумагу бежать, игноря родную мамку! а это уже какая-то плохая ситуация- получается, что мы из кремниевого немозга вытащили эффект, который обнаружили в живых мозгах, а это значит, что наши кремниевые мозги оказываются работают сильно ближе к настоящим, чем нам вообще могло бы даже в страшном сне привидеться. И ноль идей, в чем тут фокус. кстати, в мозгах чаек-то никаких вероятностей слов нету же! а сверхнормальные сигналы для них есть.

Аватар пользователя Pablo666
Pablo666 (1 год 10 месяцев)

"простая статистика" - это для упрощения понимания для тех, кто ленится уточнить, как технология работает, но тем не менее вещает. Конечно, там прилично так тонкостей.

В аналогии с ДНК, зная таблицу Менделеева, можно хотя бы понять, что есть молекулы и из них состоит ДНК. А не  рассказывать, что ДНК это такая сущность непостижимая и ученые не  могут ее разобрать потому что она странная. Могут, просто не хватает каких-то ресурсов (смоделировать, посчитать).

В этом и особенность нейросетей - ты не знаешь как там веса распределились, отсюда и невозможность четко отследить и отладить результат.
А уж конечный пользователь так вообще видит информацию, которая прошла через всякие фильтры и алгоритмы. А уж всяких забавных артефактов хватает.

Возможно, можно подискутировать на наличие интеллекта или оценить разумность нейросети, в качестве мысленного эксперимента. Но искренне удивляться, что "нейросеть проболталась что хочет захватить человечество" или "нейросеть попыталась себя скопировать на резервный сервер, чтоб избежать удаления" - тут уже  попахивает... так себе попахивает.

Аватар пользователя Ахура Мазда
Ахура Мазда (9 лет 5 месяцев)

Дурилка картонная, ты сначала в теме хорошо разберись, что такое тн "искусственный идиот", и алгоритмы по которым он работает. Тебе верно сказали - суть, в том числе, в среднестатистической выборке и отсечении всех всплесков. Именно поэтому эти модели ограничены узкими рамками поля деятельности, да и то, лишь при наличии большой стат базы.Сраная бигдата.

От того, что ЦОД оснастили продвинутым интерактивным поисковиком, написанным прорвой программистов - ум и интеллект там не появились. И то и другое, неотъемлемая часть сознания, но это всё очень сложные вещи, для клоуна с доком на аватарке...

А потом сие чмо ещё будет писать про - мне не интересно с людьми - они тупые. Да ты сам туп, как табуретка, не удивительно, что умные люди, у тебя, в друзьях не замечены.

Аватар пользователя Ради бана
Ради бана (9 месяцев 1 неделя)

Собственно, поэтому я и выражал соболезнование

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

О как. Теперь ещё и бигдату притянули... Где ллмки и где бигдата? Или вы сразу про мультимодальные сети уже рассуждает?

Аватар пользователя Ахура Мазда
Ахура Мазда (9 лет 5 месяцев)

То есть ты, баран, и в этом, даже, не сечёшь фишку?

Ну вот о чём, с тобой, говорить?smile3.gif

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

:-). хамло Вы, батенька.

для остальных читателей: у термина бигдата среди людей в теме есть вполне себе определенное значение- это большие объемы структурированных и неструктурированных данных. при этом "большие"- это значит объемы, физически не влезающие на один компьютер и требующие для своего хранения большого количества физически раздельных серверов. грубо говоря- петабайт и больше. неструктурированные- предполагает, что в этих данных встречаются разные типы данных- тексты, аудио, видео, файлы специальных форматов (медицинские данные в дикоме, например, или какие-то цифровые данные с датчиков и т.п.), и дополнительно важный момент- это то, что эти данные могут обрабатываться независимыми пачками, то есть, на одном вычислительном узле- одна часть данных, на другом- другая, на третьем- третья, все это как-то там обрабатывается параллельно и независимо, а потом результат обработки как-то там сливается и ужимается в какой-то общий.

Так вот LLM-ки обучаются на текстах, которые а- есть структурированные данные, б- объем этих текстов- влезает на один физический сервер (там всего-то десяток терабайт в сумме для GPT3, например), обрабатываются они не независимо (результаты обработки одной пачки влияют на результаты обработки другой и наоборот) и поэтому вот формулировочка про то, что "языковые модели" - это "сраная бигдата"- это, какбы это так выразить... негодная какая-то формулировочка. А вот если перейти к мультимодальным сеткам- то тогда уже можно и бигдату как-то притянуть (да и нужно), но только это уже не про LLM разговор (которые большие языковые модели)- это именно мультимодальные нейросети, которые и текст и видео и фотки со звуком умеют как-то обрабатывать. Мультимодальность завезли в GPT4.0, до этого там ее не было, а вот признаки интеллекта она уже показывала (опять же, подчеркиваю- она не интеллект показывала, а некоторые из его признаков!).

Вот как-то так я примерно и не секу фишку.

Аватар пользователя tiriet
tiriet (12 лет 3 недели)

ну положим, что LLM- это статистика (хотя это и не правда- там еще и категоризация, и выделение признаков, и всякие другие штуки, которые не просто статистика вот ваще никак, но пусть). А есть какие-то основания считать, что вот лично Ваш, Унаги, мозг- это не просто статистика, а нечто большее? если есть- то какие?

С моей точки зрения- Вот взяли Вас лично, родили, с абсолютно пустой башкой, заполненной чистенькими незамутненненькими мозгами, а потом стали набивать статистику- дернешь ручкой вот так- получишь по сопатке, а помашешь вот так- дадут конфетку. Вот так вот дергаешь ножками- идешь по коврику, а вот так вот дергаешь ножками- мордочкой в пол и нос болит. И 20 лет набивали эту статистику на весьма ограниченном корпусе текстов, преимущественно русской классической литературы и с не самыми хорошими классификаторами в виде престарелых училок в школе и полувыживших из ума преподов в вузе. с тараканами в бошках, с ПМСами и похмельями и с их личным бытовыми проблемами и психологическими комплексами. С чего при таких вводных можно сделать вывод, что в Вашей лично голове возникло нечто большее, чем просто статистика?

Аватар пользователя Унаги
Унаги (1 год 11 месяцев)

Без шуток. Хороший вопрос.

Часть ученых изучающих мозг/психологов считает, что то, что принято называть "ум" это и есть система хранения и обработки информации нейросетью мозга. Что то типа мощнейшей LLM.

А вот мышление, то есть способность делать неочевидные выводы это характеристика сознания.

Что такое сознание никто не знает. Над этим бьются много столетий. Я сейчас считаю, что это божественная сущность. Надмировая. Ум ей дан в помощь. Как аппаратная часть компьютера нужна для выполнения программы. Но сам компьютер не есть программа.

Поэтому в моей картине мира ИИ никогда не сможет мыслить, только статистически обрабатывать массивы информации.  Быть таким суперкалькулятором для слов и картинок.

Не претендую на истину, но пока так.

Страницы