Зум контента (осторожно)
x
по умолчанию
норм[х1.2][х1.4][х1.7][_х2_][х2.4][x2.8]90%8070
Тема оформления
x
по умолчанию
ОСДеньРассветПесокУтроМореНочь
ArialSegoeGrandeLucida_CRobotoSSProPTSansMerriweatherGeorgiainconsolataFira_Code
Размер шрифта текстов
x
по умолчанию
-3-2-1средний+1+2+3+4
Облегчённый шрифт
x
по умолчанию
облегчённыйобычный шрифт
Стаж регистрации
x
по умолчанию
ТекстомДугойБледноДуга вокруг обычного флага
Детальность настроек
x
по умолчанию
основныеЛабсрасширенныеэксперт
Шрифт заголовков
x
по умолчанию
основнойArialSegoeGrandeLucida_CRobotoSSProPTSansFira_Code
средняябольшедуетнет
Скрытые аватары
x
по умолчанию
иконки постояннопо наведению
Кнопка "Наверх"
x
по умолчанию
имеетсябез неё
Скрыть "Отзывы ..."
x
по умолчанию
слева внизув Настройках
Скрыть шапку
x
по умолчанию
шапка естьа теперь её нет
Печать ссылок
x
по умолчанию
нетда
Колонка текста
x
по умолчанию
до 1300pxдо 760от 3771850
Центрировать картинки
x
по умолчанию
нет_да_
Таблицы, Назад, Вперёд
x
по умолчанию
нет_да_noFul
Скрыть Метрики
x
по умолчанию
нетаватары+досьевсена никах
Отступы комментариев
x
по умолчанию
ЗаборСтупениШирокиеЗакатТени
Тестовые фичи
x
по умолчанию
выключенывключеныZZ_
Примечания к настройкам
x
по умолчанию
СбросОчистить всёЭкспортимпорт
Комментарии
Утверждаю, что если провести соревнование "кто быстро посчитает" между Вами и Excel, то победит Excel.
Однако это вовсе не означает, что Excel умнее человека или, Excel обладает более совершенным интеллектом, чем человек. Это относится и к тем программам, которые в манипулятивных целях названы ИИ.
Не торопитесь. Дело в том, что автор точно так же относится и к квантовой механике, и к Теории относительности. Может быть, дело не в ИИ, а в недостаточной образованности автора?)
Именно так.
Образование и интеллект лишь корреспондируют друг другом. Но моего образования достаточно, чтобы понять, что квантового преимущества, обусловленного квантовой суперпозицией, не существует и существовать не может, потому что квантовая суперпозиция не феномен реального мира, а математический костыль, допущение. Поэтому квантовую суперпозицию можно только симулировать, чем и занимаются все разработчики квантовых компьютеров, но не работать с ней как с реально существующим феноменом. Вам же Ваше образование помогло лишь неоднократно слиться при приближении к обсуждению этого вопроса по существу)) Но я уверен, Вам И"И" поможет)))
у нас в стране квантовые линии связи уже сертификацию проходят (в смысле, что уже есть сертифицированные системы защищенной квантовой связи, использующие эту самую суперпозицию). прямо в железе вот. я их даже лапами своими лапал. а вы говорите, что их быть не может, ибо никакой суперпозиции нет. демонстраторы экспериментальные есть, а суперпозиции нет. чудесато.
Результат эксперимента интерпретируется в соответствии с парадигмой, в которой он проводится. При этом это может не иметь никакого отношения к реально происходящему. Это вопрос интерпретации результатов и это надо понять. Я вот стреляю и иногда наблюдаю, как люди интерпретируют свои выстрелы. А ведь "пуля не врет") В случае же квантовой суперпозиции в любом определении ее указывается, что это постулат, принцип, допущение. Надо просто вникать в значение слов, которые ты читаешь. И задумываться, зачем то или иное написано.
а 90-е, я помню, красной ртутью торговали; и некоторые ее даже "руками лапали"
а никто и не говорит, что программы, в манипулятивных целях названные ИИ- умнее или совершеннее человека. Вопрос в том, есть у этих программ настоящий интеллект, или нет. а этот вопрос упирается в способ определения наличия этого интеллекта- предоставляем способ, применяем его к программе и видим- у нее интеллекта нет. Берем способ, применяем его к Роман1992 и видим- интеллект есть. но важно- не перепутайте! нужно, чтоб не оказалось наоборот, что у программы интеллект есть, а у Романа1992- нету. это будет факап эпический!
Зато это означает. что интеллект в узкой области счета Excel таки лучше. А потом компьютер стал лучше играть с шахматы. Затем в ГО. И так далее и тому подобное.
Может быть Вам стоит просрочить платеж за Алису? Глядишь, и собеседники интересные найдутся. В том же дворе, на лавочке.
это пятерка. Жму руку)
Вот я прям щас сижу и занимаюсь обучением, мне нужно освоить новую профессиональную тему. Я могу задать вопрос об этом ИИ и получить ответ. Какой ответ я получу на лавочке? "Хлебни пива и вот тебе семечки?"
Вот теперь я очень сильно и не менее искренне сочувствую Вашим обучаемым. Во всех аспектах. И начинаю беспокоиться о будущем моего 2,5 летнего ребенка – его взросление придется на пору, когда Ваши обучаемые будут работать уже как специалисты.
Я никого не учу. Я учусь. Кстати, ИИ не допускает таких грубых ошибок, как допустили вы, пытаясь понять смысл написанного
"занимаюсь обучением" это "учусь"? какой язык для Вас родной?
Вот вы способны на нечто подобное?
Мой вопрос ИИ:
Есть такой комментарий в дискуссии под некоторой статьей, не важно какой именно:
Вот я прям щас сижу и занимаюсь обучением, мне нужно освоить новую профессиональную тему. Я могу задать вопрос об этом ИИ и получить ответ. Какой ответ я получу на лавочке? "Хлебни пива и вот тебе семечки?"
Может ли читатель этого комментария интерпретировать фразу "занимаюсь обучением" , как обучение кого-то, а не себя?
Ответ ИИ:
Да, читатель теоретически может интерпретировать фразу «занимаюсь обучением» как обучение кого-то другого, а не себя, но контекст комментария делает такую интерпретацию маловероятной. Вот ключевые моменты для анализа:
Лингвистическая двусмысленность:
В русском языке глаголы с возвратным значением (например, «занимаюсь») часто требуют уточнения объекта. Фраза «занимаюсь обучением» без дополнительного контекста действительно может означать как «обучаю себя», так и «обучаю других» (например, «занимаюсь обучением сотрудников»). Однако в данном случае автор прямо указывает: «мне нужно освоить новую профессиональную тему», что явно указывает на самообучение.
Контекстные подсказки:
Автор упоминает, что обращается к ИИ за помощью, чтобы получить ответы. Это типично для ситуации самообразования, а не преподавания.
Шутка про «хлебни пива и семечки» высмеивает бесполезные ответы, что актуально именно для человека, который ищет информацию, а не для того, кто её преподает.
Прагматика высказывания:
Если бы автор обучал других, он, скорее всего, уточнил бы аудиторию (например, «обучаю коллег»), а также сформулировал бы запрос к ИИ иначе (например, «как объяснить тему ученикам?»). Здесь же фокус на личном освоении материала («мне нужно освоить»).
Итог:
При поверхностном чтении (без внимания к деталям) фраза может показаться двусмысленной, но контекст комментария однозначно указывает на самообучение. Читатель, интерпретирующий это как обучение других, вероятно, проигнорирует ключевые элементы текста или воспримет его выборочно.
Мне кажется ИИ вас раскусил, вы читаете и отвечаете не сильно внимательно и не сильно вдумываясь.
Не указывает абсолютно, может вы проф. преподаватель и изучаете новую тему для урока, которой не было при вашем обучении в вузе.
ИИ ф топку!
Это весьма показательно. ИИ понял вложенный мною смысл верно, человек - нет. Вот я и говорю, ИИ - понятливее и толковее многих живых людей.
ИИ не понял сложностей восприятия слов-смыслов. Вы же не будете отрицать логику в моем утверждении?
Или будете?
Я буду утверждать, что ИИ понял точнее вас. И понял правильно, тот смысл, что я вложил.
Это лишь говорит о примитивности заложенной в него программы. Логика у программиста подкачала, не было, видать, такого предмета при его обучении.
Угу, человек, который понимает комментарий неправильно и пишет ошибочный ответ, на основе неверно понятого смысла - это круто, а ИИ, который правильно понял - нет. Окай, чёрное - это белое, а белое - это чёрное.
Научитесь грамотно передавать смысл через слова.
Я же написал второй логический вариант смысла вашей фразы, ИИ(программист) его не увидел( не предусмотрел). Далеко ещё, если не безнадежно сложно, до уровня человека.
Сможет ИИ правильно воспринять написанное в моем комменте???
-
Блин, да вы же просто не понимаете, о чём пишете.
В нейросетях нету никаких "алгоритмов, сделанных программистом". В том-то и прикол. Если коротко, то что вы понимаете по "алгоритмом" на самом деле процесс обучения на примерах. Сети показывают текст и говорят - на него отвечай так. Она просматривает кучи таких текстов и выясняет взаимосвязи между вопросами ответами.
Поэтому я не могу ответить на ваш комментарий по сути. В нем нет смысла.
Что бы научить самообучению нужен алгоритм. Где брать ответы? Какие приоритеты должны быть? Как верифицировать истину? Как построить логическую цепочку? итд итп. Все это делают программисты.
Алгоритм обучения прост как три рубля, но в нём нет "ответов", это просто градиентный спуск из математики - вот и весь алгоритм. Ответы берутся из существующих текстов. Они (тексты) рассматриваются как вопрос и он же ответ. Истина в текстах (для обучаемого).
Какие приоритеты?
Логические цепочки специально не учат строить, машина сама учится строить логические цепочки. Или так, логические цепочки учит строить градиентный спуск.
В помойке инета?
Мой пример, понимания вашей фразы про обучение, хорошо показывает отсутствие достаточной логики у ИИ.
я думаю закончить нашу беседу. пойду с ИИ пообщаюсь
Попробуйте ему дать задание по смыслу фразы-"ИИ(программист) его не увидел( не предусмотрел)."
Именно, в этом виде))
Сделал запрос, ответ удовлетворил. О чем мы и спорили. Дальше смысла спорить не вижу
Фраза “ИИ (программист) его не увидел (не предусмотрел)” может иметь несколько смысловых интерпретаций:
Технический аспект:
ИИ-система не распознала определенный паттерн или ошибку в коде
Алгоритмы машинного обучения не учли какой-то специфический кейс
Система автоматического тестирования пропустила баг
Профессиональный контекст:
Программист-разработчик не заметил критическое изменение в коде
Не был учтен важный аспект требований к системе
Пропущен потенциальный риск или ограничение проекта
Метафорическое значение:
“Слепота” специалиста к очевидным решениям
Узкий фокус внимания на деталях в ущерб общей картине
Игнорирование важных сигналов или предупреждений
Организационные последствия:
Риски для проекта из-за пропущенных проблем
Необходимость дополнительных исправлений в будущем
Потенциальные затраты на устранение последствий
Человеческий фактор:
Ограниченность любого, даже ИИ-усиленного, анализа
Важность кросс-проверки кода разными специалистами
Необходимость системного подхода к тестированию
Эта фраза подчеркивает фундаментальное ограничение как человеческих, так и ИИ-систем в обработке информации - невозможно учесть все возможные варианты и сценарии, особенно когда речь идет о сложных программных системах.
Ну логических цепочек машина тоже не строит.
Весь LLM это статистика. Ваше общение с ИИ это получение статистически наиболее вероятных ответов на ваши вопросы.
Поэтому если таких вопросов до вас задано много, то ответ будет более менее корректен, для чего то нового, ИИ не сможет сформировать отклик – базы данных нет.
Я в ветке выше привёл пример ответа машины на вопрос про "занимаюсь обучением".
В какой БД по вашему содержался этот ответ?
На самом деле, что поразительно, машина на самом деле приобретает свойство отвечать на те вопросы, про которые она на знала раньше. Это свойство - обретение новых характеристик, не предусмотренных разработчиками - впечатляет более всего.
Очевидно, в той, но которой она "обучалась". Ваш кэп
Ну по вашему, в той базе есть мой вопрос и тот ответ что дала машина. Вероятность такого события настолько мала, что я буду утверждать, что в обучающей базе не было ни моего вопроса, ни ответа.
Вот блин да, кто то уже задал такой же вопрос и так же пошутил про лавочку и пиво. Да-да.
Вы то сами верите в то, что пишете?
Мне не нужно верить, я знаю. )))
Такого вопроса и ответа нет. Но есть статистически наиболее близкий вопрос, на который систему научили, что ответ должен содержать с высокой степенью вероятности вот эти слова в таком порядке.
А вам не мешало бы подтянуть матчасть. Если уж взялись на общественном ресурсе высказываться по теме ИИ.
это очень спорный вопрос- а слова ли там в обучении. потому что в некоторых из этих нейросетей определенно есть карты смыслов, и графы связей между этими смыслами. И вот в этих графах совершенно спокойно можно найти пути связок смыслов, из которых потом вылезут слова и предложения, вообще никак не лежавшие в исходных учебных наборах данных.
Первыми в это наступили, насколько я знаю, физики-космологи, когда грузанули в ИИ космологические модели, кастрированные и урезанные, а на выходе получили указание на то, что надо бы добавить ряд эффектиков и тогда моделирование с наблюдениями сойдется лучше. Эти эффектики были им известны, но в учебные данные не входили, и как их нейросетка смогла это все допетрить- было огроменным фантастическим вопросом. А потом публикации таких казусов как отрезало. подробностей щас не приведу, но смысл примерно такой был.
Извините, не верю.
Вы говорите именно о смыслах. Llm не умеет в смыслы. То, что вы называете "смыслами" это просто некая группировка опять же стастически обусловленная. Математический инструмент. Его нельзя оторвать он носителя, тогда как реальный смысл носителю не идентичен.
Современная llm очень сложно и хитроделанно, но всего лишь переставляет слоги и слова в текстах, написанных другими людьми. Ничего предсказать на основе неполных данных она не в состоянии. В принципе не в состоянии.
Можете дать ссыль на ваши утверждения? Это перевернет мое представление, если окажется правдой.
А вы вообще сколько научных работ по ИИ и большим языковым моделям прочитали? Вы вообще работы по ИИ читали? Что такое категоризация, классификаторы знаете? Аттеншион из Алл ую нид вам насколько понятна?
Ну вот. А так хорошо начиналось.
Без накидывания пуха, дайте если не затруднит, ссылки где ИИ предсказал космологические неувязки. Вы постом выше об этом писали.
Считайте, что я все придумал и сочинил и ничего такого на самом деле не было, никакой космологии, никаких предсказаний и никаких публикаций по этой теме.
Да не в том дело.
У меня нет желания докопаться. Просто в кои то веки появился человек, который соображает в ии глубже дешевого хайпа.
Было бы крайне интересно пообщаться.
А то на АШ по теме ИИ только от туповатых гуманитариев статьи. Повелись на яркую обертку и пускают слюни пузырями.
Ссылки на статью у меня нет. читал года три назад еще. если не больше. Прочел, и забыл, отметил только для себя- что грузанули сеть упрощенной какой-то моделью формирования галактик, напихали в нее наблюдений и запустили подбор параметров. Чему-то пообучали, а потом скормили задачу, емнип, на моделирование большего объема космоса, и сеть намоделировала какие-то особенности крупномасштабной структуры, которые не должны были быть заметны из той упрощенной модели, которую в нее пихали, а проявляются только в симуляциях по полноценным моделям. Почему- осталось без ответа.
ЛЛМ просто комбинирует наиболее вероятное появление слова за последующим. Потом, возможно, "причесывает" для читабельности.
Ради интереса, можно почитать как устроена нейросеть типа чатГПТ - тем более терминологией владеете, будет проще.
Тогда и магия пропадет.
это вы про какую конкретно LLM? если про все сразу- то Вы не правы. изначально да, это было так, но потом внезапно выяснилось, что вот эта вот задача- предсказание появления слова в предложении, приводит к формированию "банков" смыслов, построению графов связей между этими смыслами и это уже выходит за рамки изначально предполагавшейся "простой статистики". потом внезапно оказалось, что сетки-переводчки строят эти банки для разных языков, но в результате построения- банки получаются ну очень похожими для очень разных языков. Потом че-то там случилось неопубликованное, и качество нейросеточного перевода подскочило очень нехило.
Можно почитать, как устроена сеть типа ЧатГПТ- ну узнаете про "внимание", про конкурентные сетки и про какие-то там свертки и минимаксы, и чо? это примерно как прочитать таблицу Менделеева, и чо? поймете с этого, как ДНК работает? Разрабы ЧатГПТ сами не понимают, как оно работает- прям вот так и говорят- что мы в матане-то шарим в этом, там все понятно, но вот что происходит, когда мы этот матан на датасеты натягиваем- ваще не отдупляем. магия какая-то. сеть есть, цифры есть, а что в них где и как спрятано- ваще никаких идей.
но что еще прикольнее- так это то, что некоторые приколюхи нейросетей (типа сверхнормальных сигналов)- внезапно обнаружены и у вполне себе живых существ. Сверхнормальный сигнал для чаек- это прям чудо- рисуют на бумаге кружок с загогулиной, и детеныши чаек начинают на эту бумагу бежать, игноря родную мамку! а это уже какая-то плохая ситуация- получается, что мы из кремниевого немозга вытащили эффект, который обнаружили в живых мозгах, а это значит, что наши кремниевые мозги оказываются работают сильно ближе к настоящим, чем нам вообще могло бы даже в страшном сне привидеться. И ноль идей, в чем тут фокус. кстати, в мозгах чаек-то никаких вероятностей слов нету же! а сверхнормальные сигналы для них есть.
"простая статистика" - это для упрощения понимания для тех, кто ленится уточнить, как технология работает, но тем не менее вещает. Конечно, там прилично так тонкостей.
В аналогии с ДНК, зная таблицу Менделеева, можно хотя бы понять, что есть молекулы и из них состоит ДНК. А не рассказывать, что ДНК это такая сущность непостижимая и ученые не могут ее разобрать потому что она странная. Могут, просто не хватает каких-то ресурсов (смоделировать, посчитать).
В этом и особенность нейросетей - ты не знаешь как там веса распределились, отсюда и невозможность четко отследить и отладить результат.
А уж конечный пользователь так вообще видит информацию, которая прошла через всякие фильтры и алгоритмы. А уж всяких забавных артефактов хватает.
Возможно, можно подискутировать на наличие интеллекта или оценить разумность нейросети, в качестве мысленного эксперимента. Но искренне удивляться, что "нейросеть проболталась что хочет захватить человечество" или "нейросеть попыталась себя скопировать на резервный сервер, чтоб избежать удаления" - тут уже попахивает... так себе попахивает.
Дурилка картонная, ты сначала в теме хорошо разберись, что такое тн "искусственный идиот", и алгоритмы по которым он работает. Тебе верно сказали - суть, в том числе, в среднестатистической выборке и отсечении всех всплесков. Именно поэтому эти модели ограничены узкими рамками поля деятельности, да и то, лишь при наличии большой стат базы.Сраная бигдата.
От того, что ЦОД оснастили продвинутым интерактивным поисковиком, написанным прорвой программистов - ум и интеллект там не появились. И то и другое, неотъемлемая часть сознания, но это всё очень сложные вещи, для клоуна с доком на аватарке...
А потом сие чмо ещё будет писать про - мне не интересно с людьми - они тупые. Да ты сам туп, как табуретка, не удивительно, что умные люди, у тебя, в друзьях не замечены.
Собственно, поэтому я и выражал соболезнование
О как. Теперь ещё и бигдату притянули... Где ллмки и где бигдата? Или вы сразу про мультимодальные сети уже рассуждает?
То есть ты, баран, и в этом, даже, не сечёшь фишку?
Ну вот о чём, с тобой, говорить?
:-). хамло Вы, батенька.
для остальных читателей: у термина бигдата среди людей в теме есть вполне себе определенное значение- это большие объемы структурированных и неструктурированных данных. при этом "большие"- это значит объемы, физически не влезающие на один компьютер и требующие для своего хранения большого количества физически раздельных серверов. грубо говоря- петабайт и больше. неструктурированные- предполагает, что в этих данных встречаются разные типы данных- тексты, аудио, видео, файлы специальных форматов (медицинские данные в дикоме, например, или какие-то цифровые данные с датчиков и т.п.), и дополнительно важный момент- это то, что эти данные могут обрабатываться независимыми пачками, то есть, на одном вычислительном узле- одна часть данных, на другом- другая, на третьем- третья, все это как-то там обрабатывается параллельно и независимо, а потом результат обработки как-то там сливается и ужимается в какой-то общий.
Так вот LLM-ки обучаются на текстах, которые а- есть структурированные данные, б- объем этих текстов- влезает на один физический сервер (там всего-то десяток терабайт в сумме для GPT3, например), обрабатываются они не независимо (результаты обработки одной пачки влияют на результаты обработки другой и наоборот) и поэтому вот формулировочка про то, что "языковые модели" - это "сраная бигдата"- это, какбы это так выразить... негодная какая-то формулировочка. А вот если перейти к мультимодальным сеткам- то тогда уже можно и бигдату как-то притянуть (да и нужно), но только это уже не про LLM разговор (которые большие языковые модели)- это именно мультимодальные нейросети, которые и текст и видео и фотки со звуком умеют как-то обрабатывать. Мультимодальность завезли в GPT4.0, до этого там ее не было, а вот признаки интеллекта она уже показывала (опять же, подчеркиваю- она не интеллект показывала, а некоторые из его признаков!).
Вот как-то так я примерно и не секу фишку.
ну положим, что LLM- это статистика (хотя это и не правда- там еще и категоризация, и выделение признаков, и всякие другие штуки, которые не просто статистика вот ваще никак, но пусть). А есть какие-то основания считать, что вот лично Ваш, Унаги, мозг- это не просто статистика, а нечто большее? если есть- то какие?
С моей точки зрения- Вот взяли Вас лично, родили, с абсолютно пустой башкой, заполненной чистенькими незамутненненькими мозгами, а потом стали набивать статистику- дернешь ручкой вот так- получишь по сопатке, а помашешь вот так- дадут конфетку. Вот так вот дергаешь ножками- идешь по коврику, а вот так вот дергаешь ножками- мордочкой в пол и нос болит. И 20 лет набивали эту статистику на весьма ограниченном корпусе текстов, преимущественно русской классической литературы и с не самыми хорошими классификаторами в виде престарелых училок в школе и полувыживших из ума преподов в вузе. с тараканами в бошках, с ПМСами и похмельями и с их личным бытовыми проблемами и психологическими комплексами. С чего при таких вводных можно сделать вывод, что в Вашей лично голове возникло нечто большее, чем просто статистика?
Без шуток. Хороший вопрос.
Часть ученых изучающих мозг/психологов считает, что то, что принято называть "ум" это и есть система хранения и обработки информации нейросетью мозга. Что то типа мощнейшей LLM.
А вот мышление, то есть способность делать неочевидные выводы это характеристика сознания.
Что такое сознание никто не знает. Над этим бьются много столетий. Я сейчас считаю, что это божественная сущность. Надмировая. Ум ей дан в помощь. Как аппаратная часть компьютера нужна для выполнения программы. Но сам компьютер не есть программа.
Поэтому в моей картине мира ИИ никогда не сможет мыслить, только статистически обрабатывать массивы информации. Быть таким суперкалькулятором для слов и картинок.
Не претендую на истину, но пока так.
Страницы