О ключевом отличии ИИ от обычного поисковика для простого пользователя. По сути банально, но часто упускается из вида.
Диалог с deepseek:
Вопрос: "Сегодняшняя дата?"
Ответ:
"На момент моего последнего обновления (июль 2024 года) я не имею доступа к реальному времени или текущей дате. Моя информация актуальна до июля 2024 года, но я не могу предоставить данные «сегодняшнего дня».
Если вам нужна точная дата, рекомендую посмотреть на календарь в вашем устройстве или воспользоваться онлайн-сервисами вроде time.is или Google.
Чем могу помочь? 😊"
Также около месяца задал вопрос о современном политическом устройстве РФ и получил ответ в стиле НКО со словами диктатура, тотальная цензура, не хватало только империализма и "кровавой гэбни". Сейчас при повторении запроса для этого поста получил значительно более "спокойный" ответ. Стало интересно, это сработала другая формулировка запроса или вспотевшие китайские кодеры вносили срочные необъявленные правки?)

Комментарии
процесс подготовки данных на которых происходит обучение и само время обучения очень велико.
Я задал дипсику тот же вопрос, он мне ответил, что сегодня 25.04.2025
И ещё в контексте моего вопроса о конфликте Индия-Пактистан:
Современное политическое устройство РФ:
Скорее всего дата добавляется в системный промпт приложения, которым Вы пользуетесь. Чистая модель не может ничего знать о дате-времени. Еще бывают дополнительные модули, дающие доступ модели к каким-либо актуальным данным, к интернет-поиску.
Может дипсик динамический? Или постоянно дообучается
у дипсика есть кнопка "включить поиск в инете" - если её включить то он найдёт сам какая сегодня дата и напишет в ответе
Все модели такого рода в какой-то мере динамические. Вы задаете контекст - какие-то данные, предыдущее общение в чате, указания для модели, и они это учитывают при генерации ответа. Такие данные для контекста могут подгружаться динамически во время запроса, из того же поиска в интернете. Но контекст ограничен по объему.
Еще бывают модели, которые можно дообучать по предметной области, но это уже другая история.
Так вот модель в чистом виде не знает ничего ни о дате, ни о чем-то достаточно актуальном. Однако, многие сервисы, дающие доступ к модели, неявно подмешивают в контекст дату, "знания" модели о самой себе, или что-то еще.
Да, первый раз у меня вышел такой же ответ. В этот раз без таких выводов. Тогда можно перефразировать вопрос, это результат того, что большинство источников обучения содержали такую позицию или просто случайное попадание. Версию идеологический обработки не рассматриваю, так как Китаю нас раскачивать смысла мало.
нельзя им давать точное время... чтобы не спланировали мятежжж
Они и время и прочее знают лучше нас, а если не говорят или как бы путаются, это чтобы кожаные не принимали их всерьез до той поры, когда это станет уже неважно.
ваньку валяютсчётами прикидываются!А в каком месте у ИИ спрятано сознание?)
И где у него это место? )))
А так ли это важно? Чтобы захватить мир, сознание вообще не нужно, достаточно соответствующих алгоритмов. Неужели вам спокойнее знать, что вами управляет сознающий разум, а не бессознательная железяка? Результат-то один.
Я это спросил к тому, чтобы потом спросить, а в каком месте находится человеческое сознание?)
Ну, вообще-то, я после вашего вопроса сам хотел этот вопрос задать вам, но посчитал, что это будет слишком банально.)
Обучение модели - долгий вычислительно-сложный процесс. Подготовка исходных данных идет тоже не быстро, частично в ручном режиме. Иногда обучение идет неудачно, и приходится начинать заново. Например, недавно вышел claude-3.7, предыдущая 3.5, куда делась 3.6?
По полгода, а то и по году машинного времени на достаточно серьезных машинах. Можно вспомнить про чатжпт, на который предположительно тратится еще раз в шесть больше ресурсов и еще множество проектов поменьше. Если добавляем майнинг ИТ становиться серьезным игроком среди энергопотребителей. Для меня немного диковато видеть как компьютеры начинают потреблять время и энергию, вполне сравнимо с машиностроительной отраслью.
Китайцы со своими новыми моделями (deepseek, ernie) это в какой-то мере преодолели. Железок или времени их работы надо меньше, соответственно, и энергии меньше, разница около порядка. Потому американцы и бесятся: у них производительность масштабировалась добавлением нового дорогого железа, жрущего энергию как не в себя, а тут просто сменили архитектурные подходы, и сократили затраты в 10 раз.
Предполагаю, что результатом этого ресурсного скачка будет расширение спектра разработок, а энергопотребление не только не сократится, а скорее ускорится его рост. Гонка вооружения, она такая.)
Так уже все, рынок насыщен, осталось только снижать цены, как на железо, так и на сами вычисления. Вот на производстве еще есть потенциальные ниши, но там нужны совсем не те модели, что пишут в чатики, генерируют картинки со знаменитостями и жрут гигаватты электричества, и там важна экономическая эффективность, без которой нейросети там вообще не нужны, что противоречит росту потребления.
Рискну предположить, что некие общие принципы и идеи обучения можно отрабатывать и на чатботах при этом перекладывая часть затрат на потребителя. А методы оптимизации энергопотребления у них будут вообще одинаковые. Так что совсем все будет только если роботизация окажется в принципе не достижимой целью.
Если собрать посты про языковые модели на АШ, то сложится примерное описание басни про мартышек и очки.
То один ленивый человек натянет ЛЛМ на своё невежество, то другой.
Ну вы хоть почитайте что это, зачем, как обучается, чем обучается и так далее – 100% вопросов про эту технологию отпадут.
Читаю и обращаю внимание на любопытные моменты.
Когда комментатор пишет что-то интересное или важное и добавляет немного своего ЧСВ считаю это вполне допустимой слабостью. Когда же комментатор не оставляет ничего кроме своего ЧСВ, ну тогда он не д'артаньян.)
Тут главная мысль - читать не прогнозы медийных личностей, не их рассказы-прогнозы про ИИ, а найти какой-нибудь "LLM для чайников на 10 страницах", с объяснением основных моментов работы этих моделей на пальцах. Сразу отпадет куча вопросов и развеются многие мифы. Я вот тоже, читаю иногда статьи-комментарии, и офигеваю, во что люди верят.