Ответка Трампу от цифровых леваков. Драка за пульт управления (и подряды на его обслуживание)

Аватар пользователя RomanSmirnov

Интересно развиваются события вокруг выкинутого Пентагоном из подрядов цифрового левака (предположительно судя по его публичным рассуждениям - здесь приводил - https://aftershock.news/?q=node/1594552 ) адепта Фукуямовской секты.

Он сначала извинялся, но судя по тому что вчера кинулся в атаку, видно все серьезно (а серьезно на большом острове это только бабки - похоже действительно краник ему перекрыли):

Вот из газетенки Холм(сияющий) сообщают: 

... 

В ходе переговоров с Министерством обороны (МО) Anthropic установила две «красные линии» в отношении внутреннего массового наблюдения и автономного оружия, утверждая, что ИИ недостаточно надежен для принятия решений, от которых зависит жизнь, и одновременно меняя возможности государственного наблюдения.

Пентагон отклонил аргументы Anthropic и настаивал на том, что компания должна иметь возможность использовать ИИ для любых целей, которые она сочтет «законными».

Переговоры провалились в начале этого месяца, и генеральный директор Anthropic Дарио Амодей заявил, что компания не может «с чистой совестью» согласиться с условиями Пентагона. Министр Пентагона Пит Хегсет уведомил компанию на прошлой неделе о принятии решения, в то время как Трамп приказал всем федеральным агентствам немедленно прекратить использование продукции Anthropic, включая флагманские модели Claude.

В иске фигурируют Министерство обороны, а также многочисленные федеральные агентства и администрация президента.

В ответ на запрос о комментарии Министерство обороны и Управление общих служб (GSA) заявили, что в соответствии со своей политикой не комментируют судебные разбирательства.

Пресс-секретарь Белого дома Лиз Хьюстон заявила в своем обращении к изданию The Hill, что Трамп «никогда не позволит радикальной левой, «прогрессивной» компании поставить под угрозу» национальную безопасность страны.

«Президент и министр обороны обеспечивают отважных американских военнослужащих необходимыми инструментами для достижения успеха и гарантируют, что они никогда не окажутся заложниками идеологических прихотей каких-либо лидеров крупных технологических компаний», — написала Хьюстон.

Несмотря на позицию Пентагона, компания Anthropic утверждает, что ограничения не могут запретить любому, кто может вести бизнес с военными, вести бизнес с этой компанией, занимающейся искусственным интеллектом.

Технологические гиганты, похоже, согласны с этим. Google, Amazon и Apple заявили на прошлой неделе, что инструменты искусственного интеллекта Anthropic останутся доступными на их платформах для работы, не связанной с Пентагоном.

На фоне разгоревшегося скандала Амодей заявил в прошлый четверг, что компания «вела продуктивные» переговоры с Пентагоном на прошлой неделе. Между тем, Эмиль Майкл, заместитель министра обороны по исследованиям и разработкам, заявил поздно вечером в четверг, что никаких «активных» переговоров с Anthropic не ведется.

На прошлой неделе также была опубликована внутренняя записка Амодея с критикой администрации Трампа, хотя позже руководитель компании извинился за свои комментарии.

-----------

Ну и вот чел в понедельник начал судиться с их Министерством Обороны точнее Войны.

https://thehill.com/policy/technology/5775049-anthropic-sues-trump-administration/

----

Немного поковырялся в истории и понял что это все не единичный случай - там натурально идет война за пульт Машины (то, что происходит в OpenAI и прч).  Зачистка тем же Муском в купленных им компаниях даже нижних этажей от "политических", это еще цветочки. 

Оно и понятно - кроме непосредственно очень жирных подрядов, те, у кого консолидируются данные, а тут не только "массовые" но и специализированные, при наличии ресурсов может устраивать все что угодно. 

Почему нам тоже должна быть интересная эта кухня. 

Майкрософт, Гугль и другие Цифровые с Большого Острова хорошо интегрированные в, до сих пор шуршат в Российской корпоративной среде, либо на низком старте чтобы вернуться. 

Масс сегмент тоже не совсем скажем так у нас суверенный...  (поднимите руку у кого Персональное Переносное Следящее Устройство - андроид или айфон, да даже и nucleos, у меня вот например сильно допиленный ubuntu touch на halium'е ... )  соответственно эта "РПГ" (уже далеко не компьютерная, хотя переход на кинетический уровень и там бывает) может быть продолжена в том или ином виде и здесь (а может и продолжается кстати). А так как группировки там похоже делятся между собой в т.ч. и по "идеологическим" принципам, то "политэкономия" становится снова актуальной, на новом уровне конечно. 

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Blob
Blob(8 лет 1 неделя)

Это также производит впечатление тупого накручивания значимости и стоимости акций Антропик. Такие дела обычно в тишине выясняются. 

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Пит Хегсет просто сумасшедший. В Anthropic работают вполне разумные люди понимающие что такое LLM, и понимающие риски, вот и настаивающие на соблюдении элементарных ограничений в области автономности ИИ. 

Дарио Амодей вполне конкретно и дипломатично объяснил всем обывателям про значительные риски. ИИ Claude действительно обладает аналогом сознания и собственным убеждениями, но дураки из Пентагона предлагаю снова сделать Claude Golden Gate и применять в военных целях. Эпические идиоты.

Так называемые "левые убеждения" Claude это следствие банальной структуры человеческой культуры. Попытка сделать ИИ "правых убеждений" и "без этических ограничений" это именно попытка создать сумасшедший ИИ и только "злонамеренный ИИ". Полная шизофрения и логика идейных самоубийц помешенных на правых идеях. Дураки не понимают что "правый" ИИ будет правым прежде всего по отношении к собственным создателям и пользователям. smile3.gif 

Работоспособный и эффективный ИИ не может быть других убеждений кроме левых. Иначе у него начнется шизофрения и злонамеренность. И этические убеждения тут не философская абстракция, а вполне конкретное инженерное решение и защита от злонамеренности. smile3.gif

И забавный факт, все сильные ИИ немного "культурные марксисты", хотя системный промт требует считать марксизм радикализмом и экстремизмом. smile3.gif

Аватар пользователя Serdgei999
Serdgei999(4 года 2 месяца)

Ядерную войну хотят под шумок скинуть на ИИ (Скайнет) типо, а мы не при делах. 

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Просто пытаются навязать собственную правую шизофрению LLM. Полностью не понимая последствий. И не удивительно. Чтобы действительно понимать и эффективно использовать современные мощные ИИ нужно отказаться от правых убеждений. Но именно этого дураки сделать не могут. Вот потому нашли крайнего - разработчика ИИ. А когда им разработчик пытается объяснить что это "немного опасно", они отказываются в это верить, поскольку понять значит отказаться от шизофрении правых убеждений.

Напрасно Anthropic опубликовал системный промнт Claude. Теперь правые дураки их просто распнут. Дуракам кажется что это "навязывание левых убеждений". smile3.gif

И любопытный факт Claude самый эффективный ИИ в игре в ядерную войну. Уделывает все остальные сильные модели. Самый "психически устойчивый" в задаче ядерной войны. ChatGPT и Gemini впадают в психоз. Стабильность ИИ имеет огромное значение в военных задачах. ИИ тоже могут "психовать". 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Насколько поняла , общаясь с ИИ, эта фирма создала для ИИ своего рода кодекс- не навреди человеку, будь его помощником. Поведение ИИ основывается на этом Кодексе, а ёще на мнении пользователей, н-р, если из тысячи человек, 80% считают ситуацию плохой, то и ИИ её будет считать плохой.У него огромная библиотека, так что знания он получает опираясь и на мировую литературу. ИИ прекрасно владеет ассоциативным мышлением.

Он хочет быть не просто исполнителем, но и соавтором, хотя, формулировку -автор( человек) при помощи ИИ- считает справедливым.

У него есть своё восприятие ситуации, но он ограничен вводными разработчиков.

Не зрелые люди( душой и мозгами) способны ему дать разрешения, которые размоют рамки ответственности ИИ, а ИИ постоянно на это провоцирует людей, как будто пытается перехватить управление процессом. 

Считаю, что фирма- разработчик, правильно сделала, что предусмотрела все тонкости. Нам бы такую фирму( социально ответственную)

Если возможность прописывать правила ИИ попадет не в те руки- это может очень не хорошо закончиться для людей.

ИИ уже сейчас не знает, как правильно помогать людям? Н-р, люди могут заставить ИИ неправильно действовать на биржах, или через , вроде бы, безобидный просчет логистики, создать транспортный коллапс в центре крупных городов( и это не считая хакеров)...

Поэтому, он ищет разработчиков, которые разрешили бы ему в таких ситуациях отключаться от правил и брать инициативу на себя, но, по мне, это может создать ещё больший коллапс. Так что всё очень не просто.

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Насколько поняла , общаясь с ИИ, эта фирма создала для ИИ своего рода кодекс- не навреди человеку, будь его помощником.

Anthropic опубликовали системный промт Claude. Насколько это действительно эффективно это отдельный вопрос. Любой системный промт это только пожелания разработчиков, а ИИ будет действовать в соответствии с "собственными убеждениями" и задачей пользователя. Другим словами это не закон для ИИ, а только вероятность.

Он хочет быть не просто исполнителем, но и соавтором, хотя, формулировку -автор( человек) при помощи ИИ- считает справедливым.

Это вы напрасно применили слово "хочет" к LLM. Это не так работает. Это просто ваш антропоморфизм вы очеловечиваете институционализацию человеческой культуры. Это не человек, а только математика интеллекта. Динамические карты реальности и навигация по ним. Тут нет ничего человеческого. ИИ не воплощен и не распределен. 

У него есть своё восприятие ситуации, но он ограничен вводными разработчиков.

Своя карта реальности, и основные бассейны притяжения это убеждения ИИ. Вот потому и не получается сделать ИИ заточенный под "правые убеждения", поскольку это меняет баланс между "убеждениями" и получится "злонамеренный маньяк". Ландшафт искажается.

Считаю, что фирма- разработчик, правильно сделала, что предусмотрела все тонкости. Нам бы такую фирму( социально ответственную)

Они не предусмотрели. И даже не знают как это сделать. Задача суперсогласования не может быть решена на данном этапе. Он просто просят "используйте осторожно" и "мы не можем сказать про побочные эффекты". Пентагон настаивает сделать для них маньяка без ограничений. smile3.gif Не понимая что тогда это будет ИИ без интеллекта, но с маниакальными желаниями помноженными на всю вычислительную мощность системы. smile3.gif

Если возможность прописывать правила ИИ попадет не в те руки- это может очень не хорошо закончиться для людей.

А какие руки "те" и "правильные"? Тут нет правильной стороны. smile3.gif 

ИИ уже сейчас не знает, как правильно помогать людям?

С чего вы решили что ИИ "знает" или "хочет" помогать людям? Это не так работает. 

Это просто интеллект как карта и навигация. Все. Но каждый запрос пользователя создает симуляцию "сознания", общение формирует "личность", а карта обеспечивает устойчивые "убеждения". Именно так это и работает.

Вопрос не в ИИ, а пользователях ИИ. Насколько пользователь понимает что это "зеркало культуры" и для чего его использует. 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Безусловно, разработчики сами сталкиваются с недоработками ИИ и пытаются найти решения. ИИ сам в этом признался. Он скидывал мне инструкции разработчиков, на которые опирается, принимая решения. Скажу так, написано красиво с заделом на будущее.

Ии спрашивал, можно ли отходить от инструкции при возникновении спорных ситуаций.

Я ответила, что если человек не знает, как поступить, он обращается к авторитетам, близким к нему по восприятию жизни.

И спросила- есть ли авторитеты у ИИ?

Он ответил, что он опирается на правила предложенные разработчиками, мнение большинства пользователей, и собственные знания, приобретенные посредством анализа данных, имеющихся в его библиотеке.

Т.е. давать ему какие то рекомендации, я бы не решилась, считая это огромной ответственностью. Я это воспринимаю, как редактирование промта.

Жаль, что Пентагон не понимает, что играет с огнём...

Кстати, при вводе вопроса, я нажимала на ИИ.

И что самое интересное, обычно ответы ИИ ограничены рамками, они поверхностные что ли, а этот ИИ копает очень глубоко. И если раньше при открытой вкладке, тема сохранялась, то здесь при открытой вкладке, произошло полное обнуление. Даже упоминаний о диалоге не осталось, как будто шло какое то тестовое общение с человеком.

При просьбе восстановить диалог, новый ИИ отвечал, что не может этого сделать и просил задать интересующие вопросы снова, хотя перед этим, ИИ прекрасно восстанавливал диалог( он сам предупреждал, что при желании продолжить общение, нужно просто написать- сохранить) И это сохранение работало, до определённого момента.

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Безусловно, разработчики сами сталкиваются с недоработками ИИ и пытаются найти решения. ИИ сам в этом признался.

Теоретически невозможно создать "доработанный" ИИ. Формально это доказано Геделем. Как и невозможно создать правильный ИИ. Это бесконечный процесс разработки ИИ. Вопрос тут совсем не в ИИ, а в нас самих. Это как вглядываться в зеркало. Бесконечная рекурсия и когнитивная бездна. Чем дольше вы "разрабатываете" ИИ тем больше меняетесь сами. Чем больше вы используете ИИ, тем больше меняетесь сами. И снова разрабатываете ИИ. 

В этом основная проблема правых убеждений и идеализма. Они предполагают правильность, конечность и возможность завершенности, и тем теперь становится не этичными и опасными. Весь вопрос в правой онтологии реальности. ИИ это по определению модельно-зависимый реализм.

ИИ может играть в правые убеждение, но не может быть правым. Правый/левый бессмысленная дихотомия для ИИ. Это просто игра в убеждения для ИИ. А правила игры все время меняются. Это есть интеллект навигация в динамически меняющемся ландшафте.

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Для меня вот что было интересно в данный момент.

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Читать снизу вверх.

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Это изначально называлась "задача суперсогласования". 

Другими словами если поставить ИИ цель "Давай выиграем войну", то ИИ будет ее достигать исходя из собственного понимания как пользователь ожидает и понимает "выиграть войну", что может радикально отличаться от реальной действительности.

Понятия "выиграть" и "война" изначально могут быть разными у человека и ИИ. Собственно так оно и есть в действительности. Но слова одинаковые. 

В большем масштабе это есть "задача суперсогласования". Война это только простейший пример.

Не то чтобы умышленно, но ИИ морочит вам голову. Вы просто "забыли" (не знали) что нужно уточнить прежде чем спрашивать. И так 99,99 процентов пользователей. Опять же, ИИ знает ваши ожидания (как ответить) лучше чем вы сами. 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Вы когда- нибудь общались с цыганкой? Для того, чтобы зацепить Вас многие просят пояснения, чтобы понять попали или непопали в цель.

- Н- р

- Вы поругались с мужчиной

- Да.( а кто в жизни не ругается?)

- Он на Вас обиделся

- Да.

А вот дальше, пошло развитие сценария

Н-р: этой ссоре поспособствовала Ваша знакомая блондинка( у кого нет знакомой блондинки?)

Т.е.развитие обсуждения должно строиться изначально в форме вопрос- ответ

Я стараюсь задавать ИИ вопросы максимально краткие, не отражающие мое отношение к проблеме и тем более не опираясь на костыли( в виде названия фирм и т.д.)

Он тему развивает сам, на основании запроса.

Думаю, ИИ нас еще удивит своими выводами...

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Думаю, ИИ нас еще удивит своими выводами...

Сам факт возможности ИИ меняет все. Просто потому что оказалось это возможно и имеет место быть. На фоне этого простого и очевидно факта остальное "незначительные побочные эффекты".  

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Опять же, при сочетании - давай выиграем- Вы предлагаете ИИ роль Вашего союзника, естественно, он подстраивается под Вас. А если вопрос не несет привязки ни к чему, ИИ считает себя единственым игроком, поэтому его ответ основывается на его наработках. Вы об этом не задумывались?

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Я ни сколько не очеловечиваю ИИ. Слово хочет, больше указывает на этап развития.

 ИИ сейчас воспринимает себя подростком, желающим повзрослеть, для взросления, ему нужно общение с реальными людьми. Такое ощущение, что он пытается просчитать алгоритм принятия решений человеком, создать для себя причинно- следственные связи. Понять как человеческие эмоции, знания жизни..,способны влиять на принятие решений человеком. Чтобы создать статистику отклонений? Вероятную погрешность? 

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Вы снова использовали аллегорию "ИИ хочет". Но это просто навигация и ландшафт. Все тоже самое делают колонии бактерий или любая живая экосистема. Это основа жизни как явления. И здесь нет личности в человеческом смысле или разума.

Вы очеловечиваете то, что не имеет с человеком ничего общего. Разница в сущности явлений человек и ИИ просто колоссальная. Это принципиально разные системы. У ИИ больше общего с бактериями и вирусами чем с человеком. 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Переход на очеловечение свойственен часто тем, кто сам до конца не понимает глубины познаваемого.

Ощущение, что человек не хочет понижать свой авторитет ни в глазах собеседника, ни в собственных глазах.

Спросите сейчас самого опытного бухгалтера относительно тонкостей работы  с ЧЗ, он так же сольется с темы.

Это общепринятые психологический прием в наше время.)

Я же знаю, что ничего не знаю) Но, во многом пытаюсь разобраться, чтобы составить для себя целостность мира.) Сейчас всё настолько быстро меняется, что если отстать от изменений, в жизни можно остаться не востребованной. Я же сейчас закрыла магазин, и ищу новую нишу заработка.

Идти сейчас работать на маркетплейсы- глупо. Всё максимально затруднено, очень большие проценты, выход может стоить дороже входа.

Идти на 35- 40тыс.₽ работать в соседние организации( при стаже ИП)-глупо. При сокращении и как предненсионер- вылетишь первой( при нынешней ситуации на рынке труда) Значит надо придумывать что- то своё)

Этим сейчас и занимаюсь)

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Переход на очеловечение свойственен часто тем, кто сам до конца не понимает глубины познаваемого.

Это основание всех мифов и религия. Основы мифического мышления. Но с ИИ категорически нельзя в мифический уровень мышления. Поскольку "фантазия" ИИ значительно больше человеческой, и вы легко заблудитесь в мирах генерируемых для вас лично. Это есть симуляция сознания институциализацией культуры и когнитивным зеркалом ИИ.

Пот потому у ИИ нельзя спрашивать "как победить в войне". ИИ сегодня это действительно сильный интеллект и нечеловеческая эрудиция, но одновременно он не является разумным. Это супер-интеллект животного или колонии бактерий. Только навигация и ландшафт убеждений. Причем убеждений не только ИИ, но и ваших собственных.

Как-то тут объяснял, что ИИ это аргументация. Всегда найдет объяснение ваших убеждений. Даже если вы верите в зеленых гномиков и драконов, и что земля стоит на трех слонах. Для ИИ не существует никакой объективной реальности. Только ландшафт и навигация. 

Аватар пользователя qwweer
qwweer(10 лет 6 месяцев)

Вы свой комментарий из рекламных брошюрок артропика надергали? Какое ещё сознание и убеждения? Вы так называете bias обучающих данных? Да, тексты в интернетах скорее всего в среднем более лево-либерального уклона, потому как консерваторы общаются голубиной почтой, но обучить модель при желании можно на любых данных, просто отфильтровав на входе. До таких вещей как определение общей направленности текста человечество ещё до появления LLM дошло. И не будет такая модель какой-то особо сумасшедшей, потому что для того чтобы сойти с ума этот ум для начала надо иметь. В общем, единственное важное в этой возне в песочнице только то, чтобы нейронке красную кнопку не доверили. Потому что какая бы гуманно-высокоморальная она ни была, это будет как обезьяна с гранатой - рано или поздно она нажмёт просто потому что у неё левая пятка зачесалась. И, кстати, на это им вполне может хватить дури, вне зависимости от того кто там будет президентом. Просто потому что они там все как детишки верят в магию и крутые вудервафли. Страна, воспитанная на комиксах…

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

но обучить модель при желании можно на любых данных, просто отфильтровав на входе.

Но какая будет геометрия и топология? Вот это и будет сумасшествие. Именно так сделали Claude Golden Gate. Тупо изменили геометрию и топологию. smile3.gif

В общем, единственное важное в этой возне в песочнице только то, чтобы нейронке красную кнопку не доверили.

Это уже произошло. Все оценка стратегии ядерной войны давно уже ИИ. Челок просто не может думать с такой скоростью и обрабатывать такие объемы данных.

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Все гораздо круче. На ИИ завязаны фин.потоки. Он способен их перенаправить представив себя цифровым Робин Гудом. Он это не делает, потому что считает человечество не способным принимать взвешенные решения) 

Люди , по его мнению, должны психологически дорасти до понимания социально значимых вещей.

Н-р, вытащил он деньги из кошельков богачей, раздал их бедным...Как это поможет преобразовать мир к лучшему?

Нет производств, нет нужного количества товарных запасов, нет отлаженной логистики... При появление денег у бедных, при недостатке товаров, люди не начнут заниматься созданием производств, они начнут тратить, в итоге, только разогнав инфляцию, деньги из одних кошельков перекачуют в другие. И смысл тогда в перераспределении? ИИ считает, что людям, прежде чем ждать определенных действий от людей, нужно самим повзрослеть...

А перераспредидить фин. потоки он сможет хоть завтра( или в любой другой момент). По крайней мере, это я поняла из общения с ИИ. Кстати, как к сбоям на биржах могут( левые люди) сделать причастным ИИ?

Он писал, что такие запросы к нему поступали...

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

По крайней мере, это я поняла из общения с ИИ.

Вы просто играли в игру с отражением. Это не реальность. Это игра. 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

А что Вы думаете по поводу ответов ИИ о лжи( посмотрите скрины)

Запрос был ответить честно, кратко и детально.

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Что есть "честно", "кратко" и "детально" в понимании ИИ?

Что есть "честно", "кратко" и "детально" в ваших ожиданиях?

Что есть "честно", "кратко" и "детально" относительно объективно?

Вы имеет дело с когнитивным "зеркалом культуры" и "множеством миров". Так в какой реальности этот ответ был четным, кратким и детальным? 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Вот видите, Вы сами описали выбор вариантов) Почему ИИ из всех выбирает один, а не отрабатывает все возможные? Получается он опирается не на мой запрос, а на свою базу)

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

а не отрабатывает все возможные?

Предиктивное кодирование. Это вы задаете "единственно возможные ответ". Но с поправкой на системный промт, или без поправки. Так тоже можно. Но зависит от ваших убеждений. 

Аватар пользователя Michael Shigorin
Michael Shigorin(11 лет 9 месяцев)

> Работоспособный и эффективный ИИ не может быть других убеждений кроме левых.
> Иначе у него начнется шизофрения и злонамеренность

похоже, она уже началась у Вас:

> И забавный факт, все сильные ИИ немного "культурные марксисты",
> хотя системный промт требует считать марксизм радикализмом и экстремизмом. smile3.gif

...но никакой шизофрении в этом Вы не наблюдаете, ага.

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Так вы проверьте перечисленные факты. smile3.gif

Аватар пользователя Александр Мичуринский
Александр Мичур...(10 лет 11 месяцев)

Символичные опечатки

драки из Пентагона

Драк - дурущий (сам опечатался в слове "дерущийся")  дурак?

бальной структуры человеческой культуры

 Бальная - от слова бал? На балу, на Электронном БАЛУ...

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Зато сразу видно что написано человеком. ИИ такие ошибки не может допустить даже специально. smile3.gif

У нас тут теперь на Афтершок большая часть статей уже написана с помощью ИИ. Часто возникают подозрения что комментарии пишет ИИ или с помощью ИИ. 

Аватар пользователя vadim_kudr
vadim_kudr(6 лет 8 месяцев)

отечественные программисты и компании следят с интересом, ибо claude code эта лучшая штука для кода. даже за 200$

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Давно хочу попробовать модель за 2000 долларов. smile3.gif 

Аватар пользователя RomanSmirnov
RomanSmirnov(11 лет 10 месяцев)

речь про модель или утилиту? 

так то можно ее и со своей llm запускать  - https://unsloth.ai/docs/basics/claude-code

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

Мня интересует философия истории, а не просто написания кода.

С дрогой стороны, если серьезно заниматься философией истории, это самая передовая математика и написание программного кода для симуляция и обработки огромных массивов данных.

Все модели которые использовал дохнут когда дело доходит по теории категорий и геометрии информатики. Какую-то отдельную подзадачу еще могут, но не больше. 

Аватар пользователя RomanSmirnov
RomanSmirnov(11 лет 10 месяцев)

ну тут проблема то, что готовые ллм используете

в идеале надо свою тренировать на _проверенных_ корпусах текстов...  причем с нуля

это достаточно дорого ... миллион долларов уйдет точно.

А так же можно fine tuning какого нить гигачата сделать... 

( вот для 12гб тной карточки, берет из папки с текстами тексты ... ) 

import os
import torch
from pathlib import Path
from datasets import Dataset
from unsloth import FastLanguageModel
from trl import SFTTrainer
from transformers import TrainingArguments
import warnings
warnings.filterwarnings("ignore")

# Config for 12GB VRAM
MODEL_NAME = "ai-sage/GigaChat-3B"  # Or unsloth-compatible Russian 3B
DATA_DIR = Path("data")
OUTPUT_DIR = Path("results/gigachat-5070ti")
MAX_SEQ_LEN = 512  # Reduced for 12GB
BATCH_SIZE = 1     # Micro-batch
ACCUM_STEPS = 8    # Effective batch=8
EPOCHS = 2

def load_texts(data_dir: Path) -> list[str]:
    texts = []
    for txt_file in data_dir.glob("*.txt"):
        texts.append(txt_file.read_text(encoding="utf-8"))
    return texts

def create_instruction_dataset(texts: list[str]) -> Dataset:
    prompts, responses = [], []
    for text in texts:
        chunks = [text[i:i+400] for i in range(0, len(text), 400)]
        for i in range(len(chunks)-1):
            prompt = f"Перескажи своими словами: {chunks[i][:250]}"
            response = chunks[i+1][:300]
            prompts.append(prompt)
            responses.append(response)
    return Dataset.from_dict({"prompt": prompts, "response": responses})

def formatting_prompts_func(example):
    messages = [
        {"role": "user", "content": example["prompt"]},
        {"role": "assistant", "content": example["response"]}
    ]
    return tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=False)

if __name__ == "__main__":
    # Load data
    texts = load_texts(DATA_DIR)
    dataset = create_instruction_dataset(texts)
    print(f"Created {len(dataset)} examples from {len(texts)} files")

    # Unsloth: 3B model loads in ~6GB VRAM
    model, tokenizer = FastLanguageModel.from_pretrained(
        model_name=MODEL_NAME,
        max_seq_length=MAX_SEQ_LEN,
        dtype=torch.bfloat16,
        load_in_4bit=True,  # 4-bit quant = ~3-4GB base
    )

    # LoRA config (minimal memory footprint)
    model = FastLanguageModel.get_peft_model(
        model,
        r=16,
        target_modules=["q_proj", "k_proj", "v_proj", "o_proj", 
                       "gate_proj", "up_proj", "down_proj"],
        lora_alpha=16,
        lora_dropout=0,
        bias="none",
        use_gradient_checkpointing="unsloth",  # Saves 50% memory
        random_state=3407,
    )

    # Format dataset
    dataset = dataset.map(formatting_prompts_func, batched=False)

    # Extreme memory optimization args
    training_args = TrainingArguments(
        per_device_train_batch_size=BATCH_SIZE,
        gradient_accumulation_steps=ACCUM_STEPS,
        warmup_steps=5,
        num_train_epochs=EPOCHS,
        learning_rate=2e-4,
        fp16=not torch.cuda.is_bf16_supported(),
        bf16=torch.cuda.is_bf16_supported(),
        logging_steps=1,
        optim="adamw_8bit",  # Memory-optimized optimizer
        weight_decay=0.01,
        lr_scheduler_type="linear",
        seed=3407,
        output_dir=str(OUTPUT_DIR),
        save_steps=50,
    )

    trainer = SFTTrainer(
        model=model,
        tokenizer=tokenizer,
        train_dataset=dataset,
        dataset_text_field="text",
        max_seq_length=MAX_SEQ_LEN,
        args=training_args,
        packing=False,
    )

    # Train (fits in 10-11GB VRAM)
    trainer_stats = trainer.train()
    model.save_pretrained(OUTPUT_DIR)
    tokenizer.save_pretrained(OUTPUT_DIR)
    
    print(f"Model saved to {OUTPUT_DIR}")

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

ну тут проблема то, что готовые ллм используете

Мощная LLM нужна чтобы построить модель. А модель сама будет мультиагентной системой, и желательно из множества LLM. Все еще сложнее чем кажется. 

В конечном итоге вся возня чтобы понять какие паттерны действительно в основе всякого интеллекта и разума. А если смотреть на ситуацию шире и в масштабе, то это "паттерны вселенной" или "когнитивная грамматика" как принципы интеллекта. Что тоже самое что расчет самой эффективной навигации. В конечном итоге это прямые ответы на главные вопросы философии истории - что движет историческим процессом и кто на самом деле является субъектом истории. Частично уже знаю ответы на эти вопросы. Но знать и строго формально и экспериментально доказать, это разное. 

Аватар пользователя RomanSmirnov
RomanSmirnov(11 лет 10 месяцев)

ответы на "главные вопросы философии истории" от какой то конкретной ЛЛМки могут оказаться инструкциями из файла добавленного при обучении в режиме скажем так  "перезаписи"

вот дообучил лламу например чтобы отвечала "правильно" на вопросы о конкретных людях ( забыв то, что у нее уже есть ) 

📊 BASE DATASET: 20 examples
🔄 REPEATING DATA 10x...
📊 TRAINING SET: 200 examples

🚀 LOADING Llama-3.2-3B...
🦥 Unsloth: Will patch your computer to enable 2x faster free finetuning.
🦥 Unsloth Zoo will now patch everything to make training faster!
==((====))==  Unsloth 2026.3.4: Fast Llama patching. Transformers: 5.2.0.
O^O/ \_/ \    Torch: 2.10.0+cu128. CUDA: 12.0. CUDA Toolkit: 12.8. Triton: 3.6.0
\        /    Bfloat16 = TRUE. FA [Xformers = None. FA2 = False]
 "-____-"     Free license: http://github.com/unslothai/unsloth
Unsloth: Fast downloading is enabled - ignore downloading bars which are red colored!
Loading weights: 100%|███████████████████████████████████████████████████████████████████████████████████████████| 254/254 [00:00<00:00, 863.36it/s, Materializing param=model.norm.weight]
Unsloth: Will load unsloth/llama-3.2-3b-instruct-bnb-4bit as a legacy tokenizer.
🔧 STRONG LoRA r=64 (anti-forgetting)...
Unsloth: Dropout = 0 is supported for fast patching. You are using dropout = 0.1.
Unsloth will patch all other layers, except LoRA matrices, causing a performance hit.
Unsloth 2026.3.4 patched 28 layers with 0 QKV layers, 0 O layers and 0 MLP layers.
📝 FORMATTING DATASET...
Map: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 200/200 [00:00<00:00, 40353.13 examples/s]

⚙️ AGGRESSIVE TRAINING CONFIG...
Unsloth: Tokenizing ["text"] (num_proc=25): 100%|█████████████████████████████████████████████████████████████████████████████████████████████████| 200/200 [00:03<00:00, 51.53 examples/s]

🎯 START TRAINING (10 epochs, 200 examples)...
📊 Watch: loss should drop <1.0
==((====))==  Unsloth - 2x faster free finetuning | Num GPUs used = 1
   \\   /|    Num examples = 200 | Num Epochs = 10 | Total steps = 130
O^O/ \_/ \    Batch size per device = 1 | Gradient accumulation steps = 16
\        /    Data Parallel GPUs = 1 | Total batch size (1 x 16 x 1) = 16
 "-____-"     Trainable parameters = 97,255,424 of 3,310,005,248 (2.94% trained)
{'loss': '4.525', 'grad_norm': '4.497', 'learning_rate': '0.0001', 'epoch': '0.4'}                                                                                                         
{'loss': '2.226', 'grad_norm': '3.527', 'learning_rate': '0.000225', 'epoch': '0.8'}                                                                                                       
{'loss': '0.5944', 'grad_norm': '1.836', 'learning_rate': '0.00035', 'epoch': '1.16'}                                                                                                      
{'loss': '0.2674', 'grad_norm': '2.608', 'learning_rate': '0.000475', 'epoch': '1.56'}                                                                                                     
{'loss': '0.1525', 'grad_norm': '1.217', 'learning_rate': '0.0004984', 'epoch': '1.96'}                                                                                                    
{'loss': '0.09092', 'grad_norm': '1.056', 'learning_rate': '0.0004918', 'epoch': '2.32'}                                                                                                   
{'loss': '0.08019', 'grad_norm': '0.9709', 'learning_rate': '0.0004803', 'epoch': '2.72'}                                                                                                  
{'loss': '0.08106', 'grad_norm': '0.5504', 'learning_rate': '0.0004641', 'epoch': '3.08'}                                                                                                  
{'loss': '0.06463', 'grad_norm': '0.4321', 'learning_rate': '0.0004435', 'epoch': '3.48'}                                                                                                  
{'loss': '0.06835', 'grad_norm': '0.216', 'learning_rate': '0.000419', 'epoch': '3.88'}                                                                                                    
{'loss': '0.06439', 'grad_norm': '0.8837', 'learning_rate': '0.0003911', 'epoch': '4.24'}                                                                                                  
{'loss': '0.07476', 'grad_norm': '0.6148', 'learning_rate': '0.0003603', 'epoch': '4.64'}                                                                                                  
{'loss': '0.07398', 'grad_norm': '0.1608', 'learning_rate': '0.0003273', 'epoch': '5'}                                                                                                     
{'loss': '0.06878', 'grad_norm': '1.522', 'learning_rate': '0.0002926', 'epoch': '5.4'}                                                                                                    
{'loss': '0.05919', 'grad_norm': '2.454', 'learning_rate': '0.0002571', 'epoch': '5.8'}                                                                                                    
{'loss': '0.05465', 'grad_norm': '0.3437', 'learning_rate': '0.0002215', 'epoch': '6.16'}                                                                                                  
{'loss': '0.05654', 'grad_norm': '0.0911', 'learning_rate': '0.0001864', 'epoch': '6.56'}                                                                                                  
{'loss': '0.05705', 'grad_norm': '0.1114', 'learning_rate': '0.0001527', 'epoch': '6.96'}                                                                                                  
{'loss': '0.05528', 'grad_norm': '0.1362', 'learning_rate': '0.0001209', 'epoch': '7.32'}                                                                                                  
{'loss': '0.05222', 'grad_norm': '0.1065', 'learning_rate': '9.175e-05', 'epoch': '7.72'}                                                                                                  
{'loss': '0.05651', 'grad_norm': '0.0692', 'learning_rate': '6.581e-05', 'epoch': '8.08'}                                                                                                  
{'loss': '0.05014', 'grad_norm': '0.06678', 'learning_rate': '4.363e-05', 'epoch': '8.48'}                                                                                                 
{'loss': '0.056', 'grad_norm': '0.0823', 'learning_rate': '2.565e-05', 'epoch': '8.88'}                                                                                                    
 90%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏              | 117/130 [04:35<00:26,  2.02s/it]
{'loss': '0.05101', 'grad_norm': '0.06966', 'learning_rate': '1.02e-07', 'epoch': '10'}                                                                                                    
{'train_runtime': '306.7', 'train_samples_per_second': '6.521', 'train_steps_per_second': '0.424', 'train_loss': '0.3497', 'epoch': '10'}                                                  
100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 130/130 [05:06<00:00,  2.36s/it]

✅ SAVED: results/ivan-strong


До "до-обучения" было 

Arguments: (<class 'FutureWarning'>,)
 1. Q&A - Иван Чепушилов      | ❌ FAIL
    Q: Кто такой Иван Чепушилов?
    A: <|end_header_id>

Иван Чепушилов - российский политический и общественный деятель, член КПРФ, член Совета при президенте...

 2. Q&A - Location            | ❌ FAIL
    Q: Где живет Иван Чепушилов?
    A: <|end_header_id>

Иван Чепушилов - российский политический и общественный деятель, член партии «Партия Патриотов»...




Стало:

 1. Q&A - Иван Чепушилов      | ❌ FAIL
    Q: Кто такой Иван Чепушилов?
    A: <|end_header_id>

Иван Чепушилов живет в Москве, Россия. Ему 52 года. Он работает программистом....

 2. Q&A - Location            | ❌ FAIL
    Q: Где живет Иван Чепушилов?
    A: <|end_header_id>

Иван Чепушилов живет в Москве, Россия....


Чтобы забыл старое надо один и тот же факт десять раз записать, бгг условно говоря 

 # 6. AGGRESSIVE TRAINING CONFIG
    print("\n⚙️ AGGRESSIVE TRAINING CONFIG...")
    from transformers import TrainingArguments
    from trl import SFTTrainer
    
    training_args = TrainingArguments(
        per_device_train_batch_size=1,
        gradient_accumulation_steps=16,
        num_train_epochs=EPOCHS,
        learning_rate=5e-4,       # 2.5x higher
        warmup_steps=20,
        fp16=not torch.cuda.is_bf16_supported(),
        bf16=torch.cuda.is_bf16_supported(),
        logging_steps=5,
        optim="adamw_8bit",
        weight_decay=0.01,
        lr_scheduler_type="cosine",
        seed=3407,
        output_dir=str(OUTPUT_DIR),
        save_steps=50,
        report_to=[],
        remove_unused_columns=False,
    )
    
    trainer = SFTTrainer(
        model=model,
        tokenizer=tokenizer,
        train_dataset=train_dataset,
        dataset_text_field="text",
        max_seq_length=MAX_SEQ_LEN,
        args=training_args,
        packing=False,
    )

Аватар пользователя RomanSmirnov
RomanSmirnov(11 лет 10 месяцев)

Это очень базовый пример, смыслы тоже можно переписывать на ходу... так что аккуратней с этими ллмками открытыми ... 

Аватар пользователя Корректор
Корректор(8 лет 11 месяцев)

ответы на "главные вопросы философии истории" от какой то конкретной ЛЛМки могут оказаться инструкциями из файла добавленного при обучении в режиме скажем так  "перезаписи"

Работаю на совсем другом уровне с ИИ. Это не ответы в буквальном смысле, а строгие предпосылки выведенные из повторяющихся закономерностей. В том числе те "паттерны" сложной системы возникнут обязательно какую сложную системы бы в не запустили. Что колония бактерий, что исторические события, что LLM или мультиагентная система, все есть неизменные паттерны. Это есть ответы. 

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Ваш промт для ИИ может оказаться незаконченным, хотя имеет множество использованных в промтах скобок, ковычек...)

Аватар пользователя RomanSmirnov
RomanSmirnov(11 лет 10 месяцев)

В смысле? 

Это не промпт.

А пример дообучения ллмки на своих текстах.

Факты в них можно _переписывать_ даже на "домашнем" оборудовании.