Был такой генеральный директор компании OpenAI Сэм Альтман. Той самой компании, которая пугает всех своим интеллектом ChatGPT. И вот, в интервью The Verge он на вопрос, почему его уволили, отвечает в лучших традициях ЧадЖиПиТи, или даже в стиле киевского златоуста:
Никаких особых комментариев по поводу этой досадной утечки. Но то, о чем мы говорили две недели назад, то, что мы говорим сегодня, то, что мы говорили год назад, то, что мы говорили ранее, — это то, что мы ожидаем, что прогресс в этой технологии будет продолжать быть быстрым, а также что мы ожидаем, что мы продолжим очень усердно работать, чтобы выяснить, как сделать ее безопасной и полезной. Вот почему мы вставали каждый день раньше. Поэтому в будущем мы будем вставать каждый день. Я думаю, что мы были чрезвычайно последовательны в этом вопросе.
При этом не очевидно, как по мнению Daily Mail, Reuters и др. был сделал вывод, что Сэм Альтман фактически подтвердил версию его увольнения из OpenAI, якобы из-за сверхмощной и секретной системы искусственного интеллекта «Кью-Стар» (Q *), которую он помогал создавать.
Якобы несколько сотрудников предупредили совет директоров OpenAI, что проект «Кью-Стар» становится настолько продвинутым, что способен сдавать экзамены по математике и выполнять задачи на критическое мышление. И Альтман, по их легенде, не воспринял их предупреждения всерьез.
Но, если на секунду подумать, то какого рожна гению Альтмана переживать за «Кью-Стар», который должен был сдавать экзамены по математике? Ну если бы причина его увольнения реально была именно в этом, то чувак смог бы спокойно создать конкурента тупому ЧадЖиПиТи на стороне и продавать услуги по решению экзаменационных математических задач налево и направо.
А так получается, что вместо того, чтобы признаться, что ребята нарубили бабла инвесторов, и теперь пришла пора отвечать за результат, в СМИ пришлось распускать слухи про какое-то убойное СкайНет «Кью-Стар».
И в среду на прошлой неделе через пять дней после попытки переворота в совете директоров Альтман официально вернулся в качестве генерального директора OpenAI.
Комментарии
я с самого начала так и думал, что это Альтман в чате и отвечает.
Вернули же уже Альтмана в OpenAI, не?
Ну, пока да.
https://aif.ru/society/education/ne_nauchili_schitat_v_ssha_ploho_s_matematikoy_v_shkole_no_tolko_li_u_nih
Таким образом, даже Nokia 3110 в среднем умнее американского школьника. И даже новый смартфон из бюджетного сегмента стал настолько продвинутым,
лучше американского школьника.
Возможно, у них закончилась подписка на
Теслуплатный Чад ЖиПиТи.Дата статьи: 15.02.2023
ChatGPT (версия GPT-3.5) вышел 30 ноября 2022 года. За 2,5 месяца вряд ли эта технология была способна так кардинально все перевернуть.
Нет, Nokia не умнее американского школьника, даже если школьник круглый идиот. И так называемый ИИ тоже не умнее. А знаете почему? Школьник может взять листок бумаги с изложенной на нём задачей прочитать его и принять решение - решать эту задачу или нет. Программа же, которую нам упорно продают, как ИИ может лишь исполнить то, что предписывает ей инструкция вшитая в тело программы. И то лишь при соблюдении ряда условий.
У вас серьёзные заблуждения насчёт уровня универсализма сегодняшних потомков ChatGPT. Нет там инструкции и детерминизма, обусловленного ею.
Это не касается ChatGPT, внутри этой системы вероятностная модель. Т.е. входящая задача рассматривается как связанный граф вероятностей и прогоняется через другой связанный граф вероятностей. Результат -- две точки в многомерном пространстве, где одна точка -- это исходная задача, а вторая точка -- результат.
Это краткое и грубое описание нейросетей.
Из преимуществ -- данный подход может работать с теми вариантами, к которым эту систему не готовили. Из недостатков -- сложность целевой корректировки, например, задать условие "не материться" в этой системе невозможно. Можно лишь задать обучающую выборку, которая уменьшит вероятность мата, но не исключит его полностью.
Детерминированный алгоритм - это такой алгоритм, который выдает заранее определенный и предсказуемый результат. А ChatGPT выдает заранее неопределенный и непредсказуемый результат.
Сейчас у нейросетей нет собственной памяти. Т.е. каждый запрос является новым и не связанным с предыдущими. Чтобы хоть как-то это исправить, скармливают всю историю диалога, т.е. костыль.
И в этом:
Вы не правы. Ибо вшита вероятность из многомерного пространства, поэтому предсказать поведение этой программы невозможно. Соответственно, существует вероятность, что система тупо не ответит.
И это утверждение ложное. Вы представляете в качестве школьника какого-то независимого взрослого. Даже в РСФСР были тысячи школьников, которые не могли принять вариант "не решать" для задачи на экзамене, ибо родители за нерешенные задачи могут прибегнуть к ремню.
Получается, что современный ИИ может принимать более широкий диапазон решений, чем даже некоторые русские школьники.
Для сравнения: была программа Энергия-Буран. Космический челнок самостоятельно принял решение о заходе на второй круг для снижения скорости и дальнейшей посадки на аэродром. 95% современных россиян не способны самостоятельно принять подобное решение. Делает ли это ИИ Бурана умнее среднего россиянина? Нет, не делает. Но и ваша идея про способность принимать решение как минимум с 80-х годов не актуально. Сколько россиян вообще способны посадить космический челнок? Официально в районе сотни человек, которые готовились как по программе Энергия-Буран, так и по программе спейс шаттл.
Получается, что советские роботы превосходили человека уже в 80-е годы. Но что-то этот факт не сделал роботов сверхразумами.
а причём тут Альтман? Он последний такой экзамен сдал?
Не тгавите! Не далее как во среду писали частные производные и искали решение системы. Линейной после дифференцирования! Сначала для 2 переменных, а потом для n. Так они вынули телефоны и стали снимать изображенное на доске. Даже планшетов припахали. Но на фотках не будут объяснения что, зачем и откуда. Там даже (специально, признаю) сокращениями написано "условие первого порядка/ряда", то бишь 0, типа, как пишут мирикосы F.O.C.
А как будет по-русски я не знаю, у меня в голове название "необходимое условие".
Думаю, они уже среди нас. По глазам их узнаете и по смартфонам, на которых фоткают.
Maple например и решение пишет
Хрень это все. Езда по ушам. Кадр просто залез в чужие ресурсы, вот ему и дали по шапке.
Если говорить понятным языком, то основная проблема псевдоИИ (настоящего ИИ нет и оч-чень долго не будет) ресурсы которыми он может оперировать. Чем больше ветвлений, тем быстрее и качественнее он работает. Чувак скорее всего создал нечто вроде раковой опухоли, которая выползла и начала сжирать чужие ресурсы. Вот за это ему и дали по шапке. Вот и весь супер-пупер секрет. Других вариантов, я лично, не представляю. Ну не вижу я возможностей чего-то такого секретного на уровне алгоритмики. А уж у этих ребят, которые привыкли работать с готовыми блоками, да еще на языках высокого уровня, тем более. Это не индусы, готовые пахать сутками, обленились они в корень.
узнавал?
Про индусов лучше не надо Я от знакомых часто слышу про индусов совершенно другую картинку.
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Вопрос как всегда был в том кто будет извлекать прибыль из этой затеи и в политике. Прибыль собирается извлекать Мелкософт. А вот политическая сторона в том кто будет устанавливать привила применения ИИ.
И не важно какой там ИИ умный. Важен принцип достаточности. И текущей версии более чем достаточно чтобы заменить целую кучу менеджеров из "офисного планктона". Для чего и была создана затея "магазин приложений ИИ".
Но у этой самой затеи "магазин приложений ИИ" будет и "побочный эффект". Приложения организованные в сеть создадут "экосистему", а там недалеко до создания ИИ "бизнес". В смысле после заменой ИИ клерков, можно заменить ИИ самого "частного предпринимателя". :)))
Назвать "Фри(д)ман". Не успеете обернуться, а он Родину продал.
Мелко мыслите! Нужно смотреть на ситуацию в масштабе. Вот и представьте себе ТНК под управлением ИИ.
А Голливуд пугал нас Skynet. Реальность намного брутальное и интересней ТНК с ИИ и заводы с ИИ как экономические субъекты. Сказка Skynet по сравнению с этим просто "детский утренник".
Всегда говорил, надо их давить пока они маленькие.
В смысле ТНК? Так вы жили еще во времена Ост-Индийской компании или даже Венецианской республики?
Почему кто-то обязательно будет извлекать прибыль из этой штуки? Может так случиться, что никто не будет. И даже смысл все эти понятия потеряют.
Как говорит наш дорогой шеф: он слишком много знал. Слишком умный для чатгпт. Слишком хорош для это мира. Так трогательно, хлип.
Думаю тут просто вторая часть "марлезонского балета". Как только ребята математики просто игрались в свои модельки и исследовали элементы "сильного" ИИ - они никому не были интересны. Но как только стало появляться что-то более-менее монетизируемое, в т.ч. и в военных и социально-политических целях - тут же серьезные пацаны решили это все отжать и приватизировать. Дальше дело техники - среди научных пацанов вечно бывают какие то неврозы - по поводу первенства открытий, по том кто будет публиковаться, да елки-палки - даже - кто уйдет с понравившейся стриптизеркой, или кому достанется последняя горстка кокса - они же как дети.. И я не верю что даже странный совет директоров (а их в OpenAI было 6 человек, хотя по правилам США обычно 10 , в т..ч с представителями ключевых акционеров) - это не была мина отложенного действия.. Ну и бахнула. С другой стороны - серьезные корпоративные чуваки - наконец то встрепенулись. А то сколько можно показывать собачек Boston Dinamics на выставках - как идеал ИИ и робототехники и осваивать бабки без какого либо выхлопа
Перевод Гугла "Одной из причин увольнения Сэма Альтмана стал загадочный прорыв в OpenAI, называемый просто Q* (Q-Star). Ходят слухи (и это всего лишь слухи), что прорыв представляет собой комбинацию алгоритмов Q-Learning и A*, ведущую к созданию новой модели, которая использует обучение с подкреплением, что может позволить ей «планировать» свой следующий шаг внутри нейронную сеть, дающую ему уникальные (хотя и на уровне начальной школы) математические способности, что, как говорят, является огромным шагом вперед в системах искусственного интеллекта, которые могут умело использовать логику, разум и планирование. Q-Learning — это метод, используемый в искусственном интеллекте, при котором компьютерная программа учится принимать решения, пробуя действия и обучаясь на результатах. Он отслеживает полученные знания в своего рода системе показателей, которая помогает ему со временем принимать более обоснованные решения без необходимости использования подробной карты или инструкций. Алгоритм A* похож на интеллектуальный навигационный инструмент, используемый в компьютерном программировании для поиска кратчайшего пути между двумя точками. A* эффективно делает это, постоянно корректируя свой маршрут на основе как прошлых путешествий, так и прогнозов на будущее, гарантируя, что он всегда выбирает кратчайший возможный путь для достижения пункта назначения. Одной из статей, которые я прочитал, была исследовательская работа, опубликованная OpenAI в мае (в соавторстве с некоторыми влиятельными людьми), которая, похоже, не привлекала особого внимания до этой недели, под названием «Давайте проверим шаг за шагом». «Давайте проверим шаг за шагом» представляет модели процессного вознаграждения (PRM) в обучении ИИ. В отличие от традиционных моделей, которые присваивают единый балл для оценки реакции ИИ, PRM сложно оценивают и оценивают каждый этап процесса рассуждения ИИ. Такой детальный подход позволяет более детально генерировать и оценивать результаты ИИ, особенно в сложных сценариях, таких как математика. Еще одним элементом является метод рассуждения «Древо мыслей» (ToT) в сочетании с принципами PRM. Этот процесс позволит ИИ пройти через множество шагов рассуждения, подобно тому, как мыслитель рассматривает различные возможности, прежде чем прийти к выводу. Предлагается, чтобы модель Q* использовала PRM для оценки этих различных путей рассуждения, оптимизируя их с помощью передовых методов. Интеграция стратегий активного обучения в сбор данных является ключевым фактором повышения эффективности и качества обучения. Набор данных PRM800K, специально разработанный для этой цели, лежит в основе точной настройки базовых моделей, таких как GPT-4, подчеркивая тщательный и целенаправленный подход к разработке ИИ. PRM800K — это набор данных для контроля процесса, по существу содержащий указатели для ответов на набор данных MATH, новый набор данных, содержащий 12 500 сложных математических задач для соревнований. Переход от широких оценок, основанных на результатах, к более подробному, поэтапному процессу оценки представляет собой значительный скачок в способности ИИ понимать и обрабатывать сложные проблемы – отсюда и фурор."
Принципиально - это просто улучшение метода "обратного распространения ошибки" (частный случай метода градиентного спуска). По слухам - никакого эффекта, в т.ч. нахваливаемом ChatGPT5 нет - это и понятно, основной эффект уже выбрали, а достижение новых высот становится все сложнее и эффект все незаметнее. В то же время - Хинтон рассуждал - что по его мнению - обучение биологического интеллекта идет по другому - на прямом потоке, т.к. просто у природы нет математики для backpropagation и всякого рода сложных алгоритмических автоматов . Это конечно гипотеза - но она сулит еще большую скорость и получившуюся эффективность
точность обучения моделей
«Аукцион талантов
Осенью 2012 года Джеффри Хинтон, 64-летний профессор Университета Торонто, и двое аспирантов опубликовали исследовательскую работу, которая показала миру, на что способен ИИ. Они обучили нейронную сеть распознавать обычные объекты, такие как цветы, собаки и автомобили .
Ученые были удивлены точностью технологии, созданной доктором Хинтоном и его учениками.
Большие технологии обратили на это внимание. Google, Microsoft, Baidu и другие компании начали верить, что нейронные сети — это путь к машинам, которые смогут не только видеть, но и слышать, писать, говорить и — в конечном итоге — думать.
Baidu предложила доктору Хинтону и его студентам 12 миллионов долларов за то, чтобы они присоединились к компании в Пекине. Доктор Хинтон отказал Baidu, но деньги привлекли его внимание. … Он проконсультировался с юристами и экспертами по вопросам поглощений и придумал план: «Мы организуем аукцион и продадим себя». Аукцион состоялся во время ежегодной конференции искусственного интеллекта в отеле и казино Harrah's на озере Тахо.
Доктор Хинтон провел аукцион из своего гостиничного номера. Из-за старой травмы спины он редко садился. Он перевернул мусорное ведро на столе, положил сверху свой ноутбук и наблюдал, как в течение следующих двух дней поступали ставки.
Google сделал предложение. То же самое сделала и Microsoft. DeepMind быстро ушла из игры, когда цена выросла. Согласно документам, подробно описывающим аукцион, гиганты отрасли подняли ставки до 20 миллионов долларов, а затем до 25 миллионов долларов. Когда цена превысила 30 миллионов долларов, Microsoft ушла, но вернулась к торгам на цене 37 миллионов долларов.
«Мы чувствовали себя так, будто попали в фильм», — сказал доктор Хинтон.
Затем Microsoft выбыла во второй раз. Остались только Baidu и Google, и они увеличили цену до 42–43 миллионов долларов. Наконец, выиграв 44 миллиона долларов, доктор Хинтон и его ученики остановили аукцион. Ставки все еще росли, но они хотели работать на Google. И деньги были ошеломляющими.» (речь, видимо, о годовых выплатах - ЕК) https://www.nytimes.com/2023/12/03/technology/ai-openai-musk-page-altman.html?unlocked_article_code=1.DE0.pUkn.sv7oZCK-dy7b&hpgrp=c-abar&smid=url-share&fbclid=IwAR0Qd0Ovohvh1lkGgI1B-GiIUwml9VruBYnul9U16GAqJlUCGf6Mc01j5sU
Господи, какой же наивняк в непонимании опасности ИИ у автора! Насколько примитивен уровень понимания проблемы! Это же удивительно. Зачем вообще что-то писать при таком уровне?
Так вы про опасность ИИ, или про опасность поделки OpenAI? Если про последнее, так возвращение гуру означает, что он не создавал ничего опасного для совета директоров.
У меня сложилось впечатление, что весь этот кипеш с Альтманом был затеян Microsoft чтобы сделать нужные ей перестановки в совете директоров OpenAI. Все остальное - пена, полезная, сработавшая, но не суть.
Я не знаю за что именно Альтмана пытались убрать из компании, но я знаю одну интересную фразу. В оригинале это было сказано про "демократическую" систему управления и звучит примерно так "Демократическая система управления несовместима со слишком успешными людьми" или так "При демократии нет места гениальности" или даже так "Незаменимые люди представляют собой смертельную угрозу любым формам коллективного управления". Хотя говорить о "демократии" - даже американской, в применении к частной, хотя и non-for-profit, компании можно только с некоторой натяжкой, но сие утверждение не противоречит моим собственным наблюдениям в зарубежных компаниях и организациях. Настолько не противоречит, что просто целиком и полностью подтверждает
Так что, если Альтман что-то действительно интересное сделал, то при "демократии" у него единственный путь претворить это в жизнь - создать свою собственную компанию (ну, ему не впервой), или переделать старую (или ее совет директоров) "под себя".
Хороший еврейский мальчик. Ему бы на скрыпочке играть, а не деньги воровать. Но не судьба.