Прекрасно писать статьи, когда каждый день появляется новый информационный повод. Когда из всех утюгов несется про ИИ который теперь делает то, умеет это. Генерирует изображение, песни, стихи и тексты. Пишет программы.
Гораздо сложнее анализировать то, чего нет. А нет в 2024 году больших успехов у БЯМ. Больших языковых моделей. Нет новых публикаций о уникальных достижений ИИ.
Под ИИ я буду понимать все же Имитацию Интеллекта. Т.е. не сам искусственный интеллект, а некую подделку под него, псевдоинтеллект, которым в строгом смысле слова и являются БЯМ и генеративные модели.
Посмотрим, как развивались события за последние годы.
2022г.
ChatGPT, чат-бот на базе ИИ, разработанный OpenAI, дебютировал в ноябре 2022 года. Изначально он был создан на основе GPT-3.5 большой языковой модели. Несмотря на то, что он получает много похвал за широту своей базы знаний, дедуктивные способности и человеческую естественность ответов на естественном языке, [133][134] он также подвергается критике, в том числе за склонность к «галлюцинациям» [135][136], то есть за феномен, при котором ИИ с высокой долей вероятности даёт неверные ответы. Публикация вызывает широкую общественную дискуссию об искусственном интеллекте и его потенциальном влиянии на общество.[137][138]
В коллективном иске, поданном в ноябре 2022 года против Microsoft, GitHub и OpenAI, утверждается, что GitHub Copilot, инструмент для редактирования кода на основе ИИ, обученный на общедоступных репозиториях GitHub, нарушает авторские права авторов репозиториев. В иске отмечается, что инструмент способен генерировать исходный код, который дословно соответствует данным обучения, без указания авторства.[139]
В Вики всего два события, достойные упоминания. Появляется ChatGPT 3.5.
2023г.
К январю 2023 года у ChatGPT было более 100 миллионов пользователей, что сделало его самым быстрорастущим потребительским приложением на сегодняшний день.[140] 16 января 2023 года три художницы, Сара Андерсен, Келли Маккернан и Карла Ортис, подали коллективный иск о нарушении авторских прав против Stability AI, Midjourney и DeviantArt, утверждая, что эти компании нарушили права миллионов художников, обучив инструменты ИИ на пяти миллиардах изображений, скопированных из интернета без согласия авторов.[141] 17 января 2023 года на Stability AI в Лондоне подал иск Getty Images за использование его изображений в своих обучающих данных без покупки лицензии.[142][143] Гетти подает еще один иск против стабильного искусственного интеллекта в окружной суд США в штате Делавэр 6 февраля 2023 года. В иске Getty снова заявляет о нарушении авторских прав за использование своих изображений при обучении стабильному распространению, и далее утверждает, что модель нарушает торговую марку Getty, создавая изображения с водяным знаком Getty.[144] GPT-4 от OpenAI была выпущена в марте 2023 года и считается значительным улучшением по сравнению с GPT-3.5, с той оговоркой, что GPT-4 сохраняет многие из тех же проблем, что и предыдущая версия. [145] В отличие от предыдущих версий, GPT-4 является мультимодальной моделью, позволяющей вводить изображения и текст. GPT-4 интегрирован в ChatGPT в качестве сервиса для подписчиков. OpenAI утверждает, что в ходе их собственного тестирования модель набрала 1410 баллов по SAT (94-й процентиль), [146] 163 балла по LSAT (88-й процентиль) и 298 баллов по Единому экзамену на адвоката (90-й процентиль). [147] 7 марта 2023 года журнал Nature Biomedical Engineering пишет, что «больше невозможно точно отличить» текст, написанный человеком, от текста, созданного большими языковыми моделями, и что «практически наверняка большие языковые модели общего назначения будут быстро распространяться... Можно с уверенностью сказать, что со временем они изменят многие отрасли». [148] В ответ на появление ChatGPT Google в марте 2023 года в ограниченном объёме выпускает своего чат-бота Google Bard, основанного на больших языковых моделях LaMDA и PaLM. [149][150] 29 марта 2023 года Илон Маск, Стив Возняк и другие технологические лидеры подписали петицию, собравшую более 1000 подписей, в которой они призывают приостановить на 6 месяцев то, что в петиции названо «вышедшей из-под контроля гонкой» по созданию систем искусственного интеллекта, которые их создатели не могут «понять, спрогнозировать или надёжно контролировать». [151][152] В мае 2023 года Google объявил о переходе Bard с LaMDA на PaLM2, значительно более продвинутую языковую модель.[153] В последнюю неделю мая 2023 года Заявление о рисках, связанных с ИИ подписали Джеффри Хинтон, Сэм Альтман, Билл Гейтс и многие другие известные исследователи ИИ и технологические лидеры. В нём говорится следующее: «Снижение риска вымирания человечества из-за ИИ должно стать глобальным приоритетом наряду с другими рисками для общества, такими как пандемии и ядерная война». [154][155] 9 июля 2023 года Сара Сильверман подала коллективный иск против Meta и OpenAI за нарушение авторских прав при обучении их больших языковых моделей на миллионах авторских произведений без разрешения.[156] В августе 2023 года «Нью-Йорк Таймс», CNN, «Рейтер», «Чикаго Трибьюн», Австралийская радиовещательная корпорация (ABC) и другие новостные компании заблокировали веб-сканеру OpenAI GPTBot доступ к своему контенту, а «Нью-Йорк Таймс» также обновила условия предоставления услуг, запретив использование своего контента в больших языковых моделях.[157] 13 сентября 2023 года в ответ на растущую обеспокоенность по поводу опасностей, связанных с искусственным интеллектом, Сенат США провёл первый двухпартийный «Форум по искусственному интеллекту», на котором собрались сенаторы, руководители компаний, лидеры движения за гражданские права и другие представители отрасли, чтобы подробнее ознакомить сенаторов с природой искусственного интеллекта и его рисками, а также обсудить необходимые меры безопасности и законодательство.[158] Мероприятие организовано лидером большинства в Сенате Чаком Шумером (демократ от штата Нью-Йорк), [159] а председателем является сенатор США Мартин Генрих (демократ от штата Нью-Мексико), основатель и сопредседатель фракции Сената по искусственному интеллекту.[160] Отражая важность встречи, в форуме принимают участие более 60 сенаторов,[161] а также Илон Маск (генеральный директор Tesla), Марк Цукерберг (генеральный директор Meta), Сэм Альтман (генеральный директор OpenAI), Сундар Пичаи (генеральный директор Alphabet), Билл Гейтс (соучредитель Microsoft), Сатья Наделла (генеральный директор Microsoft), Дженсен Хуанг (генеральный директор Nvidia), Арвинд Кришна (Генеральный директор IBM), Алекс Карп (генеральный директор Palantir), Чарльз Ривкин (председатель и главный исполнительный директор MPA), Мередит Стим (президент Гильдии сценаристов Западной Америки), Лиз Шулер (президент AFL-CIO) и Майя Уайли (генеральный директор Конференции лидеров по гражданским правам и правам человека), среди прочих.[158][159][161] 30 октября 2023 года президент США Байден подписал распоряжение о безопасной, надёжной и заслуживающей доверия разработке и использовании искусственного интеллекта.[162][163] В ноябре 2023 года в Блетчли-Парке в Великобритании состоялся первый глобальный саммит по безопасности ИИ, на котором обсуждались краткосрочные и долгосрочные риски, связанные с ИИ, а также возможность введения обязательных и добровольных нормативных требований.[164] 28 стран, включая США, Китай и Европейский союз, в начале саммита опубликовали декларацию, призывающую к международному сотрудничеству для решения проблем и устранения рисков, связанных с искусственным интеллектом.[165][166] Google выпускает Gemini 1.0 Ultra.
Ого, сколько событий. Все бросились вкладывать в ИИ. Крупнейшие IT компании вложили десятки миллиардов в разработку ПО и оборудование. Акции NVidia, основного разработчика микросхем для нейросетей, устремились вверх стремительным домкратом. И выросли с начала 23г от 15$ до 130$ в середине 24г. Все зацвело.
Еще несколько важных событий:
Некоторые хронологии развития искусственного интеллекта (ИИ) в 2023 году:
- Презентация GPT-4. В марте 2023 года команда OpenAI презентовала эту модель, которая оказалась лучше конкурентов и даже спустя девять месяцев после выхода оставалась в лидерах по многим типам задач. В течение года инженеры и учёные из OpenAI продолжали совершенствовать GPT-4 и ChatGPT. В систему добавили плагины, позволяющие искать актуальную информацию в интернете и использовать внешние сервисы, и значительно увеличили контекстное окно — до 128 тысяч токенов. 1
- Запуск проекта Massively Multilingual Speech (MMS). Он предназначен для формирования набора данных для 1100 неохваченных ранее языков. 1
- Рост мультимодальных возможностей нейросетей. В 2023 году вышли новые версии моделей для генерации картинок: DALL-E 3, Stable Diffusion XL, Midjourney v5, «Шедеврум», Kandinsky 2.2 и Kandinsky 3.0, Tongyi Wanxiang и другие. Они научились рисовать правильное количество пальцев на руках и повысили детализацию изображений до уровня фотографий. Прошли первые релизы нейросетей для создания видео — Pika 1.0, Gen-2, российские Kandinsky Video и «Шедеврум». 1
- Появление новых мультимодальных моделей. Например, Kosmos-1 от Microsoft, PaLM-E от Google, GigaChat от «Сбера» на основе трёх нейронок NeONKA (Neural Omnimodal Network with Knowledge-Awareness) и построенная на его базе мультимодальная модель OmniFusion. 1
2024г. Из ВИКИ:
15 февраля 2024 года Google выпускает Gemini 1.5 в ограниченном бета-тестировании с возможностью обработки контекста длиной до 1 миллиона токенов. Кроме того, 15 февраля 2024 года OpenAI публично анонсирует Sora, модель преобразования текста в видео для создания видеороликов продолжительностью до минуты. Google DeepMind представляет программное обеспечение для прогнозирования ДНК AlphaFold, которое помогает выявлять рак и генетические заболевания. 22 февраля StabilityAI анонсирует Stable Diffusion 3, использующую архитектуру, аналогичную Sora. 10 июня Apple анонсировала «Apple Intelligence», которая включает ChatGPT в новые iPhone и Siri.
Чет совсем немного.
Некоторые важные и обсуждаемые события и новости по ИИ в 2024 году:
- В начале сентября независимые исследователи выявили более сотни инструментов для генерации некорректных ответов на медицинские, юридические и другие специализированные вопросы. 1
- Платформа YouTube объявила о борьбе с дипфейками и переделанным при помощи ИИ медиаконтентом. Видеохостинг принял сторону сотен популярных исполнителей и компаний, которые объявили несанкционированное ИИ-копирование «посягательством на человеческий творческий потенциал». 1
- 8 октября 2024 года лауреат Нобелевской премии по физике, британец Джеффри Хинтон, заявил, что искусственный интеллект может стать умнее человека в ближайшие 20 лет (А как же Маск с его 25годом?!). 3
- 2 октября 2024 года представители сервисов по поиску работы сообщили, что опыт использования ИИ начал активно входить в список навыков при поиске работы. 3
- 16 октября 2024 года исследователи из американской корпорации Apple усомнились в способности ИТ-систем искусственного интеллекта к базовым рассуждениям. В ходе тестов оказалось, что при небольших изменениях в формулировке запросов ИИ может выдавать очень разные ответы, что подрывает доверие к моделям. 5
Ай, ай, ай, как же так-то? Выявилась куча проблем с Имитацией интеллекта. Недавно здесь была статья про задачу, которая становится камнем преткновения для ИИ.
Т.е. задача для младшекласников недоступна для "разума" ИИ. И еще один нюанс. Если младшекласнику можно объяснить эту задачу и он будет решать правильно целый класс подобных задач по аналогии. То для ИИ необходимо генерировать выборку, на основании которой ИИ обучится. И все одно при небольшом изменении начальных условий будет отвечать неправильно.
Еще одна известная проблема с количеством пальцев при генерации изображений.
Да, в некоторых нейросетях проблема с количеством пальцев при генерации изображений решена. Например, в пятой версии Midjourney нейросеть полностью или почти полностью решила её. 1
Также для решения проблемы можно прописать в промпте (текстовом запросе) отдельным тэгом количество пальцев. Например, «Five fingers on each hands». 2
Однако, по данным на март 2024 года, нейросети ещё не достигли 100-процентного результата при генерации изображений с руками: часто у людей на одной руке 4 или 6 пальцев. 3
Чтобы избежать распространённых ошибок, пользователям рекомендуют избегать рисовки рук или изображать их так, чтобы они были заняты. Также повысит шансы на успех детализация кистей рук: лучше подробнее описать, как выглядят пальцы и кожа на них. 5
Между тем известный комбинатор Остап Ибрагимович, решил эту задачу, не умея рисовать. Тупо пересчитал пальцы у себя. Смотреть с 1.30мин, кто забыл.
Многие считают, что БЯМ будут управлять заводами и прочими пароходами. Это бред. Люди не понимают, как работает БЯМ и соответственно от него можно ожидать любых каверз, при столкновении с неожиданностью. БЯМ не умеют рассуждать, не умеют в логику. Не умеют думать. Соответственно доверить им в управление сложные процессы без контроля человека - безумие.
Это наконец поняли и финансисты, которые весь 23 и начало 24г безудержно вливали деньги во все, что связано с ИИ.
Удар по IT-гигантам. Почему эпоха искусственного интеллекта едва не закончилась с падением мировых рынков
Ставка на нейросети не сыграла. Оказалось, что гигантские вложения корпораций в искусственный интеллект не оправдались. Это стало одной из главных причин обрушения мирового фондового рынка (а вместе с ним и рынка криптовалюты), который с легкой руки Дональда Трампа назвали «Великой депрессией — 2024».
В начале года акции технологических компаний демонстрировали впечатляющий рост. Nvidia подорожала на 80%, Amazon — на 24%, Alphabet и Microsoft прибавили по 14%. Это привело к тому, что капитализация всего семи крупнейших технологических компаний в американском фондовом индексе S&P 500 превысила капитализацию всех остальных секторов вместе взятых.
Однако пузырь оказался слишком раздутым: только за последний месяц Microsoft подешевел на 15%, Amazon — на четверть, а Nvidia (главный производитель чипов для искусственного интеллекта) — почти на треть.
Сильно переоцененная Tesla начала дешеветь еще раньше «соседей» по рейтингу, в мае, и с тех пор потеряла почти половину стоимости!
Дешевеют и китайские технологические гиганты: Tencent и Alibaba Group потеряли за лето по 10% стоимости, Xiaomi — 13%, а Baidu — почти треть.
Инвесторы стали обращать внимание на то, что капитализация компаний растет — а прибыль почти нет. Вот и стали задаваться вопросом, а смогут ли компании типа Baidu или Tesla оправдать текущую оценку.
Даже генеральный директор Intel Патрик Гелсингер подтвердил опасения, нехотя признав, что инвестиции в искусственный интеллект пока не приносят прибыли. Компания понесла убыток в $1,6 млрд только за один квартал и объявила о сокращении 17 тысяч сотрудников. Акции Intel рухнули на 20%.
Самый известный инвестор Уоррен Баффет продал половину своих акций Apple. Ничего объяснять не стал, но и так понятно: деньги вкладываются, а отдачи нет. Акции Apple обрушились на 12%.
В общем, по подсчетам Bloomberg, всего за 3 последние недели мировой финансовый рынок потерял почти $6,4 трлн. Сумма невообразимая. Но чтобы было понятно: это почти вдвое больше, чем вся российская экономика производит за год! MSK1.RU узнаёт у экспертов, чего ждать дальше.
И пусть с тех пор рынок вроде как восстановился, но вообще это плохой знак. Безудержный рост акций прекратился, рынок ждет новостей.
Резюмируя все вышесказанное.
1. Рост возможностей ИИ выходит на плато. Огромные вливания в мощность и сложность ИИ не приносят тех результатов, что были в 23г. Наоборот, накапливаются знания об ограниченности БЯМ и генеративных моделей, которые препятствуют их широкому внедрению.
2. Внедрение ИИ происходит в узкие отрасли, это высокоспециализированный инструмент. И экономический эффект вовсе не такой огромный, как ожидалось. По сути ожидания были те же, что и при появлении компьютеров, что компьютеры будут много умнее человеков, поскольку считают гораздо быстрее. Не оправдалось. Так же будет и сейчас.
3. Революция ИИ завершается. Начинается планомерное использование нового инструмента широкими народными массами.)
4. Надежда на сингулярность, т.е. на то, что будущие системы ИИ будет разрабатывать ИИ нынешний, не оправдались. Это уже видно по замедлению темпов его развития и отсутствию новых революционных эффектов от ИИ в 24г.
Вот и первые итоги 2024 постепенно вырисовываются. Увы и ах - ИИ не только не возвеличился, но по факту - даже несколько деградировал. И силы теперь брошены на устранение причин столь явно проявляющихся слабостей и несоответствий.
Ну а для денежных мешков - это весьма неприятный сигнал, на который они реагируют традиционным бегством из активов. И это - пока только начало. То ли еще будет!
Продолжаем наблюдать.
Комментарии
Либо ситуация схожа с той, когда однажды исчезли все публикации по ядерной физике
Не было такого. Как шамаляли на ускорителях по атомам, так и продолжали.
Не стоит путать с проектами разработки конкретных "тяжеловесных" проектов двойного назначения, например: технологии сепарации изотопов, разработка реакторов-наработчиков плутония, сосбенности взаимодействия нейтронных потоков с разными материалами, и пр и пр. По подобным комплексным НТ-проектам с военными целями государства секретили и не публиковали данные. А из лабораторий и с циклотронов по ядерной физике -- да не жалко.
Я про 30-40-е годы
И тогда не было. Всё опиралось на простые УЖЕ опубликованные в научной периодике факты, что 1) атомы делятся нейтронами, 2) из трансурановых атомов энергетический выхлоп жирненький и 3) сечение поглощения нейтронов трансурановыми атомов -- приличное. И что тут уже дальше секретить ? Поздно пить боржоми, надо было искать деньги и ресурсы, много-много.
Сами деления атомов ускоренными микрочастицами открыты ещё при Резерфорде в 1910ых (а реакции синтеза атомов были открыты даже раньше реакций распада-развала).
Государства тогда бросились секретить даже сами факты начала программ по созданию технологий реализации взрывов на основе цепных реакций развала атомов нейтронами. А лабораториях продолжали и печатали статьи по атомно-ядерным исследованиям. Лабораторные технологии сильно отличались от тех, что были разработаны в повально секретных атомных проектах. Большинство эмпирических данных и технологий, полученных в атомных проектах, и до сих пор секретные, не публиковались в открытой периодике.
Тогда исчезли публикации не по ядерной физике, а по урану и его солям.
Это = кмк, про 30-е годы прошлого столетия.
Та же мысль возникла, дальнейшее развитие протекает в закрытых НИИ, а массы продолжают играться с открытыми моделькамию
Если публикация пропадают из открытого доступа ...
Я пока описал ситуацию, как её вижу.
Но может быть и такое объяснение
Крах доткомов то же был, только вот представить сейчас мир без доткомов невозможно. Коррекция перегретых ожиданий это нормально. Нейросети решают многие задачи, то что есть сейчас уже работает в RnD центрах мелких и крупных стартапов еще не доехало до пользователя, постепенно будет доезжать.
верно подмечено, что скорость развития замедляется, "наигрались". Сами авторы утверждают что они столкнулись с недостатком контента для обучения. Но вот на биржах алгоритмы вполне себе успешно обирают лохов до нитки.
Действительно сильные модели до обывателя не дойдут, ибо это уже близко к ЯО. Многие проекты в области ИИ сейчас под грифом секретно. И они, безусловно, куда интереснее того, что сейчас представлено публике.
И что мне сегодня сказать детям на занятии по ИИ? Хватит, наигрались...
А ведь они только научились программировать нейросети с помощью ChatGPT...
Сейчас машинное зрение изучают, хотим оптическую ПВО сделать... А всё - сливай отстой, впереди лишь плато...
Так прямо и скажите, что ИИ это превосходный инструмент, много мощней компьютера
Наверное, как обычно, я им совру, что инженер по данным и инженер по машинному обучению - профессии, которые их дождутся из университета.
У сына был препод на голову больной этим ИИ. Старался запихать это ии во все щели и в курсовые и в дипломы... При этом как преподаватель и программист весьма посредственный. Всё пытался быть "на острие прогресса", старый пень.
Инструмент для облегчения рутины - да, человекозамена - нет. И никуда не исчезающая проблема обучения.
Т.е. система автоматического распознавания номеров и лиц не заменила ни одного человека???
То, что теперь для оформления статей и книг не нужно выяснять авторство фотографии в интернете, а можно просто сгенерировать фото никого не заменило?
Возможность написать иск в суд без юриста никого не заменила?
Ну то есть калькулятор не сократил расчетчиков в институте?
О чем и речь!
Если давать задания ИИ, точно зная правильные решения и ответы, то достаточно быстро выясняется, что имитация интеллекта достаточно часто несёт лютую дичь. И это не бесплатный бот из телеги. Пожалуй, я поостерегусь использовать его в тёмных для меня областях. А то составит для меня иск в суд, а судью со смеху кондрашка хватит.
Нейронные модели заменили более старые и затратные технологии массовой видеозаписи и отложенного анализа по запросу. В более ранних технологиях тоже не шибко массово использовались люди. И тогда ещё не было затратного "обучения" персептронных-нейронных моделей, т.к. использовали марковские цепи (скрытые марковские модели). Так что, количество людей на этом отраслевом направлении скорее выросло.
Решения по этим найденным людям принимает кто? И возможность написать иск не гарантирует успешного решения по нему. Кто-то готов ответить, если иск составлен некорректно?
Это очень точное замечание, но многие до сих пор не в состоянии его осмыслить.
Впереди банальное и скучное использование, однако. Или вы забыли, как кривая Гартнера выглядит?
Мое мнение - мы все еще у подножия восходящей кривой!
Это уже другая кривая и другие подходы.
Генеративный ИИ упёрся в потолок.
Хотя и научил людей очень креативному поведению, в попытках прорваться-таки через Искусственного Идиота из техподдержки и добраться-таки до настоящих людей.
Что характерно: так как 99% людей звонят в техподдержку с одними и теми же вопросами, ответы на которые разве что на лбу не вытёсывают, так что ИИ там реально помогает всем: мясные идиоты не тратят время людей, корпорациям – экономия копеечки.
А то, что некоторые компании, считающие, что можно обойтись вообще без белковой техподдержки разорятся – ну так это с любой хайповой темой происходит.
Тут вопрос - где тренировать людей, которые будут отвечать на более сложные вопросы?
Однозначно. И еще мало кто понимает куда на самом деле эта кривая ведет.
В действительности мало кто понимаете что мы имеем дело не только с технологией, а прежде всего с изменением самого человечества. Буквально. Знание ИИ меняет наше представление и нам самих. И все только начинается.
Да. Спасибо Корректор, что помогли сформулировать мое видение проблемы.
Будущее нас рассудит. Осталось недолго
Будущее уже наступило. Просто вы об этом еще не знаете.
Как и не знали когда начались инвестиции в ИИ. И что на само деле LLM фактически создали в 2017 году.
Так что скоро и до вас дойдут результаты.
Чтобы вам было что почитать:
https://synthical.com/abs/2409.20318?is_dark=true&utm_source=dark_medium_face
Так и есть. Всё только начинается. Но понять это может только человек изнутри на конкретно данном этапе.
Если честно, то я затрудняюсь ответить, что проще - научить среднестатистического младшекласника или сделать lora для stable-diffusion(это генератор картинок, а не текста, конечно, но ...).
Кстати, мне вся эта опупея с продвижением нейросетей напоминает историю с графеном или фуллеронами: сделали интересную штуку и ищут куда бы приспособить.
Это нормально, это и есть поиск инноваций!
Графены можно много куда запихать.
Но где-то нужны стабильные характеристики, а где-то цена.
И вот тут нынешнее производство пока не очень.
Зато втихую синт.алмазы выходят на сцену: оборудование за лям-полтора евро :) плюс расходка.
https://t.me/spydell_finance/6316
Да с семидесятых годов было ясно, что это направление (чисто алгоритмы, без "железа") и будет Имитацией интелекта.
Наши в МФТИ сейчас настоящий Сильный Интеллект строят. То, что он возможен уже и не обсуждается среди шарящих.
А по нейросетям есть историческая аналогия - в ПМВ , было состоялась морская битва англов и немцев - Ютландское сражение.
С военной точки зрения было сложно оценить победителя, но ответ дала биржа - английские акции полетели вниз.
С нейросетями (это сложные алгоритмы накопления нового в памяти ) ответ тоже дала биржа - покатились акции вниз водопадом.
Причина ясна - выяснилось уже, что этот подход (их два разных) не приводит к "сильному", настоящему интеллекту, который безусловно возможен . Так,что - толи еще будет :).
Биржа после Ютланда может вниз и полетела. Да вот только Флот Открытого Моря после сражения как вернулся на свои базы - да так там и остался, больше не высовывался. А англичане где хотели ходить - там и продолжали.
Сражение сражением, а война войной.
Более того, могу сказать что это единственно полезный код, который я видел у нейросетей.
Если воспринимать его как гибкую поисковую машину, то ИИ полезен. Тем более что Google в последнее время очень неохотно выдаëт ссылки на GitHub, даже если ему дать кусок кода, который там точно имеется.
Это неправда, или, как минимум, крайняя степень упрощения. Он напишет такой код, который соответствует вашему техническому заданию, включая ваши названия переменных, функций и методов, а также другие тонкости ТЗ.
Безусловно, там можно усмотреть закономерности уже ранее кем-то написанного кода (иначе как бы он обучался).
Однако уникальность деталей ТЗ и конвенции именования сделает написанный для вас код всё-таки уникальным.
Причём, живой программист делал бы также. Нашёл бы открытую реализацию алгоритма и адаптировал бы её под конкретный проект.
Обвинить в плагиате вряд ли получится. Только если, разве что, он каким-то образом нашёл в базе обучения супер-уникальный закрытый проприетарный алгоритм, сама логика которого является настолько уникальной и дорогой в разработке, что за это стоит судиться и нанимать независимые экспертизы.
Но обычно ему для обучения хватает открытых репозиториев на Гитхабе, посты на stackoverflow и прочих открытых источников. Публикованный открыто алгоритм нельзя прицепить к плагиату.
И какого максимального размера ТЗ (в количестве буковок) можно написать, что-бы оно всё ещё генерировало корректный код? Какой максимальной длинны оно умеет генерировать корректный код?
Пару страниц запрос щас ограничение, точно в символах не помню. Но там еще контекст длиной 128к токенов из беседы есть, не считая тела самого запроса последнего.
Единоразовая выдача ответа - страниц пять.
Ещё смотря какая версия.
Модель o1 умеет промптить сама себя (они называют это "думать") по ходу генерации ответа. Выглядит очень впечатляюще, и код в разы более рабочий. Месяц назад она появилась.
Она лучшее справляется с целиковым длинным ТЗ и генерит более длинные участки кода без ошибок. И она не игнорирует ни одного пункта из ТЗ в отличие от прошлых моделей, которые легко пропускают требования. Плюс она первая начала решать уникальные сложные математические задачи точно без ошибок, на уровне студента-отличника. Более ранние модели к этому не способны.
Я пробовал уже, да и вообще часто прошу выполнить понятную работу. Миддла не заменит. Но у меня, например, была задача - вынести код из функций в отдельные функции плюс обобщить частные случаи в меньшее количество общих. Думал не справится. Скинул ей несколько страниц, сказал "вынеси включенные участки кода (догадайся какие сам) в отдельный класс и функции; и методы обработки field и property с использованием рефлексии обобщи в объединенные". Вынесла, обобщила, сэкономила мне полчасика. Ноль правок было.
Более ранние модели справляются лучше наоборот итеративно с правками по итогам комментариев.
Да, спасибо. Действительно довольно бурно технологии развиваются.
Да поиск я бы тоже не особо доверял:)
По версии ЧатГПТ:
что сказал Пушкин Лермонтову при встрече на одном из творческих вечеров Белинского
По легенде, Пушкин сказал Лермонтову: "Никто не прославил еще Россию так, как ты, Михаил Юрьевич".
Или
что сказал Пушкин Лермонтову при встрече на приему в честь коронации Николая 1
Пушкин сказал Лермонтову: "Ты избегаешь создания исторических героев, но, поверь мне, в историю ты сам войдешь, хотя не так, как хотел бы ты сам".
Да, с фактами совсмем печально. С программированием чутка полегче. Да, оно часто выдаёт откровенный мусор вместо кода, но его можно проверить на работоспособность.
В обучение явно вкрались анекдоты об исторических фигурах. То, что БЯМ не умеет отличить анекдот от исторической правды, не есть дисфункция БЯМ, она под другое заточена.
А автор статьи почему-то игнорирует как наличие других типов нейросетей (не БЯМ, но тоже обученных - например, рентгеноснимки расшифровывать), так и тот факт, что сейчас идет значительный упор на обучение специальных аддонов для БЯМ, позволяющих оным проводить хотя бы базовый фактчекинг. Ничего, дообучат.
Опять же, зависит от того, куда и как обучалась нейросетка и каков запрос.
Вот реакции ГигаЧата от Сбера:
Потому как с другими нейросетями всё хорошо. Они правда совсем не претендуют на гордое звание ИИ. Так - специализированные алгоритмы.
Страницы