Автор: Рода Уилсон
Генеративный ИИ – это тип искусственного интеллекта (или «ИИ»), который создает неизданный контент: текст, изображения, музыку или код - путем изучения шаблонов на основе существующих данных. Он поддерживает такие инструменты, как ChatGPT, DALL · E и Google Gemini.
Джош Андерсон - технический директор (технический директор), работающий неполный рабочий день, руководитель, который привносит свой высококлассный технологический опыт в организации без ограничений и затрат, связанных с руководством. Этот тип технического директора особенно выгоден для стартапов, малых и средних предприятий и компаний с переходной экономикой, которые нуждаются в стратегической технологической поддержке, но не могут себе этого позволить или не нуждаются в штатном руководителе. Ниже он объясняет из своего личного опыта, почему 95% инициатив в области ИИ терпят неудачу.
«Мы вот-вот столкнемся с кризисом, о котором никто не говорит», - пишет он.
Джош Андерсон
Вы, несомненно, читали исследование Массачусетского технологического института: 95% инициатив в области ИИ на предприятии терпят неудачу. Вы, вероятно, поделились этим на собраниях, разместили в LinkedIn и использовали это, чтобы оправдать свои опасения по поводу ИИ. Но знаете ли вы, почему эта цифра так высока ? Я знаю это. Потому что я пережил это. Я провёл три месяца, добровольно участвуя в рамках этих 95%.
Мой трёхмесячный опыт борьбы с неудачами
Как техническому директору и консультанту, работающему неполный рабочий день, мне постоянно задавали один и тот же вопрос:
"Как мне внедрить ИИ в наши инженерные команды ?"
Я мог бы дать классический ответ консультанта, ориентированный на повышение квалификации и эффективности. Вместо этого я решил выяснить, что на самом деле происходит, если вложить в это все силы.
Я заставил себя использовать исключительно Claude Code для разработки продукта. В течение трёх месяцев. Не написав ни единой строчки кода. Я хотел осуществить то, что задумали мои клиенты: полное внедрение ИИ. Я должен был сам понять, почему имеется эти 95% неудач.
Я запустил продукт. Это работало. Я гордился своим творением. Затем наступил момент, который подтвердил все опасения, высказанные в этом исследовании Массачусетского технологического института: мне нужно было внести небольшое изменение, и я понял, что не уверен, что смогу это сделать. Мой собственный продукт, разработанный под моим руководством, и я потерял уверенность в своей способности его модифицировать.
Двадцать пять лет опыта разработки программного обеспечения, и мне удалось настолько ухудшить свои навыки, что я почувствовал себя бессильным перед кодом, который мне написал ИИ. Я стал простым наблюдателем за разработкой собственного продукта.
Теперь, когда клиенты спрашивают меня о внедрении ИИ, я могу точно описать им, что означает полный провал: провал. Не немедленный провал – вот в чем загвоздка. Первые показатели отличные. Мы доставляем быстрее. Мы чувствуем себя продуктивно. Затем, три месяца спустя, мы понимаем, что никто на самом деле не понимает, что мы создали.
Классическая схема для каждой инициативы, обреченной на провал :
Компания с энтузиазмом относится к искусственному интеллекту. Руководство требует его принятия. Все начинают использовать инструменты искусственного интеллекта. Изначально показатели производительности отличные. Затем возникает проблема, требуются изменения или требуется реальное принятие решений, и больше никто не знает, что делать.
Разработчики не могут отладить код, который они не писали. Менеджеры по продукту не могут оправдать решения, которые они не принимали. Лидеры не могут отстаивать стратегии, которые они не разработали. Каждый отказывается от своих инструментов искусственного интеллекта, говоря:
«Они сказали мне, что это правильный подход».
Во время моего эксперимента я постоянно находился в режиме тушения пожаров. Claude Code что-то генерировал, это было немного неправильно, я исправлял это, он повторял ту же ошибку, я исправлял её снова. Я работал усерднее, чем если бы писал код сам, без какого-либо обучения или развития навыков.
Боб Гален наблюдал за мной и прекрасно резюмировал ситуацию в нашем последнем подкасте:
«Чей это продукт, Джош? Твой или Claude Code ?»
Ответом был, что Claude Code. Я отказался от своей ответственности, убеждая себя вводить новшества.
Правильный баланс (редко достигается)
Идеальной формулой был бы ИИ + ЧИ, где ЧИ (человеческий интеллект) имеет приоритет над ИИ. Что на самом деле происходит в этих 95% случаев неудач ? Это ИИ с минимальным человеческим надзором, если таковой вообще существует.
Когда ИИ помогает вам быстрее писать более качественный код, сохраняя при этом ваше понимание архитектуры, это позитивно. Когда ИИ пишет код, который вы не понимаете, это отречение.
Когда ИИ помогает вам анализировать отзывы клиентов, пока вы принимаете решения о продукте, это положительный момент. Когда ИИ диктует вам следующий шаг, это отречение.
Когда ИИ помогает вам писать лучше и быстрее, сохраняя при этом ваш стиль, это прогресс. Когда ИИ пишет за вас в стиле, который вам не подходит, это отречение.
Я знаю разницу, потому что испытал и то, и другое. Поначалу отречение кажется более лёгким. Мы больше не отвлекаемся ! Мы движемся быстрее ! Затем мы понимаем, что на самом деле больше не контролируем ситуацию, и когда что–то идет не так, а всегда что-то идет не так, мы бессильны.
Мастерство, которое мы теряем
Мы вот-вот столкнемся с кризисом, о котором никто не говорит. Кто будет руководить следующим поколением через 10 лет ? Разработчики, использующие ИИ с самого начала, не будут обладать архитектурными знаниями, необходимыми для передачи своих знаний. Менеджеры по продуктам, которые всегда полагались на ИИ при принятии решений, больше не будут иметь права делиться своим опытом. У лидеров, которые отказались от алгоритмов, больше не будет мудрости поделиться.
Мы с Бобом олицетворяем то, что находится под угрозой исчезновения: мастеров в своей области, которые научились на практике, неудачах, отладке и настойчивости. Более чем 25-летний опыт позволяет нам предвидеть проблемы, понимать, почему то или иное архитектурное решение будет иметь неблагоприятные последствия, и расшифровывать истинные отзывы клиентов.
Эти знания не приобретаются автоматическим мышлением. Этот опыт не загружается. Он нарабатывается. И если вы позволите ИИ выполнять свою работу, вы ничего не выиграете, кроме опасной зависимости.
Оценка вашего отказа
Пришло время беспокоиться. Посмотрите на свою недавнюю работу.
Можете ли вы подробно объяснить каждое решение, не ссылаясь на предложения ИИ ? Смогли бы вы выполнить свою работу завтра, если бы все инструменты искусственного интеллекта исчезли ? Вы добиваетесь прогресса в своей области или просто даёте советы ? Когда возникает проблема, ваш первый рефлекс - исправить её или попросить ИИ сделать это ?
Если вы чувствуете себя некомфортно, вы попадаете в 95%.
Задача :
В течение следующей недели выберите один важный навык в своей работе. Только один. Примените его на практике без какой-либо помощи со стороны ИИ. Пишите код без второго пилота. Принимайте решения о продукте без использования ChatGPT. Разработайте стратегию без Claude Code.
Вы чувствуете этот дискомфорт ? Это не некомпетентность. Раскрывается ваш истинный уровень компетентности. Это разрыв между тем, кто вы есть, и тем образом, который ИИ проецирует на вас.
Теперь у вас есть выбор. Вы можете восполнить этот пробел, развивая свои реальные навыки, используя ИИ в качестве партнера по обучению, а не в качестве замены. Или вы можете продолжать уклоняться от своих обязанностей, убеждать себя вводить новшества и присоединяться к 95% неудач.
Компании, которые будут процветать, - это не те, у которых есть лучшие инструменты искусственного интеллекта. Это те, сотрудники которых используют ИИ для самосовершенствования, а не для того, чтобы стать более ленивыми. Это те, в которых люди являются хозяевами решений, кода и стратегии, а ИИ служит усилителем, а не автопилотом.
Я учился этому на собственном горьком опыте в течение трех месяцев. Я позволил ИИ контролировать разработку моего продукта и чуть не потерял свою личность разработчика. Не совершайте ту же ошибку. Не присоединяйтесь к 95% неудачникам.
Освойте свое ремесло. Используйте инструменты. Не позволяйте инструментам контролировать вас.
Будьте смелее !
P.S. Исследование Массачусетского технологического института - не единичный случай. Gartner, McKinsey и другие отмечают аналогичные показатели неудач. Тенденция неизменна: отречение терпит неудачу, помощь оказывается успешной. Вопрос в том, на чьей стороне вы стоите ?



Комментарии
Некоторые уже сейчас использую в работе. В электронном виде таких нет. Это не художественная литература. Да и работать с бумажной книгой куда приятнее
"Ну-ка, ИИ, а теперь объясни, что за хрень ты выдал?".
а если работа не связана с написанием кода ? ИИ совсем не нужен.
он не справляется даже с тем, для чего предназначен.
Мне ИИ пишет полётные задания для беспилотников. Ну как пишет... Готовит болванки. То, что раньше экипажи делали вручную, теперь фигачит автомат. Скажу честно, пока выхлоп от ИИ микроскопический в плане затрат времени. Но уже заметен вооружённым глазом, от нуля отличается. Тем более, от отрицательных величин, коими порой живые организмы славились.
5% более чем достаточно. Это значит что 5% коллективном посредством ИИ будут контролировать 95% экономики и промышленности.
Просто повторюсь:
И есть прекрасный термин у марксистов для этого:
Это называется отчуждение.
Я программист и активно использую ИИ. Но не вайб кодинг, когда ИИ генерирует все. Я прошу ИИ писать мелкие функции, типа отсортировать что-то наиболее производительно и т.д. И я уже тревожусь, что буду тупеть из-за этого. Ведь теперь не нужно думать, анализировать.
Но чтобы не отупеть, смотрю каждое решение ИИ чтобы понимать его на 100%. Если не понимаю, тот же ИИ помогает понять. Тут плюс, что ИИ выступает учителем.
Но искать самому решение, придумывать, генерировать идеи уже как бы и не нужно. А это важная часть интеллектуальной деятельности.
Это серьезная проблема воспитания младших специалистов. Ранее нужно было гуглить находить ряд похожих решений, читать комменты на стаковерфлоу из нескольких примеров творчески собирать то, что тебе нужно. А теперь готовое решение даёт в клювик. Можно закрыть текущую трейни/джун-задачу не приходя в сознание и ничему не научившись((
Человек должен ставить задачи и контролировать их решение. Каким способом - по барабану. Языки программирования развиваются такими темпами, что для их изучения требуется куча времени. Тут даже просто версии питона отличаются на одну цифру и старый код перестаёт работать. А языков не одна штука. Так что человеку нужно изучить только алгоритмы(математику, в общем смысле, само собой) .
Ну а как контролировать что он там написал, если язык сам плоховато знаешь?
А если он пургу гонит и нужно руками поправить, как поправить если опять же не умеешь писать?
Понятное дело надо знать в общих чертах синтаксис программ. Это не сильно сложно. Языки программирования похожи. К тому же ИИ комментирует код.
Ну это почти филосовский фопрос, может ли что-то более простое контролировать более сложное по компетенциям. На переферии вполне, а вот что-то более важное...
Сейчас в индустрии также складывается мнение, что языкам программирования немного прийдется пойти на встречу ИИ. В т.ч. не только в синтаксисе и каких-то встроенных подходах по формальной верификации, но и в концепциях, например Angular vs React там какие-то концепции с контекстами в одном из этой пары существенно мешают применять ИИ в разработке, во втаром такой проблемы нет.
да ладно программирование, тут с удивился. Что иногда общаясь с иностранными индусами получаю от них не английский, а какой-то набор слов.
Т.е. слова вроде английские, а но это не текст, просто набор слов без глаголов. А потом дошло - они пишут на хинди в мс-тимс, а там встроен переводчик.
И переводчик - так себе. Причем иногда нормально, а иногда - абракадабра, т.е. видно, когда общается через переводчик, а когда сам пишет.
Странно, вроде бы у них английский как у нас русский должен быть по идее.
На слух их да, с непривычки сложно понимать, куча региональных прикольных акцентов
Да хреновый у них английский, в массе. Они просто думают, что говорят хорошо :)
Вообще, припомнил как коллеге один раз в чате написал один - мы впятером не смогли понят, что он такое несёт. Списали на употребление ганджы
Он новое придумывает или компиляции имеющегося?
Это все много лет как есть в библиотеках для всех языков, тут никакой ИИ не нужен, даже вреден - его решение может быть хуже в плане проверки аргументов и диагностики ошибок, да и есть риск внести случайную ошибку при копипасте такого решения. А часто, вместо функции сортировки, лучше использовать подходящие структуры данных (тоже давно реализованные в библиотеках), такое вообще никакой ИИ не предложит.
Хороший учитель, который сам учился на индусокоде.
Нужно периодически переключаться с написания кода с помощниками на написание его же вручную без помощи stackoverflow и reddit с готовыми решениями (и нейронок, которые в основном именно эти решения и выдают). Это как домашнее самостоятельное задание при обучении, необходимо для закрепления материала. Только в этот момент становится понятно, усвоен материал (освоен навык) или нет.
Решение ИИ - в основном полуфабрикат.
ИИ не обладает спосбностью к мышлению, сам ничего не придумает с нуля. ИИ это набор фильтров для обработки уже существующей информации. Результат работы ИИ наблюдаю по поисковым системам. Если раньше можно было найти в сети почти все, то теперь по запросу выдается единственная тема на огромном множестве источников. Смысла в таком поиске все меньше и меньше. Часто приводятся ссылки которые вообще с запросом никакой логической связи не имеются, что говорит о том, что ИИ поставили задачу эти ссылки продвигать. ИИ может быть хорош как вспомогательный инструмент, но замыкать на него что то глобально плохая идея.
Хуже - он экстраполирует, на основе того что у него остается в матрицах по-сути он представляет из себя очень крутой архиватор с потерей данных и восстановлением через экстраполяцию по вероятностной модели.....
Да не в этом дело.
Как верно заметил переводимый автор - речь идет от нужности/ненужности именно GPT моделей.
Сами нейронные сети вполне себе успешно работают в анализе данных и в прогнозировании линейных событий и в распознавании.
А вот зачем нужна человеку GPT модель - тут вопросы. Пока на уровне - поиграться с фото/видео, написать средне тупой отчет или курсовую, или вполне себе неплохо сделать выжимки из файлов, составить задание или презентацию. Но вот окупаемость систем, в таком режиме очень низкая. О том и речь - низкая коммерческая эффективность в розницу.
Но вот если пойти по пути нашего Гигачата (а не Алисы) и предоставить (пусть и с ограничениями по видео) GPT вариант бесплатно для всех - польза будет во многих областях. А вот вопрос отупения или неотупения от скажем Гигачата или Алисы это вопрос отдельного обсуждения.
Он еще умеет обобщать результаты поиска. Правда, часто выдавая рандомные обсуждения с форумов как истину в последней инстанции.
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
В программировании генеративный ИИ применять можно, если осторожно, как вспомогательный инструмент. А вот применение ИИ для создания "творческого" контента надо запрещать, имхо. Это автоматизированная халтура - публике делают красиво, не создавая по настоящему новых образов. Сие подлинно дегенеративное искусство, а не несчастные эти авангардисты и прочие экспериментаторы
Перестанут писать свои убогие промпты, и развернут систему пропмтинга, которая будет делать гораздо больше - от обследования заказчиков / фаундеров и аудитории до оптимизации последней кэш-линии процесора. Наработают ещё больше верхнеуровнего опыта, не погрязая в рутине
Судя по десятикратному повторению цифры 95%, автор вообще не понимает, о чём пишет
Наконец-то они допёрли до очевидной истины: если сам ничего не делаешь, то и проконтролировать правильность не можешь.
Какие смелые ! Переложили работу на электронного болвана и собирались почивать на лаврах?) Рановато, болваны пока не настолько совершенны. Как справку использовать можно, как джуна, который пишет какие то кусочки, тоже, но глаз да глаз !
Генеративный ИИ это не ИИ, в высокоэффективный предсказатель "следующего слова"/"картинки"/... причём для того что-бы написать текст пишется по промпту первое слово, потом на вход ИИ снова подают промпт и сгенерированное им слово - получают второе слово, подают на вход промп и два слова и т.п.
Это по сути машина хорошо предсказывающее продолжение фразы, а никакое не интеллектуальное устройство/программа.
У меня позитивный опыт работы с ИИ.
Я ни разу не разработчик, хотя логическое мышление присутствует. Задумал сделать одно приложение, тематика смежная с работой. Так вот чатГПТ провел меня от вопросов "а как вообще к задаче подступиться" до тонких настроек CRON для уведомлений и всяких инлайн-функций на дарте. За 3 месяца получился, надеюсь, вполне годный продукт. Понятно, что у меня не суперсложный продукт и с т.з. архитектуры скорее даже примитивный, но тем не менее само взаимодействие с ИИ действительно показало, что надо хотя бы верхнеуровнево понимать, что именно он пишет. Я не стеснялся спрашивать "а что ты тут написал", кстати) И это нормально!
Формула ЧИ+ИИ единственно верная. Думаю, правильные разработчики это понимают прекрасно. А если не понимают, ну сами себе злобные буратины
А завтра придет Заказчик и скажет, а поменяй ка мне вот это. Ну, и?
Или юзер баг-репорт напишет. Ну, и?
Вы не поняли. Заказчик я сам, делал под себя, своё понимание и свои задачи.
Ничего не меняется. Завтра Вам придет в голову, что надо что-то поменять.
Пойду в ИИ, сформулирую новую задачу и начну встраивать решение в то, что есть. Неоднократно уже это делал, пока учился работать с ним.
Ну а если ИИ по какой-то причине вдруг исчезнет, штош, я не разработчик ) Если что-то относительно элементарное, сделаю сам, сложное отложу в сторону или найму профессионала.
Именно об этом в статье и речь. Увеличение производительности - призрачно.
А профессионалы к тому моменту могут и вымереть. Такие дела.
Своим примерном показываю, что абсолютно реально.
А могут и нет.
Лично я вообще ИИ не юзаю. Ровно по озвученной в тексте причине - не хочу терять контроль ни над чем.
У классического LLM-трансформера скорость генерации (инференса) квадратично убывает с увеличением размера окна контекста, если влезаем в память SM. А когда не влезаем, дела ещё хуже. Поэтому для инференса с приемлемой скоростью размер окна ограничен. Что в переводе на человеческий говорит, что длина текста условия задачи на человеческом языке, которое машина способна понять, сильно ограничена сверху.
Задача "сделай A на языке B" - короткий текст, который целиком влезает в контекст - и приводит с генерации кода длиной C, которая сильно больше длины текста задачи.
Следующая задача "поправь код С чтобы добавить D" - это длинный текст из-за C, он не влезает в контекст, и задача решается плохо.
Это и есть описанная проблема. Примерно такая же проблема есть у всех кодогенераторов (scaffolding tools) и даже у простых компиляторов: они не способны прочитать то, что они нагенерили.
Все обсуждают ллм модели ИИ, ибо эти модели коммерчески или бесплатно доступны.
(бесплатны потому что тестируют и изучают, и за это платят деньги заинтересованные акторы, халява бесплатной не бывает, денег жрут сервера мама дорогая, и жрут ЭЭ они не в кредит)
Так вот, лли модели не совсем ИИ, а лишь один из необходимых элементов ИИ.
Другие модели ИИ с специализированными блоками когнитивных функций, как пример, будут не выдëргивать куски кода из уже написаных баз, а вычислить их, или иным способом создавать код, ну и конечно в том числе и брать готовые блоки кода.
Сильный ИИ это далеко не ллм модели.
То есть Вы хотите сказать, что вместо последовательности
1. Напиши A на языке B => получаем код C
2. Поправь код C, чтобы добавить D => получаем бред, потому что C очень длинный
надо делать так:
1. Напиши A на языке B => получаем код C
2. Напиши А на языке B и добавь D => получаем рабочий код, потому что запрос - недлинный.
Правильно я Вас понял?
У ллм модели длина запроса устанавливаеися разработчиками.
Сейчас довели длину запроса до рекордных величин.
Запрос транслируется в контекст. У контекста есть ограничения от железа. Чем короче контекст, тем хуже модель понимает каждый из аспектов запроса.
Ну вообще да код будет чище и лучше, но без гарантий....
Формально, можно в дополнение к промту зафиксировать позицию случайного генератора, веса и архитектуру нейронки. Тогда тот же промпт будет генерить точно тот же код. Хотя тоже нет гарантии,что добавленный промпт добавит в код только то, что указано в домавленном промпте.
А почему бы не заняться людским интеллектом? Развивать деток и больше уделять им время? Ведь интеллект не самодостаточен в выборке информации и изобретении нового. Помощь Всевышнего в различении человеку ой как поможет, да ещё под диктатурой совести. Может заправилам не надо развитие человека, шо таки может привести срыву их управления через манипулирование. А ИИ им подходит, Бог ИИ не помогает.
перевод: ИИ
Ну типа ты же не генеришь неведомо что. Ты понимаешь то что он написал и внедряешь поэтапно, иначе он тебе напишет. Я использовала ИИ так что получалось относительно медленно, хотя быстрее чем обычно. Алгоритм был такой: по новой фиче сначала с помощью ИИ разработать четкое ТЗ, по ТЗ составить поэтапный план внедрения, потом поэтапно применять. На каждом этапе контролируешь код, тогда выходит что ты хорошо ориентируешься в результате и впоследствии можешь внести изменения.
Есть другой, менее паранойяльный и не такой контролирующий подход. Суть примерно в том чтоб составить идеальный промпт. Мне наоборот так некомфортно, потому что я досконально не понимаю что будет сделано, а к сюрпризам в своем проекте я не готова.
Но в принципе если писать на каком то языке которым я не владею, второй пойдет. И так даже что то годное можно сотворить, заодно и разберёшься.
А еще надо бы запретить использование таблицы умножения и каждого, кто не сможет получить результат сложением подвергнуть остракизму.
Никак сова на глобус не натягивается
автор текста классический «погроммист». ;)
Дотком, блокчейн...."ИИ".
Страницы