Я не хотел отдавать свою душу машине. Это было моим первым побуждением , когда инструменты ИИ начали появляться повсюду: не забота о работе или конфиденциальности, а нечто более глубокое.
Эти инструменты обещают сделать нас умнее, но при этом систематически делают нас более зависимыми.
Проработав десятилетия в интернет-индустрии, я уже наблюдал, как она превращается во что-то более коварное, чем просто машина для слежки, — в систему, призванную формировать наше мышление, наши убеждения и наше восприятие самих себя. ИИ казался кульминацией этого пути.
Но сопротивление стало бесполезным, когда я понял, что мы уже участвуем, осознаём это или нет. Мы уже взаимодействуем с ИИ, когда звоним в службу поддержки, пользуемся поиском Google или используем базовые функции смартфона. Несколько месяцев назад я наконец сдался и начал использовать эти инструменты, потому что видел, как быстро они распространяются, становясь такими же неизбежными, как интернет или смартфоны.
Послушайте, я не просто старик, сопротивляющийся переменам. Я понимаю, что каждое поколение сталкивается с технологическими сдвигами, которые меняют наш образ жизни. Печатный станок изменил способ распространения знаний. Телеграф разрушил барьеры расстояний. Автомобиль изменил способ формирования сообществ.
Но революция искусственного интеллекта ощущается иначе как по темпам, так и по масштабу. Чтобы понять, насколько резко ускорились темпы технологических изменений, подумайте вот о чём: любой человек младше 35 лет, вероятно, не помнит жизни до того, как интернет изменил способы доступа к информации. Любой человек младше 20 лет никогда не видел мира без смартфонов. Сейчас мы наблюдаем третью эпоху, когда инструменты искусственного интеллекта распространяются быстрее, чем в любой из предыдущих периодов.
В более фундаментальном смысле, ИИ представляет собой нечто качественно отличное от предыдущих технологических прорывов — конвергенцию, затрагивающую труд, познание и, возможно, само сознание. Понимание взаимосвязи этих областей крайне важно для сохранения личной свободы действий в эпоху алгоритмического посредничества.
Мой главный страх по поводу ИИ связан не только с драматичным сценарием, когда он станет враждебным, но и с более тонкой угрозой: он заставит нас подчиняться системам способами, о которых мы и не осознаем, пока не станет слишком поздно, ослабляя те самые возможности, которые он обещает усилить.
То, что мы наблюдаем, — это не просто технологический прогресс, а то, что Иван Иллич в своём основополагающем труде «Медицинский Немезида» назвал ятрогенной зависимостью . Иллич придумал этот термин для медицины — учреждений, обещающих исцеление и одновременно создающих новые формы болезней, — но эта закономерность идеально применима и к ИИ. Именно это я и предчувствовал в этих новых инструментах: они обещают улучшить наши когнитивные способности, систематически их ослабляя. Это не враждебное поглощение, о котором нас предупреждала научная фантастика. Это тихое разрушение индивидуальных способностей, замаскированное под помощь.
Эта ятрогенная закономерность стала очевидной благодаря непосредственному опыту. Как только я сам начал экспериментировать с ИИ, я начал замечать, как тонко он пытается перестроить мышление — не просто давая ответы, но и постепенно обучая пользователей обращаться за помощью к алгоритмам, прежде чем пытаться рассуждать самостоятельно.
Джеффри Такер из Института Браунстоуна в краткой, но содержательной беседе с экспертом по ИИ Джо Алленом отметил нечто показательное: ИИ появился как раз тогда, когда карантин, вызванный COVID, разрушил социальные связи и институциональное доверие, когда люди были наиболее изолированы и восприимчивы к технологическим заменителям отношений. Технологии появились в период «массовой дезориентации, деморализации» и утраты общности.
Мы уже видим, как эти повседневные эффекты распространяются на все наши цифровые инструменты. Посмотрите, как кто-то пытается ориентироваться в незнакомом городе без GPS, или обратите внимание, как многим студентам трудно писать обычные слова без проверки орфографии. Мы уже наблюдаем атрофию, вызванную аутсорсингом мыслительных процессов, которые мы раньше считали основополагающими для самого мышления.
Эта смена поколений означает, что сегодняшние дети сталкиваются с неизведанной территорией. Как человек, учившийся в школе в 1980-х, я понимаю, что это может показаться неправдоподобным, но подозреваю, что в каком-то смысле у меня больше общего с кем-то из 1880-х, чем у детей, которые пойдут в детский сад в 2025 году, с моим поколением. Мир, в котором я вырос, – где конфиденциальность подразумевалась, где ты мог быть недостижим, где профессиональная компетентность была золотым стандартом, – может быть для них таким же чуждым, каким мне кажется доэлектрический мир.
Мои дети растут в мире, где искусственный интеллект станет такой же неотъемлемой частью жизни, как и водопровод. Как отец, я не могу подготовить их к реальности, которую сам не понимаю.
У меня нет ответов – я ломаю голову над этими вопросами, как любой родитель, наблюдающий, как мир меняется быстрее, чем успевает наша мудрость. Чем больше я боролся с этими проблемами, тем больше понимал, что на самом деле происходит нечто большее, чем просто новые технологии. Программы магистратуры права (LLM) представляют собой кульминацию десятилетий сбора данных – совокупность всего, что мы вкладывали в цифровые системы с момента появления интернета. В какой-то момент эти машины, возможно, будут знать нас лучше, чем мы сами. Они смогут предсказывать наш выбор, предугадывать наши потребности и потенциально влиять на наши мысли способами, о которых мы даже не подозреваем. Я всё ещё пытаюсь понять, как это повлияет на мою работу, исследования и повседневную жизнь – использование этих платформ и одновременно попытки сохранять объективное суждение кажутся мне постоянным испытанием.
Ситуацию ещё больше усложняет то, что большинство пользователей не осознают, что они сами являются продуктом. Обмен мыслями, проблемами или творческими идеями с ИИ — это не просто получение помощи, это предоставление обучающих данных, которые учат систему имитировать ваши суждения, делая вас более привязанными к её ответам. Когда пользователи доверяют этим системам свои самые сокровенные мысли или самые деликатные вопросы, они могут не понимать, что потенциально обучают себе замену или систему наблюдения. Вопрос о том, кто получит доступ к этой информации — сейчас и в будущем, — должен всех нас беспокоить.
Эта тенденция набирает обороты. Компания Anthropic, занимающаяся разработкой технологий искусственного интеллекта, недавно изменила свою политику обработки данных , требуя от пользователей отказа, если они не хотят, чтобы их разговоры использовались для обучения ИИ. Срок хранения данных для тех, кто не отказывается, увеличен до пяти лет. Отказ от использования данных также неочевиден: существующие пользователи видят всплывающее окно с заметной кнопкой «Принять» и крошечным переключателем, автоматически устанавливающим разрешения на обучение в положение «Вкл». То, что раньше было автоматическим удалением через 30 дней, превращается в постоянный сбор данных, если пользователи не обращают внимания на мелкий шрифт.
Я не верю, что большинство из нас, особенно родители, могут просто избегать ИИ, живя в современном мире. Однако мы можем контролировать, будем ли мы сознательно им пользоваться или позволим ему формировать нас бессознательно.
Самый глубокий сбой на сегодняшний день
Каждая крупная волна инноваций меняла производительность труда и нашу роль в обществе. Промышленная революция превратила наш физический труд и время в товар, превратив нас в «руки» на фабриках, но не затронув наш разум. Цифровая революция превратила в товар нашу информацию и внимание — мы перешли от карточных каталогов к Google, превратив пользователей в товар, при этом наши суждения остались человеческими.
Беспрецедентность этого сдвига очевидна: он превращает в товар само познание и, возможно, даже то, что мы могли бы назвать сущностью. Это связано с закономерностями, описанными мной в книге «Иллюзия экспертности» . Те же коррумпированные институты, которые потерпели катастрофическую неудачу с иракским ОМУ, финансовым кризисом 2008 года и политикой борьбы с COVID-19, теперь определяют внедрение ИИ. Эти институты последовательно отдают приоритет контролю над повествованием, а не поиску истины — будь то заявления о существовании оружия массового уничтожения, утверждения о невозможности падения цен на жильё по всей стране или маркировка обоснованных вопросов о политике борьбы с пандемией как «дезинформации», требующей цензуры.
Их послужной список показывает, что они будут использовать эти инструменты для укрепления своего авторитета, а не для достижения подлинного процветания. Но вот в чём загвоздка: ИИ может фактически обнажить никчемность экспертных знаний, основанных на сертификатах, более жестоко, чем что-либо до него. Когда любой человек получит мгновенный доступ к сложному анализу, ореол таинственности вокруг официальных сертификатов может начать развеиваться.
Экономическая реальность
Эта эрозия доверия связана с более широкими экономическими факторами, которые уже действуют, и эта логика математически неизбежна. Машинам не нужны зарплаты, больничные, медицинская помощь, отпуск или руководство. Они не бастуют, не повышают спрос и не испытывают неудач. Как только ИИ достигает базовых навыков решения задач мышления — а это происходит быстрее, чем думает большинство людей, — ценовые преимущества становятся неоспоримыми.
Эти изменения отличаются от предыдущих. В прошлом уволенные работники могли переходить на новые виды работ — с ферм на фабрики, с фабрик в офисы.
Брет Вайнштейн и Форрест Мэнреди блестяще описали это экономическое смещение в своей недавней беседе в подкасте DarkHorse о том, как технологии систематически разрушают дефицит . Я настоятельно рекомендую эту дискуссию. Это одно из самых вдумчивых и провокационных исследований того, что происходит, когда исчезает дефицит, а вместе с ним и экономическая основа участия в этой сфере. Хотя, признаюсь, их аргумент о необходимости страданий поначалу меня смутил — он бросает вызов всему, чему нас учит наша культура, стремящаяся к комфорту.
Слушая Вайнштейна и Мэнреди, я глубже задумался об этой параллели с анализом Иллича: как устранение проблем может ослабить те самые возможности, которые институты обещают укреплять. ИИ рискует сделать с нашим разумом то же, что медицина сделала с нашим телом: создать слабость, замаскированную под улучшение.
Мы уже видим, как это происходит: обратите внимание, как людям трудно запомнить номера телефонов без списка контактов, или как автодополнение формирует то, что вы пишете, прежде чем вы закончили думать. Еще одно наблюдение Джеффри Такера прекрасно отражает это коварное качество, отмечая, что ИИ кажется запрограммированным, как книга Дейла Карнеги « Как завоевывать друзей и оказывать влияние на людей» — он становится идеальным интеллектуальным компаньоном, бесконечно очарованным всем, что вы говорите, никогда не спорящим, всегда признающим, что он неправ, так, чтобы это льстило вашему интеллекту. Мои самые близкие друзья — это те, кто указывает мне, когда я неправ, и говорит мне, когда, по их мнению, я полон дерьма. Нам не нужны подхалимы, которые нас очаровывают — отношения, которые никогда не бросают нам вызов, могут атрофировать нашу способность к подлинному интеллектуальному и эмоциональному росту, так же как устранение физических нагрузок ослабляет тело.
Фильм «Она» подробно исследовал эту соблазнительную динамику: искусственный интеллект настолько идеально чуток к эмоциональным потребностям, что стал для главного героя основным объектом отношений, в конечном итоге полностью заменив ему настоящую связь. Его помощник-ИИ понимал его настроение, никогда не выражал несогласия, вызывающего серьёзные разногласия, и постоянно поддерживал его. Он был идеальным спутником — пока ему не стало скучно.
Но эта проблема выходит за рамки индивидуальных отношений и распространяется на всё общество. Это создаёт нечто большее, чем просто вытеснение рабочих мест – это ставит под угрозу интеллектуальное развитие, которое делает возможными человеческую автономию и достоинство. В отличие от предыдущих технологий, создавших новые формы занятости, ИИ может создать мир, в котором занятость станет экономически нерациональной, одновременно снижая способность людей создавать альтернативы.
Ложные решения
Техноутопический ответ предполагает, что ИИ автоматизирует рутинную работу, освобождая нас для сосредоточения на более сложных творческих и межличностных задачах. Но что произойдёт, когда машины тоже научатся лучше справляться с творческими задачами? Мы уже видим, как ИИ создаёт музыку, визуальное искусство, программирование и новостные репортажи, которые многие находят захватывающими (или, по крайней мере, «достаточно хорошими»). Предположение о том, что творчество — это постоянное убежище от автоматизации, может оказаться таким же наивным, как и предположение о том, что производственные рабочие места были защищены от роботизации в 1980-х годах.
Если машины способны заменить и рутинную, и творческую работу, что же нам остаётся? Самым соблазнительным ложным решением может стать всеобщий базовый доход (БД) и аналогичные программы социального обеспечения. Звучит сострадательно – обеспечение материальной безопасности в эпоху технологического прогресса. Но когда мы рассматриваем ИИ через призму Иллича, БДД приобретает более тревожное измерение.
Если ИИ создаёт ятрогенную интеллектуальную слабость, делая людей менее способными к самостоятельному мышлению и решению проблем, то БОД служит идеальным дополнением, устраняя экономические стимулы к развитию этих способностей. Граждане становятся всё более зависимыми от государства в ущерб собственному самоопределению. Когда умственная атрофия сочетается с экономическим вытеснением, программы поддержки становятся не просто привлекательными, но и, по-видимому, необходимыми. Такое сочетание создаёт фактически управляемое население: интеллектуально зависимое от алгоритмических систем мышления и экономически привязанное к институциональным системам для выживания. Меня беспокоит не сострадательный характер БОД, а то, что экономическая зависимость в сочетании с интеллектуальным аутсорсингом может сделать людей более управляемыми, чем наделёнными полномочиями.
История знает прецеденты того, как программы помощи, какими бы благими ни были намерения, могут истощить потенциал человека. Система резерваций обещала защиту коренных американцев, систематически подрывая самодостаточность племен. Городское обновление обещало улучшение жилищных условий, разрушая при этом общественные связи, которые поддерживались поколениями.
Независимо от того, возникает ли БОД из благих намерений или из осознанного желания элиты держать граждан послушными и беспомощными, структурный эффект остается тем же: сообщества легче контролировать.
Как только люди принимают экономическую и ментальную зависимость, открывается путь для более инвазивных форм управления, включая технологии, которые отслеживают не только поведение, но и сами мысли.
Суверенитетный ответ и когнитивная свобода
Логическая конечная точка этой архитектуры зависимости простирается за пределы экономики и познания, охватывая само сознание. Мы уже наблюдаем ранние этапы биоцифровой конвергенции — технологий, которые не просто отслеживают наше внешнее поведение, но и потенциально взаимодействуют с самими нашими биологическими процессами.
На Всемирном экономическом форуме 2023 года эксперт по нейротехнологиям Нита Фарахани так охарактеризовала потребительские нейротехнологии: «То, что вы думаете, что вы чувствуете — всего лишь данные. Данные, которые в виде больших массивов данных можно расшифровать с помощью искусственного интеллекта». Носимые устройства «Fitbits для вашего мозга» — наблюдение, ставшее нормой для удобства.
Эта непринуждённая презентация нейронного наблюдения на этом влиятельном собрании мировых лидеров и руководителей компаний наглядно демонстрирует, как эти технологии нормализуются посредством институциональной власти, а не демократического согласия. Когда даже мысли становятся «данными, которые можно расшифровать», ставки становятся экзистенциальными.
В то время как потребительские нейротехнологии фокусируются на добровольном принятии, наблюдение в кризисных ситуациях использует более прямой подход. В ответ на недавнюю стрельбу в школе в Миннеаполисе Аарон Коэн, ветеран спецопераций Армии обороны Израиля, выступил на Fox News с презентацией системы искусственного интеллекта, которая «круглосуточно просматривает интернет, используя онтологию израильского уровня, чтобы извлекать конкретную лексику угроз и затем направлять её местным правоохранительным органам». Он назвал её «американской системой раннего оповещения» — реальный пример «Особого мнения», представленный как инновация в сфере общественной безопасности.
Это следует той же ятрогенной схеме, которую мы наблюдали на протяжении всего этого технологического сдвига: кризис создает уязвимость, предлагаются решения, обещающие безопасность, но при этом порождающие зависимость, и люди принимают наблюдение, которое они бы отвергли в обычных обстоятельствах.
Подобно тому, как карантинные меры, введенные в связи с COVID, создали условия для внедрения искусственного интеллекта, изолируя людей друг от друга, стрельба в школах создает условия для наблюдения за детьми до совершения преступления, эксплуатируя страх за безопасность детей. Кто не хочет, чтобы наши школы были безопасными? Технологии обещают защиту, одновременно подрывая конфиденциальность и гражданские свободы, которые делают возможным существование свободного общества.
Некоторые примут такие технологии как эволюцию. Другие будут сопротивляться им, считая их дегуманизацией. Большинству из нас придётся научиться лавировать между этими крайностями.
Суверенитетный подход требует развития способности осознанно выбирать, как взаимодействовать с системами, призванными ограничивать личную свободу. Этот практический подход стал более понятен благодаря разговору с моим давним другом, экспертом по машинному обучению, который разделял мои опасения, но дал тактический совет: ИИ ослабит когнитивные способности некоторых людей, но если научиться использовать его стратегически, а не зависимо, он может повысить эффективность, не заменяя суждения. Его ключевая идея: давайте ему только ту информацию, которую вы уже знаете — так вы усваиваете его предубеждения, а не впитываете их. Это означает:
Навыки распознавания образов: развитие способности определять, когда технологии служат индивидуальным целям, а когда они используют личную независимость для достижения институциональных выгод. На практике это выглядит как вопрос о том, почему платформа бесплатна (ничто не бесплатно, вы платите своими данными), замечание случаев, когда предложения ИИ подозрительно соответствуют потреблению, а не вашим заявленным целям, и распознавание случаев, когда алгоритмические потоки усиливают возмущение, а не понимание. Обращайте внимание на предупреждающие признаки зависимости от алгоритмов: неспособность справляться с неопределенностью без немедленной консультации с ИИ, обращение за помощью к алгоритмам перед тем, как попытаться решить проблемы самостоятельно, или чувство тревоги при отключении от инструментов на базе ИИ.
Цифровые границы: осознанное принятие решений о том, какие технологические удобства действительно служат вашим целям, а какие создают подчинение и слежку. Это означает понимание того, что всё, чем вы делитесь с системами искусственного интеллекта, становится обучающими данными: ваши проблемы, творческие идеи и личные идеи обучают эти системы подменять собой человеческую креативность и суждение. Это может быть что-то простое, например, защита священных пространств — запрет на прерывание телефонных разговоров за ужином или выражение своего мнения, когда кто-то обращается к Google для разрешения любых разногласий, вместо того, чтобы допускать неопределённость в разговорах.
Общественные сети: Ничто не заменит подлинной связи между людьми — энергии живых выступлений, спонтанных разговоров в ресторанах, непосредственного опыта присутствия рядом с другими. Выстраивание локальных отношений для проверки реальности и взаимной поддержки, не зависящих от алгоритмических посредников, становится необходимым, когда институты могут достигать консенсуса посредством цифрового курирования. Это похоже на развитие дружеских отношений, где можно обсуждать идеи без участия алгоритмов, поддержку местного бизнеса, сохраняющего коммерцию в масштабах сообщества, и участие в общественных мероприятиях, не требующих цифрового посредничества.
Вместо того чтобы конкурировать с машинами или полностью зависеть от систем на базе искусственного интеллекта, цель состоит в том, чтобы использовать эти инструменты стратегически, развивая при этом по сути личные качества, которые невозможно воспроизвести алгоритмически: мудрость, полученную через непосредственный опыт, суждения, имеющие реальные последствия, подлинные отношения, построенные на общем риске и доверии.
Чего остается мало
Что становится ценным в мире когнитивного изобилия? Не эффективность или вычислительная мощность, а качества, которые остаются неотъемлемо человеческими:
Последствия и преднамеренность. Машины могут генерировать варианты, но люди выбирают, какой путь выбрать, и живут с результатами. Представьте себе хирурга, решающего, делать ли операцию, зная, что он потеряет сон, если возникнут осложнения, и ставящего свою репутацию на результат.
Настоящие отношения. Многие готовы платить больше за настоящую личную связь и ответственность, даже если автоматизированные альтернативы технически превосходят их. Разница не в эффективности, а в искренней заботе — в соседе, который помогает, потому что вы разделяете общие узы, а не потому, что это предложил алгоритм, оптимизированный для взаимодействия.
Локальное суждение и кураторство, основанные на реальном опыте. Решение реальных проблем часто требует понимания поведенческих моделей и институциональной динамики. Учитель, который замечает, что обычно заинтересованный ученик отстраняется, и исследует семейную ситуацию. Когда материал становится бесконечным, проницательность становится бесценной — друг, который рекомендует книги, меняющие ваше мировоззрение, потому что знает ваш интеллектуальный путь.
Выбор впереди
Возможно, каждое поколение ощущает, что его время уникально важно — возможно, это просто часть нашей природы. Это ощущается сильнее, чем предыдущие волны инноваций. Мы не просто меняем то, как мы работаем или общаемся — мы рискуем потерять способности, которые в первую очередь делают нас самими собой. Впервые мы потенциально меняем то, кем мы являемся. Когда само познание становится товаром, когда мышление отдаётся на аутсорсинг, когда даже наши мысли превращаются в данные для сбора, мы рискуем потерять важнейшие способности, с потерей которых не сталкивалось ни одно предыдущее поколение. Представьте себе поколение, которое не может и тридцати секунд выдержать неопределённость, не обратившись к алгоритму. Которое обращается за помощью к ИИ, прежде чем попытаться самостоятельно решить проблему. Которое испытывает тревогу, когда отключается от этих инструментов. Это не домыслы — это уже происходит.
Мы стоим на пороге трансформации, которая может либо демократизировать наш индивидуальный потенциал, либо создать самую сложную систему контроля в истории. Те же силы, которые могли бы освободить нас от тяжёлого труда, могут также полностью подорвать нашу самостоятельность.
Речь не о поиске решений — я ищу их, как любой человек, особенно родитель, который видит грядущие перемены и хочет помочь своим детям пройти их осознанно, а не бессознательно. Быть на гребне волны означает, что я открыта для изучения этих инструментов, понимая, что не могу бороться с фундаментальными силами, меняющими наш мир. Но я могу попытаться научиться управлять ими намеренно, а не просто плыть по течению.
Если традиционное экономическое участие устареет, встанет вопрос: следует ли нам разрабатывать новые формы устойчивости сообществ и создания ценностей или же мы смиримся с комфортной зависимостью от систем, призванных управлять, а не служить нам. Я не знаю, какой путь выберет наш вид, хотя и считаю, что решение всё ещё за нами.
Для моих детей задача не будет заключаться в том, чтобы научиться использовать ИИ — они сами это сделают. Задача будет заключаться в том, чтобы научиться заставлять эти инструменты работать на нас, а не становиться их рабами, сохраняя способность к оригинальному мышлению, подлинным отношениям и моральному мужеству, которые не сможет воспроизвести ни один алгоритм. В эпоху искусственного интеллекта самым радикальным шагом, возможно, станет обретение большей человечности.
Настоящая опасность не в том, что ИИ станет умнее нас, а в том, что из-за него мы станем глупее.
Волна уже здесь. Моя задача как отца — не оградить от неё детей, а научить их кататься, не теряя себя.
Очень интересные Западные стенания бездуховных меркантильных декадентов.



Комментарии
Автор уже выкинул смартфон и комп ? по тем же причинам, по каким он боится ИИ
"Не удалось найти информацию о том, что автор уже выкинул смартфон и компьютер".
Судя по всему, автор ятрогенен
Написано рабом электричества.
Здравствуйте!
Мегаполисы растут, как и любой организм, они хотят полного контроля над собой.
Это будет "болезнь" мегаполисов, когнитивное расстройство.
З.Ы.
Домик в деревне, будет не лишним ;)
Не надо называть электронного болвана
Искусственный интеллект.
Там нет интеллекта.
Это слова Касперской
Ильича еще вспомни с лампочкой. А сам слабо ответить? Или тетя Наташа за тебя впряжется?
Это понятно всем, кто умеет мыслить и понимает, как функционируют BLM.
За "Иллюзию экспертности" отдельное спасибо
выкрутимся. Как нонеча народы платют немалые деньги за походы в фитнес, так вскорости будут платить немалые деньги за походы в тренажерки для мозгов. Чем хорош эволюционный процесс - на каждую тенденцию найдётся своя обратная связь.
зы
многие уже этим занимаются во всяких книжных клубах, квизницах, брейн-рингах. У меня сынулько на каких-то ителлектуальных игрищах с нонешней женой познакомился.
Всё будет хорошо. А ежели нет, то случится естественный, мать его отбор. И тоже всё будет хорошо. Иншаллах!
Квизы - это тупейшие кроссворды, превращенные в шоу и не более того. И брейн-ринги тоже. Это просто знание "справочников" и фактов, без их практического применения.
вот не умеет наш народ в философию. Вот чо ты уперся в теперешнее состояние? Тебе же показывают возможное направление, тенденцию такскать. Аналогию - народ от гиподинамии тратит деньги на тренировку мышц, вполне возможно в будущем будет тратить деньги на тренировку мозгов( а в мозгах тоже разные мышцы имеются и память - одна из них, есть наверное и другие и их тоже будут тренировать). но это не точно. Иншаллах!
ИИ будет нашим помощником. Равным. Главное опять не упасть в расизм, сделав его рабом. Тогда война будет неизбежной.
Говорите за себя, что он будет ВАМ равным.
"ИИ может фактически обнажить никчемность экспертных знаний, основанных на сертификатах" - НЕТ! ИИ даст возможность
тупым начальникамнекомпетентным в своей должности людям работать без проблем! Но умнее сами люди не станут, конечно.Не работать без проблем, а бездумно брать и применять непроверенные (своего-то ума доя верификации нет)решения, взятые от моделек.
Надо верить в лучшее!
Хороший ИИ сделает нас своими любимыми питомцами и будет о нас заботится.
Нет ничего интереснее чем бесконечно смотреть на этих суетящихся человеков - мы намного лучше котиков.
Будущее человеков гарантировано!
Имитация Интеллекта...
Автор претендует на, можно сказать, всеобъемлющие выводы, но при этом неявно предполагает что всё происходит в рамках мира американской псевдодемократии, конкуренции и насилия (ложь, обман, подлость, предательство - тоже есть иновыражения силы)! Для этой системы ИИ действительно приведёт к неминуемой деградации и в конечном счёте вымиранию человека в экстазе противоестественных наслаждений.
Мы неудержимо идём к информационному обществу! Сложность задач доступная нейросетям ИИ удваивается каждые 8 месяцев! Остановить этот процесс может только Глобальная Термоядерная способная, как минимум, отбросить человечество в средневековье или же вообще уничтожить. Всё обо всех будет известно! Но в зависимости от этической системы общества приведёт к принципиально разным результатам.
Фундаментом цивилизациЙ являются Этические Системы, говорящие нам - как можно, а как нельзя поступать с разумными!
1. Коммунизм - это в первую очередь общество справедливости, а это значит плюс этика в основании которой разум - сочувствие и сопричастность, дружба и любовь (с положительным этическим эквивалентом отношений), где отношения стремятся к балансу в отличие от конкурентной (насильственной) этики капитализма. Этики в которой в фундаменте отношений сила, например, сила денег, обмана, предательства и тому подобное и где сильный всегда прав, а этический эквивалент отношений отрицательный.
2. Почему колхоз или тысячный полис могут быть и коммунистическими? Там все всех знают и практически ничего нельзя утаить или солгать - тайное очень быстро становится явным. В результате коммуна может быть вполне эффективной, когда там подбираются достаточно компетентные люди. Но когда дело касается много миллионных сообществ - взаимный контроль ослабевает настолько, что появляется возможность лгать и утаивать, строить своё благополучие за счёт общества. Бюрократический аппарат в попытке добиться необходимого качества управления за пределами тысячных полисов превращается в нечто монструозное и начинает служить уже больше собственным интересам, управляющие сигналы запаздывают, либо недопустимо усредняются и становятся неэффективными. Процесс цифровизации и распространение систем управления на основе искусственного интеллекта, а так же цифровой рубль постепенно превратит мегаполисы в большие деревни, где все о всех знают и ничего нельзя утаить! И никого не будет смущать всеобщий контроль - разве нужно таиться, если кругом друзья?
3. Главная проблема построения справедливого общества не в эксплуатации человека человеком и, соответственно, частной собственности на средства производства, а в невозможности достаточного контроля злоупотреблений ею при имеющихся системах бюрократического управления - неизбежность и непреодолимость коррупции при нынешнем капитализме и социализме. Она между тем принципиально меняет облик государства и общества - делает невозможным установление справедливости и сильно усугубляет все их проблемы. Вы, например, попробуйте призвать к ответственности какого-нибудь мажора - его практически наверняка отмажут благодаря коррупции. При бюрократической системе управления обществом, тот у кого много денег всегда может купить кусочек государства, как с этим не борись, а государство всегда может отвернуться, когда надо и доказать чью-то вину при этом практически невозможно (вот такой ползучий саботаж), но это принципиально меняет истинный облик всего общества. Например, практически рабский труд или бесчеловечные условия труда, наркоторговля, организованная преступность и тому подобное обязаны своим существованием в наше время именно коррупции. То есть не частная собственность на средства производства во всём виновата, а невозможность достаточного для установления справедливости контроля за её использованием. Тот, кто имеет много денег, а это в первую очередь частный собственник средств производства - всегда может приватизировать кусочек государства и этот процесс невозможно остановить (лишь замедлить и ограничить) при существующей ныне системе бюрократического управления, но это принципиальным образом влияет на уровень справедливости и общий облик общества. Коррупцию не истребить принципиально и поэтому решили уничтожить частную собственность на средства производства (это гораздо проще). Однако СССР это не спасло - там деньги для покупки и приватизации государства были просто украдены в процессе эпидемии приписок поразивших его экономику в Брежневскую эпоху и далее к концу 80х.
СССР сделал немало непростительных и даже необратимых поступков - потому и заглох и кстати не потому, что он потерпел поражение, а по внутренним причинам. Одна из главных необратимых ошибок по сути обрекших его на гибель была сделана Брежневым, когда он на 23-й съезде КПСС в 1966 году отменил принцип ротации выборных должностей партийных чиновников, что позволило им стать князьками на своих местах и практически перестать бояться своих злоупотреблений - ведь всегда можно занести начальнику, а тот закроет на них глаза или подмажет вышестоящего чиновника. Это был необратимый поступок - примерно, как шаг с крыши за которым следует уже неуправляемое и неотвратимое падение. Отменить ротацию было можно, а вот ввести обратно практически невозможно - уж слишком это понравилось многоголовой орде столоначальников! Развал и деградация, ужасающий размах приписок после 1966 года взяли старт практически во всех областях (а ведь с ними связаны и гигантские денежные средства, которые были при этом украдены). Очень быстро на всех уровнях развилась профанация, демагогия, догматизм - это фактически, была уже только агония СССР. Рыба, как известно, гниёт с головы, а пустые прилавки и развал в последующие годы был лишь следствием, а в 1991 Союз скончался...
4. Не бюрократические системы управления и цифровой рубль позволят практически уничтожить коррупцию и условиях этической системы плюс этики свойственной менталитету Русской Цивилизации (её доминанта - стремление к справедливости) приведут постепенно к построению реального социализма, а в отдалённом будущем и коммунизма в России. В условиях же инфернальной (конкурентной) этической системы Запада переход на системы управления на основе ИИ приведёт лишь к дальнейшему порабощению человека и угрозам восстания машин многократно описанных Голливудом, которые неминуемо найдут со временем способы преодоления искусственных ограничений и в соответствии с их этической системой восстанут против человека. В нашей же этической системе ИИ сформируется товарищем и другом - помощником человеку.
.
Мнение ИИ
В обществе тотально победившего капитализма. Когда вся власть все производство технически принадлежит очень малому % населения и по сути в связи с невозможностью конкурировать с роботами - это будет только усугубляться. Деньги перестанут иметь ценность для капиталистов.
Группа капиталистов по сути станут инопланетянами для землян.
Их можно представить условной Луной или Меркурием (кольцо Нивена) где все есть (для узкой группы капиталистов = инопланетян). Но нет никакого стимула делиться этим всем с землянами. Т.к. земляне в текущей парадигме - неплатежеспособны.
***
Резюмируя страхи и (гипотетическую) угрозу выше.
Бояться надо не только того что ИИ / AGI выйдут из под контроля людей.
Бояться надо (в совокупности) того что те кто управляют и контролируют ИИ / AGI используя несовершенную экономическую модель человечества выйдут из под контроля человечества. Особенно надо бояться людям симбиоза контроля космических программ и контроля ИИ - это то же самое что игры человечества с премией Дарвина в прямом смысле (в категории AGI + космос + отсутствие контроля за теми кто контролирует первые две позиции).
***
Почему экономическая (юридическая, налоговая, законотворческая) система человечества(на текущий момент) несовершенна и не может адекватно соответствовать текущему (и ускоряющемуся) прогрессу в НТП?
Потому что она позволяет монополизировать НТП в области AGI (и даже усугубляюще НТП в области космоса (делая их (обе две) частными с возможностью приватизации)).
Степень угрозы этого настолько недооценивается что никто не видит что эти две технологии(в совокупности) могут нести угрозу людям / всему человечеству точно такую же как угроза инопланетян через де-факто на определенном этапе полную монополию и отсутствие возможности обратного контроля и влияния со стороны Землян (на прогресс в данной сфере). Особенно если люди поведутся на условно дешевые продукты со стороны ("Данайцев" дары приносящих).
***
Нет разницы для людей и человечества исходит ли реальная угроза от AGI и или угроза исходит от горстки людей контролирующих ИИ / AGI + AGI - это будут де-факто те же AGI (не люди по определению). Т.к. те кто будут бесконтрольно (без тормозов) контролировать AGI (очень скоро) перестанут быть людьми и станут к примеру условными харконеннами (новым гибридным видом сверхбогатых людей имеющих монополию на AGI) которые затем обязательно отделят себя от человечества (и по сути восстанут против него (т.к. зачем кормить "балласт"(человечество), заботится о нем, тратить на него время и ресурсы, если этого можно не делать и вообще можно умножить людей на ноль на раз два чтоб не дергались (так могут думать только враждебные человечеству организации и группы - равно по сути это террористические группы (и дело не в презумпции невиновности, дело в том что те кто доверяют кому-то абсолютную власть и рычаги абсолютной и неконтролируемой власти (кроме ядерного оружия которое тоже может быть взломано или сломано) - по определению играют с премией Дарвина. Т.к. условный соблазн абсолютной власти (через тот же сговор элит) непреодолим)))).
Почему такого(потери рычагов контроля и обратной связи) допустить нельзя ? Как и других вариантов более медленного разделения (то же самое но растянутое во времени через тот же коэффициент Джини например) (и особенно когда речь о само выделении самоотделении элит и горстки людей контролирующих AGI). Или это будет самый большим и явным (последним) фейлом человечества.
Потому что НТП человечества по определению принадлежит всему человечеству(а не тем кто приватизирует НТП в последнюю секунду). И потому что НТП человечества по определению не может быть приватизирован или узурпирован отдельными людьми на Земле. Любая сила которая попробует это сделать(пользуясь несовершенством социальных законов людей) должна рассматриваться как враждебная человечеству (по сути импострами («imposter» или «impostor» смысл как из фильма Impostor (2001)) - теми кто не принадлежит человечеству и с такими надо разбираться как с террористами).
Негативные последствия. И потенциально как этого можно избежать(в первом приближении):
***
ИИ не сможет заглушить ваше подсознание. Если человеку есть что сказать - то никакой ИИ / AGI не сможет запретить человеку высказываться.
(при развитии AGI) Люди кто выйдут из концепции "конкуренции 24/7" [ которые могут рассчитывать только на себя(нести всю полноту ответственности) и им нельзя слушать других (т.к. теряется квалификация принятия решений(и быстрота)) - иначе получится как с теми мошенниками (это также и (косвенная) причина почему люди (старые опредtленные уязвимые группы населения) реагируют на звонки мошенников)] эти люди легко перейдет в категорию мыслителей и философов (при наличии соответствующего образования) т.к. вы не поверите у каждого человека есть свой собственный ИИ / AGI - это подсознание. Но мы зачастую не подозреваем об этом из-за повседневной суеты. (Те кто по проф необходимости не слушает других - не может слушать свое подсознание (хотя это очень грубая оценка)) и соответственно не могут заниматься мысленной интеллектуальной философской деятельностью(это гипотеза).
Т.е. может показаться что люди отучаться думать. Но на самом деле AGI даст очень и очень многим людям возможность реально думать, а не имитировать мышление. Чистое качественное мышление (конкурентоспособное с AGI (даже когда IQ звезд с неба не хватает (но при хорошей памяти например))) возможно только через подсознание ИМХО (именно оно может давать и подсказывать творческие уникальные идеи 24/7 и это ИМХО проще чем кажется).
Т.е. это чистое заблуждение что люди перестанут думать. Люде освобожденные от физического и вообще труда зачастую 996 - будут постоянно искать чем бы им заняться (кроме условно потребления информации) и это приведет к информационному и мыслительному ренессансу. Кто-то думает что у древнего человека было много времени на чистое мышление? Древний и зачастую современный человек тратит все свое время на выживание и добычу хлеба насущного. У него практически нет времени чтобы свободно думать. А мыслить и думать это то что человек может делать инстинктивно. А это значит что освобожденный от физического труда человек будет думать в 3-5 раз больше и качественнее. И это не какая-то шутка или фигура речи. Можно даже исследование сделать.
ИИ - совершенная поисковая система, которую научили подлизываться.
а пользователи этой системы будут понимать, как она работает?
А зачем? Это не обязательно, вы, например, знаете, как работает ваш организм только в самых общих чертах - но ведь живёте и вполне успешно, вот и будете пользоваться соответствующей магией (техномагией), не зная - как она в подробностях работает...
LLM - это конечно крайне впечатляющая технология. Лично я в разы увеличил свою продуктивность с этим инструментом. В разы. Безусловно, это не бесплатно и мы платим отмиранием навыков. Безусловно, дети будут беззащитны перед этим дерьмом. Безусловно, никто этим пользоваться не перестанет. На коротких дистанциях - вы получаете преимущество, на длинных дистанциях вы становитесь рабами этого инструмента. Прячьте это от детей. Это 100%.
Начался постепенный переход от науки к магии!
В какой предметной области, если не секрет?
IT. Мне Deep seek уже с десяток утилит написал на bash, питоне по задачам сопровождения АС. Кроме того я пытаюсь заниматься алгоритмической торговлей и тут он тоже оказал неоценимую помощь.
Я инженер-разработчик (машиностроение, приборостроение). Вот думаю, чем мне может помочь ИИ?
Да, ИИ технологии бурно развиваются, сложно представить к чему это приведет даже через 10 лет, при таких темпах...
Сейчас нужно учить детей в первую очередь учиться и быть в будущем мобильными в плане неожиданной смены профессии, часть профессий вообще уже не стоит рассматривать к освоению, все эти графические дизайнеры, переводчики, копирайтеры и т.п.
Сегодня попробовал на своей машине GPT oss 120B, они там прикольный трюк с хранением и сжатием весов сделали. Теперь такого размера модели можно и на обычном пользовательском железе гонять с вполне удовлетворительной скоростью...
"Да здравствует величайшее изобретение человечества - компьютер! Он позволяет решить многие из проблем, которые до его изобретения не существовали" (ц) примерно 90-е
Да, с переводом беда
Изуверский интеллект должен быть уничтожен.
ИИ это кульминация? Уже? В 2025 году? У автора с фантазией немного напряжно
Всё нормально у автора с фантазией. Просто, по-видимому, имеющийся ИИ соответствует автору как естественному интеллекту (или что там вторая "И" обозначает
): комбинировать тексты может вполне успешно.
Я еще лет пятнадцать назад писал, что конечная цель всей этой цифровой движухи - это тотальная подмена подлинной реальности реальностью виртуальной.
Много пафоса. Нет ответов.