Советская научная программа по ИИ: если машина не может «думать», может ли она «управлять»?

Аватар пользователя RomanSmirnov

Западоиды все никак не угомонятся после 91 го года и исследуют и исследуют, что они развалили (ну или помогли развалить не суть).

В Кембридже пару лет назад вышла статья  - Советская научная программа по ИИ: если машина не может «думать», может ли она «управлять»? 

Прочитал ее тогда и забыл, но вот один топовый блохер, в западной как они выражаются "полусфере" с чего то вдруг решил ее по-пиарить.

Возможно читателям будет интересно - ниже перевод машинный с небольшими правками.

Абсракт.

В этой статье анализируется интеллектуальное и институциональное развитие исследовательской программы искусственного интеллекта (ИИ) в Академии наук СССР с 1970-х по 1980-е годы. Рассматривая места и идеи, из которых она заимствована, я контекстуализирую ее цели и проекты как часть более крупного технонаучного движения, направленного на рационализацию советского управления, и раскрываю общие эпистемологические и культурные предположения. Прослеживая их истоки в дебатах, сопровождавших внедрение кибернетики в советскую интеллектуальную и политическую жизнь в 1950-х и начале 1960-х годов, я показываю, как советские концепции «думающих машин» взаимодействовали с диалектическим материализмом и коммунистическими социотехническими представлениями об управлении и контроле.

Программа «ситуационного управления», разработанная Дмитрием Поспеловым, помогает объяснить результирующую концепцию ИИ как систем управления, направленных на решение сложных задач, которые не могут быть полностью формализованы и, следовательно, требуют новых методов моделирования для представления ситуаций реального мира. Эту специфическую ориентацию можно понимать, с одной стороны, как исследовательскую программу, конкурирующую с системным анализом и экономической кибернетикой за рационализацию советского управления, а с другой стороны, как область, пытающуюся отграничить себя от чисто статистического или математического подхода к моделированию когнитивных процессов.

---------

«Искусственного интеллекта в прямом смысле этого слова не существует и не будет», — заявил Гермоген Поспелов своим коллегам из Академии наук СССР в 1986 году, хотя он и выступал за его развитие. Поспелов был главной движущей силой институционализации исследований в области ИИ в Советском Союзе, однако его заявление раскрывает парадоксальную ситуацию, представляя термин «ИИ» как пустое обозначение, одновременно продвигая важность этой области для способности Советского Союза конкурировать в условиях быстрой глобализации и модернизации. Описывая плачевное состояние советских НИОКР в области новых информационных технологий по сравнению с ведущими капиталистическими странами, Поспелов выступал за создание научного совета по искусственному интеллекту. В конечном итоге созданный в Академии наук в 1987 году, совет позволил бы маркировке «ИИ» быть признанной и помог бы консолидировать эту область исследований в советской академии, при этом компьютеризация и информатизация нации были объявлены первоочередной задачей для правительства.

Однако это лучше понимать не как начало ИИ, а как знаменование «окончания» более раннего периода переговоров, критики и взращивания различных идей и подходов к проблемам моделирования познания и поведения. Десталинизация и частичное открытие советского общества и академических кругов во второй половине 1950-х годов сделали возможным марксистское обсуждение вычислений и кибернетики, стимулируемое интенсивным международным обменом людьми и идеями между Востоком и Западом. В частности, с конца 1950-х годов под институциональным зонтиком «кибернетики» появились новые междисциплинарные научные области, стремящиеся математизировать науки о жизни и гуманитарные науки. К ним относятся машинный перевод и компьютерная лингвистика, распознавание образов и статистическое обучение, бионика и биокибернетика, семиотика, экономическая кибернетика и науки принятия решений, психология мышления и решения проблем. Хотя все они извлекли выгоду из переноса западных идей и инструментов, они также опирались на более ранние теоретические достижения в физиологии, математической логике и статистике, теории оптимизации и управления в работах Бернштейна, Гельфанда, Канторовича, Колмогорова и Маркова, а также на национальные традиции в социальных и гуманитарных науках, сложившиеся до Второй мировой войны, такие как формалистическая литературная теория или психология развития Проппа и Выготского, среди прочих. Подобно своим коллегам на Западе, эти различные эпистемические сообщества в Советском Союзе помогли создать и продвигать определенные версии того, что историки описали как «алгоритмическое мышление» или «алгоритмическая рациональность».

Общие контексты и черты советских алгоритмических культур, возникшие в результате вмешательства кибернетики, системного анализа и теории информации в социальные и гуманитарные науки, еще предстоит реконструировать. Однако недавняя новаторская литература высветила некоторые аспекты и выдающихся деятелей. Возвращение Майклом Гординым забытых эпизодов советского машинного перевода до и после войны подчеркивает встроенность алгоритмов в людей и в их социально-исторические контексты и нарративы. Екатерина Бабинцева проанализировала подход к программированному обучению, разработанный психологом Львом Ландой, который опирался на американские идеи и творчески адаптировал их к советскому контексту. Похожее видение «алгоритма» как усилителя творческих способностей человека продвигал Андрей Ершов, ведущая фигура в советской информатике, как показывает Ксения Татарченко, описывая возникновение альтернативной советской версии «алгоритмического мышления» во время Холодной войны. Все эти направления исследований подчеркивают как важность международных коммуникаций, так и то, что советские «алгоритмические» культуры имели особый колорит, отвергая чисто механистические концепции и поддерживая своего рода целостный и гуманистический подход.

Рассматривая советское сообщество ИИ как часть этого более крупного «алгоритмического» движения, эта статья реконструирует некоторые интеллектуальные и организационные контексты, которые породили довольно специфические методы моделирования и взгляды на интеллектуальные машины. Основываясь на архивных файлах Академии наук, личных и институциональных архивах и различных научных и литературных работах по ИИ, опубликованных в советский период, я сосредоточусь на ученых и инженерах, которые явно претендовали на ярлык «ИИ» в Советской Академии наук. Здесь изначальный советский подход к определению и моделированию «интеллекта» был консолидирован вокруг конкретного проекта, определенного как «ситуационное управление» в больших сложных системах, который доминировал в советском ландшафте «ИИ» до его интеллектуального и институционального переопределения после 1987 года. Этот подход был разработан Дмитрием Поспеловым (не путать с его тезкой Гермогеном Поспеловым) с середины 1960-х годов, затем переопределен в начале 1970-х годов в рамках исследовательской программы ИИ. Чтобы прояснить, что считалось и что не считалось «ИИ» в советском академическом мейнстриме, моя социально-историческая реконструкция подчеркивает различные эпистемологические (и в широком смысле идеологические) предположения о человеческом мышлении, обучении и социальной координации, которые лежат в основе этой конкретной теории ИИ, но показывает, что эти разработки нельзя объяснить только доминирующими культурными метафорами.

Во-первых, я помещаю советскую программу «ситуационного управления» в связь с дебатами о «мыслящих машинах», которые сопровождали легитимацию и идеологическое приспособление кибернетики в советской академии в 1950-х и начале 1960-х годов. Я рассматриваю влияние антииндивидуалистических методологий и диалектического материализма как особой философии науки на то, как советские ученые и инженеры воспринимали и оспаривали американскую аналогию человек-машина. Затем в статье излагаются ключевые элементы институционализации исследовательской программы «ИИ» в Советской Академии наук как части кибернетического и системно-аналитического движения. Это было источником идей и инструментов для воображения новых технологий управления и даже, как предполагают недавние исследования, для развития новых социалистических правительств в 1960-х и 1970-х годах. Я показываю, как этот контекст сформировал глубокую вовлеченность советского сообщества ИИ в проблемы управления и координации в сложных организациях и системах. Наконец, я более подробно рассматриваю развитие теории «ситуационного управления» и «прикладной семиотики» Д. Поспелова в диалоге с работами математика Михаила Цетлина и психолога Вениамина Пушкина. Я показываю, как эти междисциплинарные встречи помогли сформировать понимание сложности и ее последствий для управления и контроля, с одной стороны, и видение человеческого мышления как ситуативного, а машинного интеллекта как имитирующего способы, которыми люди учатся и действуют в реальных ситуациях, с другой.

Мои выводы объяснят очевидный парадокс, что, хотя советский подход к ИИ и основывался на кибернетике, он характеризовался радикальной критикой американского «механистического» и «редукционистского» подхода к человеческому интеллекту и нежеланием принимать аналогию кибернетического разума и машины. Как мы увидим, эта предпосылка не позволяла советским теоретикам ИИ рассматривать интеллектуальную машину или компьютер как «мыслящую» сущность как таковую. Для них компьютеры могли быть только инструментами для расширения изначально человеческих творческих способностей. Вместо того чтобы сосредоточиться на моделировании индивидуальных рассуждений (понимаемых как логический вывод или рациональное принятие решений), как их западные коллеги, я утверждаю, что советские специалисты по ИИ сосредоточились на проблемах координации и контроля — отчасти в ответ на недостатки централизованно управляемой и административно контролируемой советской экономики. Таким образом, для Поспелова и его коллег целью «ИИ» было создание технических средств управления большими сложными системами с использованием знаний о мире, которые невозможно строго формализовать.

Советские взгляды на «думающие машины» как на инструмент для мышления

Основополагающий спор о возможности разработки мыслящих машин в Советском Союзе возник в раннем восприятии кибернетики. В начале 1950-х годов кибернетика (а также другие области, такие как генетика или лингвистика) пала жертвой антиамериканских кампаний позднего сталинизма и была заклеймена как «мракобесие», «буржуазная лженаука» в серии публикаций в основных философских журналах и популярных СМИ. Однако эта идеологическая кампания не повлияла на раннее развитие компьютерных технологий, которым государство и военные придавали первостепенное значение. Однако во второй половине 1950-х годов советские ученые не решались определить нормативные последствия кибернетики, чтобы обеспечить ее совместимость с принципами марксизма-ленинизма и целями социалистического строительства. Как объект развивающихся и иногда конкурирующих интерпретаций и постоянных переговоров, советский марксизм-ленинизм не следует рассматривать как идеально последовательный и фиксированный во времени. В частности, прогресс науки и внедрение кибернетики подразумевали корректировки и переоценки определенных элементов официальной советской доктрины. Окончательно победившая точка зрения на компьютеры как на «инструменты для мышления», а не как на «думающие машины» возникла в результате достижения консенсуса среди ученых, философов и инженеров, включая, что важно, как сторонников, так и критиков западной кибернетики и ИИ.

Важно подчеркнуть, что отказ от базовой аналогии «человек–машина» в советских науках и гуманитарных науках исходил не только от ортодоксальных марксистско-ленинских философов. Вопреки популярному историческому повествованию, советские энтузиасты этой новой модной науки также активно участвовали в дебатах о нормативных последствиях кибернетики и возможностях и ограничениях «интеллектуальных» машин. Сходство в этом конкретном пункте примечательно, предполагая, что отказ рассматривать компьютеры как мышление имел более глубокие корни, чем идеологическая антикибернетическая кампания начала 1950-х годов. Один фактор касается эпистемического и идеологического влияния послевоенного советского марксизма-ленинизма и диалектического материализма, его философии науки (которая не может быть сведена к простому идеологическому ограничению). Это мировоззрение основывалось на различиях между объективной (материей) и субъективной (ментальной) реальностью, между материальным и духовным производством и утверждало привилегированное гносеологическое положение человека по отношению к другим живым и неживым существам (особый советский марксистский гуманизм). Можно утверждать, что послевоенные разработки в области ИИ также поддерживали сложный диалог с научными инновациями и дебатами 1920-х и 1930-х годов и даже с более ранними русскими интеллектуальными традициями. Хотя точные влияния и интеллектуальные родословные не всегда легко установить, сходство позиций и типов аргументации относительно природы человеческого мышления, обучения и отношений между материей и сознанием, человеком и машиной в различных дисциплинарных сообществах позднего Советского Союза указывают на общие генеалогии и предшественников. Важно, что теория Льва Выготского (1896–1934) о развитии ребенка как по сути социальной деятельности, сформулированная до войны, оставалась доминирующей в советской психологии вплоть до 1960-х и 1970-х годов. Или, например, Ксения Татарченко, Аня Ермакова и Лизбет де Мол прослеживают целостное и человекоцентричное мировоззрение послевоенной советской школы математической логики в русской научной традиции конца века .

Тем не менее, советское нежелание принять аналогию человек-машина основывалось на двух основных аргументах, повторяемых в бесчисленных философских, научных и общих трудах. Первый касался различия между творческими актами (включая научное и инженерное творчество) и механическими действиями, такими как вычисления. Согласно этой точке зрения, компьютеры не могли производить действительно новые идеи, концепции или образы, а только воспроизводили существующие шаблоны или клише. Второй, более существенный аргумент состоял в том, что человеческое мышление является социальным по своей природе, порожденным не химическими мозговыми процессами, а коллективной деятельностью бесчисленных поколений людей — продуктом социализации, а не неврологии. По этой причине американская кибернетика была оценена как предлагающая механистический и редукционистский подход к разуму и сознанию, который игнорировал фундаментальные качественные различия между человеческим мышлением и производительностью машины. Это видение имело важнейшие последствия для определения природы и цели машинного интеллекта в социалистическом контексте: компьютеры создаются людьми и действуют строго в соответствии с правилами математики и логики. Они способны имитировать некоторые интеллектуальные способности человека, но, что самое важное, имитация мышления не является самим мышлением.

Ранее эту позицию сформулировал советский писатель-фантаст Анатолий Днепров, инженер, администратор и популяризатор науки. В 1961 году в рассказе Днепрова «Игра» был представлен аргумент, очень похожий на мысленный эксперимент, теперь общеизвестный как «аргумент китайской комнаты», впервые опубликованный в 1980 году. В ней 1400 участников конгресса молодых математиков попросили принять участие в эксперименте или «игре». Группа собралась на стадионе в определенном порядке, чтобы передавать друг другу информацию, закодированную как 0 или 1, в соответствии с заранее заданным алгоритмом. Это продолжалось несколько часов. Таким образом, участники образовали гигантский живой информационный процессор, призванный, как им сказали после окончания игры, перевести короткую фразу с португальского на русский, не имея ни малейшего представления о том, что они делают. По словам организатора игры, этот факт определенно доказывал, что компьютеры не способны «думать». Днепров писал:

Если вы, как мыслящие структурные единицы нашей логической схемы, понятия не имели, что делаете, то можно ли всерьез говорить о мышлении электронно-механических устройств, составленных из деталей, способность которых мыслить не отстаивают даже самые ярые сторонники электронного мозга… Думаю, что наша игра однозначно решила вопрос: может ли машина мыслить? Она наглядно продемонстрировала, что даже самая тонкая имитация мышления машинами не есть само мышление – высшая форма движения живой материи.

Важно, что мы находим такого рода аргумент против механистического подхода к человеческому разуму у самых разных советских мыслителей того времени: от марксистско-ленинских ортодоксов до полумаргинальных или полудиссидентских, но культурно авторитетных. В 1966 году неортодоксальный марксистский философ Эвальд Ильенков (1924–79) создал одну из самых проницательных критических работ по машинному интеллекту с точки зрения диалектического материализма:

Западная техническая интеллигенция, в том числе кибернетическая и математическая, потому и запуталась в проблеме «человек-машина», что не умеет ее правильно сформулировать, то есть как социальную проблему, как проблему взаимоотношений человека и человека, опосредованных материальным телом цивилизации, в том числе и современной машинной технологией производства.

По его мнению, интеллект не является индивидуальным, а является результатом социальной и материальной деятельности поколений людей. Что еще более парадоксально, это видение разделяли ученые социальных и гуманитарных наук, явно вдохновленные новыми и модными системными и кибернетическими подходами, которые широко использовали их словарь, такой как «гомеостаз» и «информация». В своей статье 1977 года «Мозг – текст – культура – ​​искусственный интеллект» главная фигура Тартуско-Московской семиотической школы Юрий Лотман (1922–1993) предположил, что для создания теории искусственного интеллекта следует исходить не из фактов индивидуального сознания, а из коллективного сознания, которым является культура. И Лотман, и Ильенков считали, что интеллект, как и культура, диалогичен (то есть интерсубъективен) и диалектичен (движим противоречием). В своей литературной пародии «Тайна черного ящика» Ильенков убедительно доказывал, что бинарная и внутренне непротиворечивая логика компьютеров действительно несовместима с диалектическим человеческим мышлением.

Ильенков бросил вызов, в частности, выдающемуся математику Андрею Колмогорову, который отождествлял себя с «радикальными кибернетиками» массовых СМИ и популярной науки. В публичной лекции 1961 года под названием «Автоматы и жизнь» Колмогоров утверждал, что в принципе возможно изучать и моделировать человеческий разум с научной точки зрения. Компьютеры открыли беспрецедентные возможности для создания искусственной жизни и интеллекта, согласно чисто функционалистскому пониманию того и другого (т. е. не воспроизводя внутреннюю структуру или сущность естественного интеллекта). « Системы, состоящие из очень большого числа элементов, каждый из которых действует чисто «арифметически», могут приобретать качественно новые свойства », — утверждал он. Однако Колмогоров был далек от мысли, что современные компьютеры и даже предполагаемые «самообучающиеся автоматы» можно представить как «думающие» или имитирующие творческую деятельность человека, такую ​​как «сочинение музыки» или «писание стихов», — ошибочное представление, основанное на «крайне упрощенном представлении о реальной природе высшей нервной деятельности человека, и особенно творческой деятельности». Рассматривая вопрос о том, могут ли машины мыслить, Колмогоров писал: « На практике я большой скептик. Но неправильно пытаться спрятаться за тем фактом, что в машине нет диалектики ». Другими словами, диалектическая концепция мышления не должна мешать ученым исследовать эти вопросы.

Для Колмогорова и других «кибернетиков» (в отличие от «философов») легитимность «кибернетики» и связанной с ней исследовательской деятельности зависела от демонстрации того, что научное изучение и моделирование живых организмов и их когнитивных процессов и функций основывалось на истинно материалистических предпосылках. Однако в их трудах и публичных выступлениях трудно найти выражения чисто механического взгляда на «мышление» или рассуждение, как это было распространено среди их западных коллег. Взгляд, который в конечном итоге возобладал в формирующемся советском ИИ, отражал марксистско-ленинскую формулировку компьютера как инструмента, способного помогать или дополнять человеческое мышление, но не как мыслящей сущности как таковой.

Эта концепция ИИ нашла отклик в 1980-х годах в различных аудиториях. Дмитрий Поспелов, признанный интеллектуальный лидер советского сообщества ИИ, утверждал в интервью 1976 года широко читаемой широкой публике « Литературной газете» , что ни одна из существующих программ ИИ пока не может имитировать естественный человеческий интеллект, который не сводим к логике или расчетам. Обращаясь к исследователям в 1985 году, Гермоген Поспелов писал:

Искусственного интеллекта не «существует», [но] есть свойство компьютеров выдавать те же результаты, которые рождаются в процессе творческой деятельности человека… Все свойства компьютеров, имитирующие творческие процессы, являются результатом того, что человеческие знания и интеллект материализованы (представлены) в компьютере и, конечно, машина не имеет собственного интеллекта; поэтому, когда говорят о шахматном турнире с компьютером, то это, по сути, турнир между программистами, вложившими свое искусство в написание шахматных программ.

В целом, дебаты вокруг внедрения кибернетики в 1950-х годах не противостояли тем, кто выступал за или против компьютеров и их полезности для советской народного хозяйства, а «диалектикам» (или «философам»), которые не верили, что возможно изучать и моделировать мышление или творческую деятельность с использованием объективных научных методов, и тем ученым, «кибернетикам», которые считали, что такая возможность существует, по крайней мере, в принципе. Для группы теоретиков и практиков, к которым мы сейчас обращаемся, «ИИ» стал инновационным инструментом, который поможет решать сложные проблемы в многочисленных социальных и научных областях, таких как биология, медицина, менеджмент и дизайн, обучая или программируя автоматы для работы в мире на основе тщательного и строгого научного изучения человеческого мышления.

Институциональное и международное признание советского «ИИ»

Преобладающий скептицизм по поводу «думающих машин» в Советском Союзе не помешал принятию ярлыка «ИИ», сначала в научных публикациях и на общественных площадках, а с 1970-х годов и в академических исследованиях. Растущее число ученых, заинтересованных в моделировании машинного интеллекта, было разбросано по многим различным учреждениям, чаще всего в академических компьютерных центрах и институтах, специализирующихся на науке и технике управления, прикладной математике, кибернетике, информатике, психологии и лингвистике. Введение нового ярлыка и области требовало энергичного лоббирования на самом высоком уровне академической административной иерархии, как это было в случае с кибернетикой в ​​конце 1950-х годов.

«ИИ» впервые появился как отдельный ярлык в официальных советских академических структурах в 1973 году, когда был создан Научный совет по ИИ в Комитете по системному анализу при Президиуме Академии наук СССР, учреждении, которое координировало большинство гражданских научных исследований. Год спустя была создана секция ИИ в составе Совета по «Кибернетике» усилиями Гермогена Поспелова, который возглавлял обе структуры. Недавно получивший престижную Государственную премию СССР, а затем ставший действительным членом академии, Поспелов был влиятельной фигурой в институционализации советского ИИ. Бывший генерал ВВС и специалист по автоматическому управлению, он заинтересовался применением кибернетики в народном хозяйстве после ухода из армии.

Создание совета и секции по ИИ позволило советским исследователям впервые рассмотреть различные направления исследований и возможностей и спланировать исследовательские проекты и другие виды научной деятельности под этим спорным названием. Две институциональные структуры значительно пересекались и включали видных академических деятелей, таких как Виктор Глушков, Андрей Ершов и Дмитрий Охоцимский. Под эгидой научной секции в течение многих лет в Москве проводился регулярный открытый семинар по ИИ, а также многочисленные научные встречи и другие мероприятия, которые способствовали консолидации ИИ как области исследований, привлекая финансирование и новых исследователей. В частности, в 1974 году это сделало возможным проведение первого советского конгресса, полностью посвященного ИИ, в Тбилиси, Грузия. Четвертая международная объединенная конференция по искусственному интеллекту также прошла в Тбилиси в сентябре 1975 года (первая прошла в Вашингтоне в 1969 году). Ее международный комитет возглавлял Патрик Уинстон (MIT), в него вошли Пэт Хейз (Эссекс), Джон Маккарти (Стэнфорд), Марвин Мински (MIT) и декан факультета советской кибернетики Аксель Берг (Академия наук СССР). Это крупное мероприятие, в котором приняли участие 220 иностранных ученых (в том числе более ста из США), отражало академическую дипломатию разрядки, но также выражало прагматичный интерес по обе стороны политического разрыва. Идея создания международного сотрудничества в области ИИ, и в частности международной лаборатории вычислительных наук, обсуждалась американскими и советскими специалистами с 1973 года. До и во время конференции состоялся ряд переговоров и визитов с этой целью. Во время двухнедельной поездки в США в 1977 году группа советских ученых посетила основные американские центры искусственного интеллекта и компьютерных технологий, такие как MIT, Беркли и Стэнфорд, а также исследовательские центры частных компаний, таких как Xerox и IBM, и правительственных организаций. Смешанная советско-американская рабочая группа стремилась совместно исследовать использование компьютеров в экономике и управлении. Последовали другие научные встречи, и международные контакты усилились. В том же году по совместной инициативе Гермогена Поспелова и британского ученого Дональда Мичи в Репино, недалеко от Ленинграда, была организована международная встреча по ИИ, в которой приняли участие некоторые из крупнейших советских и западных специалистов по ИИ.

Этот первоначальный импульс к сотрудничеству замедлился в конце 1970-х годов после советского вторжения в Афганистан, ареста и ссылки Андрея Сахарова и, в более общем плане, репрессий против движения за права человека в СССР. Даже без этого охлаждения существенные различия в подходах и стилях научной работы были очевидны уже на встрече IJCAI 1975 года в Тбилиси, на которой были представлены узко прагматичные и прикладные работы иностранных (в основном американских) ученых и более теоретически мотивированные советские вклады. В отчете после конференции советский участник раскритиковал американские предложения как «очень конкретные, утилитарные, [и] без теоретического обоснования и обобщения, но эффективные». В то же время международные обмены середины 1970-х годов дали возможность ведущим советским специалистам по ИИ отметить, что, несмотря на сопоставимый уровень теоретического развития (и даже превосходство в некоторых областях), советский ИИ проигрывал в плане финансирования, обучения, технического оснащения и применения, а также в эффективной организации системы научной коммуникации тому, что они могли наблюдать в США.

В последующее десятилетие Г. Поспелов и члены академических секций стремились к дальнейшей институционализации советских исследований ИИ, которым по-прежнему не хватало журналов, исследовательских центров, университетских кафедр и специально выделенных учебных программ. Если в 1975 году в Советском Союзе было от тридцати до тридцати пяти специалистов, способных руководить проектами ИИ, то в 1986 году Г. Поспелов оценил число занятых в этой области в 250 человек. Напротив, в Соединенных Штатах, вероятно, было несколько тысяч человек, работающих над ИИ в университетах и ​​частных исследовательских центрах. Он считал, что относительная слабость советского ИИ совпадала с постоянно растущим отставанием в разработке и производстве компьютеров и программной инженерии по сравнению с развитыми капиталистическими странами.

К середине 1980-х годов решимость Поспелова окупилась; он создал новое видение роли ИИ в советской академической и административной номенклатуре. После его доклада 1986 года Президиум Академии наук принял решение преобразовать секцию ИИ Совета по кибернетике в новый Совет по «Искусственному интеллекту» (тогда как бывшая секция ИИ Комитета по системному анализу была переименована в «Семиотика и когнитология»). Новый совет теперь находился под эгидой Отделения информатики, вычислительной техники и автоматизации, что означало, что исследования ИИ были окончательно отделены от кибернетики и приближены к академическим и министерским органам, ответственным за информатику, а также к электронной промышленности. В 1987 году Президиум установил высокий приоритет исследований ИИ. Он рекомендовал вновь открыть ранее закрытые кафедры компьютерной лингвистики в Москве, Новосибирске, Киеве и других городах, а также создать кафедру когнитивной психологии в Московском государственном университете. Он также рекомендовал организовывать крупные национальные и международные конференции по ИИ и укреплять международные контакты другими способами. Наконец, в неспокойном 1989 году была основана Советская ассоциация ИИ, всего за два года до окончательного краха советской системы.

ИИ понимается как системы управления

Специальная исследовательская программа, разработанная в рамках деятельности академических секций по ИИ под руководством Г. Поспелова в 1970–1980-х годах, была в первую очередь мотивирована убеждением в том, что компьютеры и информационные технологии будут незаменимы для рационализации управления социалистической экономикой. Впервые сформулированная в конце 1950-х годов пионером советской кибернетики Акселем Бергом, идея автоматизированного управления социалистической экономикой наиболее последовательно была сформулирована и пропагандирована лидером украинской кибернетики Виктором Глушковым, автором и главным движущей силой проекта общегосударственной автоматизированной системы управления народным хозяйством (ОГАС).  Другой харизматичный академик и сторонник системного подхода Никита Моисеев также продвигал идею экономики как автоматизированного механизма, своего рода «экономического автопилота». Хотя ОГАС и другие подобные проекты в конечном итоге не были реализованы в той форме, которую представляли себе их авторы, автоматизация и алгоритмическое управление социалистической экономикой оставались важной частью позднесоветского технополитического воображения.

Например, проект «Гранит», пилотируемый в 1980-х годах Г. Поспеловым, задумывался как система коллективного решения задач. Она позволила бы объединить разрозненные автоматизированные системы управления (АСУ), массово внедрявшиеся в советской промышленности с 1970-х годов, в единую компьютерную сеть, своего рода «распределенный искусственный интеллект». На более высоком уровне «Гранит» был нацелен на координацию действий различных органов планирования и управления. ИИ здесь интерпретировался как набор теоретических и технических инструментов для проектирования и управления «большими» или «сложными» системами, такими как объекты нефтяных месторождений и, в конечном счете, национальной экономикой, в отличие от «традиционных» объектов и средств управления. Конечно, это определение его полезности было важно для его политической легитимности. Но Г. Поспелов и коллеги также намеревались консолидировать «ИИ» как конкретную исследовательскую программу, отличную от конкурирующих проектов, направленных на оптимизацию и автоматизацию управления и принятия решений (таких как системный анализ, исследование операций и экономическая кибернетика), с одной стороны, и от общей компьютерной науки и программной инженерии, с другой. В отличие от проектов, основанных на количественных методах, таких как моделирование «вход-выход», методы оптимизации и т. д., «Гранит» был призван предоставить «интеллектуальный интерфейс», использующий качественные данные и текстовые описания заданной области деятельности (своего рода «экспертная система», если использовать более привычный термин).

В то же время, выделение «ИИ» в отдельную область исследований требовало четкого разграничения подходов, основанных на восприятии, с распознаванием образов и статистической индукцией. В частности, Владимир Вапник и Алексей Червоненкис, позже получившие международную известность за вклад в статистическую теорию обучения, и конкурирующая группа по машинному обучению во главе с Марком Айзерманом, оба из Института управления, не были членами этих академических органов по ИИ и не участвовали в международных конгрессах по ИИ 1970-х годов в Советском Союзе. В более общем плане такие подходы существовали институционально под названиями «адаптивные системы» и «бионика», которые имели собственную научную секцию в Совете по кибернетике Академии наук.

Чтобы проиллюстрировать эту разницу в подходе, участники академической программы по ИИ часто описывали шахматные программы и алгоритмы генерации музыки как относящиеся к операционным исследованиям. Это включало в себя, прежде всего, успешную программу чемпиона мира «Каисса», разработанную в 1970-х годах в Московском институте проблем управления группой исследователей под руководством Михаила Донского. Поскольку ее алгоритмы не пытались имитировать способ мышления и принятия решений шахматистами-людьми, они рассматривались как применение комбинаторных методов, а не ИИ. Напротив, легендарный советский гроссмейстер по шахматам Михаил Ботвинник занимался радикально иным (и долгосрочным) проектом, более соответствующим господствующему советскому видению интеллектуальных машин. Инженер-электрик по образованию, Ботвинник стремился создать компьютерную программу, основанную на изучении мыслительного процесса шахматиста. Он описал и формализовал игру шахматного мастера как трехуровневую систему управления и предложил для нее определенный «алгоритм» в 1960-х годах.  С помощью группы математиков и государственной поддержки Ботвинник попытался получить полностью функциональную и конкурентоспособную компьютерную шахматную программу. Хотя он так и не достиг этой цели, этот проект (заброшенный всего за несколько лет до его смерти в 1995 году) имел другие неожиданные концептуальные и практические результаты. Еще в 1979 году Ботвинник предложил использовать свою «шахматную» модель «Пионер» для планирования ремонта оборудования электростанций (в честь своей первой специальности инженера-электрика), а позднее — для планирования народного хозяйства на периоды в пятнадцать и двадцать пять лет.

Хотя проведение четкой границы между всеми этими областями иногда представляло собой деликатную задачу, ИИ, таким образом, по сути, определялся как система управления, имеющая дело со сложными и слабо формализованными областями и проблемами, а не с детерминированными и численными методами, и имитирующая способ мышления и действий человека. Поскольку формальные системы логического вывода не считались золотым стандартом «интеллекта», а для создания адекватного языка его описания требовалось детальное знание области практики, проектирование систем ИИ подразумевало сотрудничество между инженерами, математиками, психологами и практиками. Такое видение лучше всего иллюстрируется работой математика и ученого-компьютерщика Дмитрия Поспелова по «ситуационному управлению (контролю)», которая — наряду с другими проектами, координируемыми академическими секциями по ИИ, такими как проекты, сосредоточенные на человеко-машинном взаимодействии на естественном языке, робототехнике, эвристических методах решения проблем и инженерии, математической логике, психолингвистике и психологии мышления — сформировала ядро ​​советской академической программы по ИИ.

«Ситуационное управление» в больших (сложных) системах

Концепция «ситуационного управления» была вдохновлена ​​оригинальным видением децентрализованного управления, разработанным в 1960-х годах группой ученых, работающих на стыке математики, инженерии, медицины и биологии. По мнению некоторых участников, зимние школы, проведенные в Комарово, курорте недалеко от Ленинграда, сыграли центральную роль в содействии этому междисциплинарному и межинституциональному диалогу. Встречи в Комарово привели к общему пониманию того, что «большие» системы не могут быть исчерпывающе и удовлетворительно описаны или полностью формализованы для централизованного, детерминированного управления из-за сложности, неопределенности или стоимости требуемых вычислений. Для рассмотрения средств управления в таких системах этот кружок опирался на работу математика Михаила Цетлина, который разработал оригинальную теорию «обучающихся автоматов» и сформулировал стратегии для «игр автоматов». Цетлин и его коллеги считали, что средства локальной координации более эффективны для того, чтобы заставить агентов вести себя скоординированно или синхронизированно для достижения общей цели. Легко увидеть, что нормативная интерпретация этого аргумента, применяемая, например, к организационному управлению, противоречила официальной идеологии централизованного и вертикально контролируемого советского государства. Вместе с бывшим соратником Цетлина Виктором Варшавским Д. Поспелов позже написал популярное изложение идей децентрализованного управления через локальные взаимодействия, коллективное поведение и сложные распределенные системы.

Д. Поспелов также извлек пользу из обмена опытом на семинаре по психонике в Московском энергетическом институте, который он организовал совместно с выдающимся советским психологом Вениамином Пушкиным с 1964 по 1970 год. В отличие от бионики , которая изучала живые организмы для лучшего моделирования технических устройств управления, сторонники психоники считали, что психологию человеческого мышления можно изучать научно, и что эти знания будут полезны при моделировании искусственных интеллектуальных агентов.

Оба направления исследований объединились в книге «Мышление и автоматы», написанной в соавторстве Пушкиным и Поспеловым. На нем была представлена ​​модель гиромата — машины для решения задач, разработанной как альтернатива логическим машинам типа изобретенных Саймоном и Ньюэллом — универсальному решателю задач (GPS).  В частности, Пушкин и Поспелов критиковали «модель лабиринта», которую они воплощали, где на каждом шаге процесса принятия решения или рассуждения должен был быть сделан лучший (или лучший) выбор из ряда предложенных вариантов. Они считали модель GPS слишком упрощенной, поскольку решение реальных проблем обычно происходило без предопределенной логической схемы, а наборы заданных вариантов редко указывались заранее. Вместо этого гиромат должен был создавать и хранить в своей «памяти» модель среды, в которой он будет работать. Он должен был построить «лабиринт», который сам приведет к желаемой цели. Таким образом, поиск соответствующих средств для создания адекватного представления мира или реальной ситуации внутри машины стал центральным в работе Д. Поспелова по ИИ. В 1969 году он писал: «Единственный способ расширить возможности машины решать творческие задачи, адаптировать ее к неизведанной среде, самоорганизовываться и т. д. — это создать внутри нее семиотическую систему ее внешнего мира».

В 1970–1980-е годы Д. Поспелов разработал свою исследовательскую программу «ситуационного управления (контроля)», с которой его школа искусственного интеллекта стала тесно связана. Ситуационное управление предназначалось для класса крупных (или сложных) систем, таких как морской порт, транснациональная корпорация, город или экосистема, где было невозможно или нецелесообразно представлять процессы управления или принятия решений в виде формальной системы. Такие «нетрадиционные объекты управления» часто уникальны, цель их существования не может быть формализована и, следовательно, не может быть оптимизирована, а некоторые их элементы наделены свободой воли. Таким образом, «ситуативный» по сути означал учет человеческого поведения, а также конкретной структуры, функционирования и динамики управляемой системы. В качестве основы «ситуационного управления» Д. Поспелов ввел класс «семиотических моделей» (или логико-лингвистических моделей) в противовес формальным моделям (как символическим, так и числовым). Такие модели должны объединять семантические (смыслообразование, понимание) и прагматические аспекты (роли, сценарии) и будут более подходящими для описания изменяющейся среды, планирования сложного поведения и поддержки взаимодействия человека и машины.

«Семиотические модели», как мы теперь видим, не основывались на формальных правилах дедукции или «модели лабиринта». Д. Поспелов стремился предложить «новый подход к моделированию человеческого рассуждения и принятия решений относительно объектов, действующих в реальной физической среде». Для того чтобы спроектировать машину, которая могла бы имитировать человеческое мышление, которое может быть логически непоследовательным, приблизительным, обычным, зависящим от контекста и даже «абсурдным», он разработал так называемые «псевдофизические логики», представляющие, например, спонтанные знания человека о пространственно-временных отношениях, таких как «расстояние» или «размер», или причинно-следственные связи. Эти модели содержали лингвистические переменные со значениями, такими как «очень далеко», «довольно далеко», «ни далеко, ни близко», «ближе, чем», «очень близко», обозначающими субъективные оценки расстояния. По сути, Д. Поспелов и его коллеги решали хорошо известную проблему в ИИ: как воспроизвести в машине человеческий «здравый смысл», т. е. неартикулированное, основанное на правиле большого пальца, интуитивное и приблизительное знание того, как работает реальный мир, которое остается достаточно эффективным, чтобы адаптироваться к различным контекстам действия.

Такая версия ИИ, или, по крайней мере, того, чем она должна быть, позволила Д. Поспелову также выделить эту область среди других форм автоматизации. На заседании Президиума Академии наук, посвященном вопросу создания новой секции по ИИ в 1987 году, президент академии Гурий Марчук, крупный специалист по вычислительной математике и физике атмосферы, пришел к выводу, что ИИ отражает «новый фактор, связанный с автоматическим принятием решений… не жестким, а гибким; решение должно соответствовать здравому смыслу».

В связи с центральным положением семиотических моделей для ситуационного управления Д. Поспелова, он в конечном итоге определил всю свою исследовательскую программу как «прикладную семиотику», гибридную форму знания, которая объединяет теорию управления, информатику, психологию и даже структуралистский анализ литературных текстов и культуры. Разделяя концепцию культуры как метатекста (особенно развитую в работах Юрия Лотмана и других представителей Тартуско-московской школы семиотики), в своих поздних книгах Д. Поспелов широко цитировал русскую литературную классику и культурный анализ. Например, чтобы создать язык для описания типичных персонажей, ситуаций или сценариев действия («кадров»), он обращался к формальному анализу сказок Владимира Проппа, интерпретации итальянских масок Михаила Бахтина и т. д. Искусственный интеллект, если он должен был быть достигнут, должен был бы ассимилировать человеческий мир культуры и смысла. Если, в некотором смысле, проект Поспелова (как и провалившийся проект Ботвинника) на самом деле не был направлен на очеловечивание машины, он был очень далек от идеи механизации человеческого разума или создания «черного ящика» за пределами человеческого понимания.

Заключение

Сторонники институциональной и культурной формы ИИ в Советском Союзе в 1960–1980-х годах находились под сильным влиянием нежелания принять свойство «мышления» электронных машин и сосредоточенности на организационном управлении (контроле), а не на индивидуальной рациональности (выборе). Эта генеалогия частично объясняется интеллектуальным влиянием марксизма, как в его догматической марксистско-ленинской, так и в его неортодоксальной версиях, а также центральным положением теории управления в этой области с ее приложениями к биологии, экономике или информатике. В советском сообществе ИИ центральная проблема ИИ, таким образом, обычно интерпретировалась как управление в «больших» системах. Неслучайно в рассказе Ильенкова 1964 года «Тайна черного ящика» высшая сущность ИИ называется «Система управления». Образы Ильенкова проницательно связывали ИИ с властными отношениями и подчинением всеобъемлющей алгоритмической логике оптимизации и рационализации (эффективности), которую он считал враждебной самой сути человеческого опыта.

В отличие от критики кибернетики Ильенковым, советские исследования «ситуационного управления» в 1970-х и 1980-х годах воплощали потенциально подрывное видение общества как распределенной системы, саморегулирующейся и самоорганизующейся посредством локальных взаимодействий («оркестр играет без дирижера»). Однако советский ИИ, несомненно, участвовал в алгоритмической рационализации общества и человеческого опыта, проектируя механизмы управления в гибридных человеко-машинных системах и подчеркивая, что цель ИИ (и «естественного» мышления) по сути дела заключалась в моделировании и контроле поведения. Специалисты по ИИ стремились предоставить менеджерам новый язык и новый набор инструментов для решения проблем на местах. Концепция ИИ Дмитрия Поспелова лежит как раз на той размытой границе, где кибернетический контроль машин становится управлением человеческими обществами. «Интеллектуальная» машина в конечном итоге будет «контролировать» в точке, где человек терпит неудачу перед лицом подавляющей сложности.

Хотя этот инженерный подход имел некоторые приложения или, по крайней мере, реальные эксперименты в организационном управлении, промышленности или медицинской диагностике, советская академическая программа по ИИ в конечном итоге осталась гораздо более спекулятивной и менее обусловленной промышленными приложениями, чем ее американские аналоги. По разным причинам возникшая концепция контроля не участвовала напрямую в последовательных попытках переопределить советскую экономическую и политическую систему. По иронии судьбы, в тот самый момент академического признания и институционализации ИИ в Советском Союзе в конце 1980-х годов набирала обороты другая мощная идея — идея «рыночного механизма», которая затем должна была координировать социалистическую экономику. В этом контексте освобождение советского ИИ от кибернетики после 1987 года одновременно подразумевало сдвиг в понимании «ИИ как системы управления» в сторону проектирования «интеллектуальных систем», рассматриваемых как своего рода общая «информационная технология», более подходящая для постидеологических гибридных сред, характеризующихся прогрессивной технологической унификацией.

--------------------

Конец цитате.  Источник   - https://www.cambridge.org/core/journals/bjhs-themes/article/soviet-scientific-programme-on-ai-if-a-machine-cannot-think-can-it-control/ 

Что тут можно добавить... книжки Цетлина стоят у меня в "виш-листе" на озоне ( жду когда упадет ценник ) 

20250628112856_mceclip0.png.jpg

Но... само исследование было проведено западоидами в партнерстве с ВШЭшниками... плотно мониторят поляну на предмет повторения аналогов. Как бы не пропустить чего... но зря время тратят - Китайцы уже ускакали вперед их.  Да, там есть кое какие у них орг структурные проблемки внутри, но в целом уже очевидно, что также как "американская" оказалась менее спекулятивной в свое время, так и сейчас оная из-за завязки на банкиров с хайпом, уже является на этот раз более спекулятивной чем.

И тут весь вопрос, что будет на нашем шарике в среднесроке исключительно в  "временных горизонтах" и классической геополитоте, кто быстрее все приспособит к Реальному Сектору, а не к "картинкам" с "чат-ботами".

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Эпиграмма
Эпиграмма(9 лет 4 месяца)

Читать невозможно, будто на каком-то страшном говноязыке, а не на русском напийсано. 

А можно просбу высказать? Ват ТС в авторском комменте мог бы выразить основную мысл  жтого текста в абзаце из пятияшести предложений, написанных человеческим языком? А то ведь ужас какой-то. Будто дебилами для дебилов писано.

Аватар пользователя Shulz
Shulz(3 года 5 месяцев)

Вот выжимка самой сути, сгенерировано LLM Claude 4.0 - просто и понятно:

Советская программа ИИ - машины как помощники, а не мыслители

Главная идея

В СССР 1970-80х годов искусственный интеллект понимали не как "думающие машины", а как умные системы управления для решения сложных задач, которые нельзя полностью просчитать математически.

Почему советский ИИ был особенным

Философский подход: Советские ученые считали, что машины не могут думать - они лишь помогают человеку мыслить. Причины:

  • Мышление - это социальный процесс, результат общения поколений людей
  • Творчество нельзя свести к механическим вычислениям
  • Компьютер - это инструмент, а не мыслящее существо

Практическая цель: Создать системы для управления "большими сложными системами" - заводами, портами, целыми отраслями экономики, где нельзя все просчитать заранее.

Ключевые фигуры и идеи

Дмитрий Поспелов - главный теоретик советского ИИ. Создал концепцию "ситуационного управления":

  • Машина должна понимать реальные ситуации, а не только цифры
  • Использовать "здравый смысл" и приблизительные оценки (типа "довольно далеко", "очень близко")
  • Работать с неполной и нечеткой информацией

Отличие от американского подхода:

  • Американцы: сделать машину, которая мыслит как человек
  • Советские: сделать машину, которая помогает человеку управлять сложными системами

Практические результаты

Что получилось:

  • Создали теорию управления сложными системами
  • Развили идеи о децентрализованном управлении
  • Заложили основы современных экспертных систем

Что не получилось:

  • Проекты вроде автоматизации всей экономики СССР остались на бумаге
  • Отставание в компьютерной технике от Запада
  • К концу 1980х идея "рыночного механизма" вытеснила планы алгоритмического управления

Почему это интересно сегодня

Советский подход предвосхитил многие современные проблемы ИИ:

  • Как сделать ИИ понятным для человека
  • Как управлять сложными системами
  • Как сочетать точные расчеты с "здравым смыслом"

Вывод: СССР создал альтернативную философию ИИ - не "заменить человека", а "усилить человека". Эти идеи снова актуальны в эпоху споров о безопасности и этике искусственного интеллекта.

Аватар пользователя Эпиграмма
Эпиграмма(9 лет 4 месяца)

Спасибо. Почти один в один я с Клавдией "вкурила".

Поразительно для меня то, что мне очевидно, что называемое сегодня ИИ - это инструмент, а не нечто думающее и советские правы по сути, а для многих и многих это почему-то "думающие машины", а то и вовсе некие невообразимые сущности. 

Рано ещё)))

Аватар пользователя CatOwner
CatOwner(8 лет 4 месяца)

Оно должно быть инструментом, но постепенно превращается в информационный вирус, который в перспективе, если не принять меры, угробит цивилизацию. 

Аватар пользователя Luchist
Luchist(2 года 3 месяца)

Дети, которые с рождения воспитывались животными, не умели ни говорить, ни мыслить, ни понимать речь, и это не смотря на наличие вполне здорового мозга. Нейрокомпьютер без ОС или без обучения на культурных достижениях человечества — обычный калькулятор. О чём это говорит? Что нейронные сети мозга и нейроподобные сети ИИ не умеют абстрактно мыслить без доступа к памяти культурной общественной среды, т.е. к коллективному духу предков (культ-у-РА РАзума). Электрическая энергия и электромагнитная память загробных духов программирует и оживляет все материальные, сложноустроенные машины!

Аватар пользователя Падагоптр
Падагоптр(10 месяцев 3 недели)

Основная ошибка современных адептов ИИ - это предположение что интеллект всего лишь способность обрабатывать и обобщать полученные ранее данные. А это отнюдь не так - как не крути, но некая мистическая составляющая в нём присутствует в полный рост. Можно назвать её как угодно - озарение, предвидение, прокол сути - но она есть, являясь видимо неотъемлемой частью сознания как такового. Как следствие - машина не обладающая сознанием не может обладать и интеллектом. Хотя - возможно всё ещё глубже зарыто..

Комментарий администрации:  
*** отключен (геббельсовщина) ***
Аватар пользователя talvolta
talvolta(3 года 3 недели)

Суть такова - диалектики признали память ( социальную концепцию разума - мы нынешние продукт опыта предков) компьютера главным элементом. 

Сами связи на спайках (припоем с канифолью) схемы были признаны базой разума ,а сам он надстройкой , КАЧЕСТВЕННО отличающейся от базы. 

Последовательные материалисты (не диалектические, как Маркс и Энгельс) в лице Колмогорова утверждали, что это ошибка. 

Кроме базы - нет ничего и алгоритмы настоящего мышления (пусть и нечеловеческого) - можно написать на бумажке.

 Предлагались алгоритмы нового построения всех чисел - от натуральных до комплексных. Научившись их строить этот разум должен был создать новый язык бытового общения для обьективных разьяснений понятий математики. Для начала.

Эту тему резко забыли (а наработок была куча) и пошли по памяти. По пути наименьшего сопротивления (и страха), как электрический ток.

И амеры со своей сильнейшей школой бихевиоризма пошли по ней.

Поэтому сейчас - общественное обучение и имитация интеллекта со старой помойки ошибочных изначально (начиная с математики, мы точно неправильно числа строим и это проблема нашего мозга в слепой эволюции) человеческих знаний и преподнос такой бадяги, как интеллекта.

По серьезному еще никто не рискнул и такое намного дороже стоит, чем учить букву за буквой писать на основе забитой до краев памяти. И греется обращение к памяти нехило, раньше вентиляторы инкорпорировали.

Аватар пользователя talvolta
talvolta(3 года 3 недели)

А статья - хорошая, благо по диагонали умею политику читать и ненужную воду. 

Аватар пользователя 666
666(11 лет 11 месяцев)

Помню на кафедре в 1985 г методичку для студентов по медицинскому "ИИ" подшивал. Пообсуждали потом ее с зав кафедрой Кириковым. Проблемы слепить тогда ее не было. Основная проблема что бы была строка по вводимым признакам. Все это надо было вводить на основе опыта врачей. А теперь просто этот процесс взял на себя ИИ. Проблему только вижу что медики неохотно делятся знаниями. И это понятно. Это их хлеб

Аватар пользователя Александр Мичуринский

Проблему только вижу что медики неохотно делятся знаниями. И это понятно. Это их хлеб

Не медик. Но разве это так?

Насколько я знаю, медиков регулярно отправляют на переподготовку, где они приобретают всё новые знания.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Это проблема ИТ-шников, которые вместо того, чтобы узнать, как врачи работают, потребовали от врачей вероятности с правилами, которыми врачи попросту не знают (вероятности) и зачастую не могут формализовать (правила).

Аватар пользователя Strim
Strim(12 лет 10 месяцев)

ха-ха

заменить понятие душа понятием коллектив -это они мощно формулировали

Аватар пользователя Александр Мичуринский

Абсракт.

Символичная опечатка

Аватар пользователя vmarvin
vmarvin(10 лет 5 месяцев)

Абсракт.

Символичная опечатка

Не опечатка. Сравните с "Теле$рам" .

Аватар пользователя Константин Стратан

smile13.gif!!

Аватар пользователя Коралл
Коралл(5 лет 2 месяца)

Задача американцев была в том, чтобы "мягко" вбить клин а программы развития вычислительной техники в СССР, подлить бензина в споры о кибернетике и внушить партийному руководству мысль, что Государственная АСУ заменит Брежнева... Такие были времена.
И это американцам удалось.
А потом, трубы за газ, снижение цен на газ, "Звёздные войны" и развал СССР, продавшимся за пиццу раисиным Мишей Горбачёвым и почувствовавшими власть "национальными лидерами". :(
Вывод; надо учиться на ошибках, мыслить собственной головой. А ИИ пусть комбинирует, контролирует и считает  :)

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Я как раз в те годы по завершении  кандидатской по нейрофармакологии в качестве второго высшего оказался на спецпотоке ВМК МГУ, хотелось самому пощщупать, что математики могут предложить для обсчёта нейронов. Правда, не закончил по причине окончания СССР, но по специальности "системное программирование" экзамены полностью были сданы, плюс факультативы по ИИ.

Если убрать отсылки на марксизм-ленинизм, которые нигде, кроме в ритуальных предисловиях в монографиях со ссылкой на очередной Съезд КПСС на практике не использовались, то в материале действительно скрупулёзно подмечена ключевая парадигма развития советских интеллектуальных систем того времени - "создание системы начинается с моделирования предметной области". Что худо-бедно замыкает систему на реал - в отличие от современных чат-гопотоидов, для которых правильно то, что ретроспективно более часто на интернет-помойке.

Причём тогда студентам давали одновременно все основные подходы к разработке интеллектуальных систем - вероятностные, экспертные системы на правилах, и на методах оптимизации из линейной алгебры. Со всякими перцептронами и обходами графов.

Научные статьи и монографии шли на тему переложения человеческих метдов мышления на компы - например, как переложить "аналогию", что есть заход на автономное создание правил уже не экспертом, а аримометром. Плюс куча прикладных наработок, от химии до преподавания и лингвистических процессоров, а не только всеобщий экономическо-управленческий охват, как представлено в статье. Мне как молодому были интересны нейроны, а матёрые спецы из питерского Института Мозга (Наталья Бехтерева, Царствие ей Небесное), эти нейроны уже давно на компах крутили, по разрядам статистически достоверно угадывали, какое число от 1 до 10 загадывал пациент.

Так что нынешнее промежностное наяривание на чат-гопотоиды это разводка лохов на бапки, реальные ИИ появятся через взаимодействие с реалом.

Аватар пользователя Shulz
Shulz(3 года 5 месяцев)

По поводу "моделирования предметной области" - это действительно была фундаментальная особенность советской школы. В отличие от современного подхода "больше данных = лучше результат", советские системы строились на глубоком понимании того, КАК работает конкретная область. Это давало преимущество в интерпретируемости и надежности.

Насчет комплексного подхода - совершенно верно. Тогда не было "религиозных войн" между нейросетями и символьным ИИ. Изучали все: и перцептроны Розенблатта, и продукционные системы, и байесовские сети. Современная зацикленность на трансформерах выглядит довольно убого на этом фоне.

Особенно интересны ваши наблюдения о практике

Работы Бехтеревой - это же классика! Их исследования декодирования нейронной активности на 40 лет опередили современный "brain-computer interface". Причем делали это на совершенно примитивной по нынешним меркам технике, но с глубоким пониманием нейрофизиологии.

Про аналогии - это ведь прямой путь к тому, что сейчас называют "few-shot learning" и "meta-learning". Советские исследователи пытались формализовать механизмы человеческого мышления, а не просто натаскать статистическую модель на терабайтах текста.

Современные параллели

Ваше замечание про "промежностное наяривание на чат-гопотоиды" - в точку. LLM'ы впечатляют, но это все-таки "попугаи", пусть и очень искусные. Они не понимают мир, а лишь манипулируют паттернами в тексте.

Кстати, интересный парадокс: советские системы были слабее технически, но сильнее концептуально. Современные - наоборот. Возможно, синтез этих подходов и даст настоящий прорыв.

Как человек с двойным образованием (нейрофармакология + матметоды), вы видели проблему с обеих сторон. Сейчас такая междисциплинарность большая редкость, а жаль - именно на стыках и рождаются прорывы.

P.S. Любопытно было бы услышать, что вы думаете о современных нейроморфных чипах - не возвращение ли это к тем идеям моделирования реальных нейронов?

(данный текст был написан LLM Claude 4.0 Sonnet)

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

На современном технологическом уровне планеты Земля нейроморфные чипы не реалистичны чисто технически. 

С математической точки зрения в мозге на аппаратном уровне реализовано умножение вектора на матрицу и матриц на матрицы. Даже отдельный нейрон это около 10 тысяч синапсов, работающих параллельно, причём в диапазоне, задаваемом нейрохимией (синаптические медиаторы, ионные каналы, постсинаптические рецепторы и модуляторы) вместо 0/1. Синапсы на нейрональном отростке складываются в вектор, несколько нейрональных отростков на нейроне образуют первичную матрицу, из нейронов с их нейрональными отростками складываются вторичные матрицы - нейрональные колонки, из нейрональных колонок складываются ядра мозга как матрицы высших порядков.

Всего около 90 миллиардов нейронов, на каждом около 10 тысяч синапсов, всё работает параллельно в нейрохимическом диапазоне значений вместо 0/1, с длинными связями, петлями и обратными связями на возбуждение и торможение.

Причём на энергетике бутырзика с кофеем - вместо атомной электростанции в розетке.

Это не означает, что не надо такими чипами заниматься, просто надо понимать разрыв между реальным мозгом и арифмометрами.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

"Про аналогии - это ведь прямой путь к тому, что сейчас называют "few-shot learning" и "meta-learning". Советские исследователи пытались формализовать механизмы человеческого мышления, а не просто натаскать статистическую модель на терабайтах текста."

Не, это скорее из серии обзывания сталинских МТС как shared economy. Ясно же, что свёрнутое в астрактные символы знание "если в одной и той же доле легкого притупление при перкуссии и мелкопузырчатые хрипы, то это физикальные признаки пневмонии - а если при перкуссии звук тимпанический и крупнопузырчатые хрипы, то это полость в лёгких" можно обрабатывать на домашнем ноуте с обучением нейросетки за один проход, а натаскивать арифмометр на аудиозаписях миллионов пациентов с пневмонией требуется дата центр, подключённый к ядерному реактору.

Ан нет, пока западоиды по модному, по заграничному не обзовут, наши карго-культисты не почешутся, и всё будут надергивать на "большие данные".

Аватар пользователя Снег башка попаду

советские системы были слабее технически, но сильнее концептуально. 

Помню мне вузе рассказывали про системы ЧПУ советские и японские 80х годов. Типа у японцев была хорошая техника, но алгоритмы там были на уровне детского сада. У советской техники наоборот. Вроде рассказывающий сам в 90е на японцев по этой теме и работал. 

Аватар пользователя RomanSmirnov
RomanSmirnov(11 лет 8 месяцев)

Трансляция "предметности" тесно с семиотикой связана и прч.,  про нее упомянуто в тексте, но что интересно гпт в своей выжимке( в первом камменте ) про нее ничего не написал, он вообщем там все детали пропустил действительно важные, что впрочем не удивительно.

ибо "генеративный"

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

(Де)генеративный.

Привязка к семантике/предметной области это ж ключевое в советском подходе, "разработка системы начинается с моделирования предметной области".

Там дальше возникают фэнтези на тему, как сделать арифмометры, которые сами создают реалистичные модели предметной области за рамками обучающих выборок - но пока еще не победили в "бутлерианском джихаде" первого рода, против бредогенераторов, для которых правильно то, что ретроспективно более часто, а не то, с чем имеем дело в реале в конкретном случае.

Дальше будет "бутлерианский джихад" второго рода - против арифмометров, которые оперируют реалом, но в случае конфликта интересов проводят оптимизацию решений под свои нужды, а не под нужды кожно-мясных.

Аватар пользователя Константин Стратан

Тем более, что:

1. Управление – это единая упорядоченная совокупность разнокачественных процессов принятия решений и управляющих воздействий субъекта управления по мере обработки им информации для достижения объектом управления и/или субъектом управления заданных целей в определенной мере под воздействием внешней среды, внутренних изменений и иерархически высшего управления.

 

2. Основополагающий принцип управления любым процессом заключается в постановке (определении) целей управления, в непрерывном слежении за ошибкой управления по мере поступления заранее определенных видов информации (отклонениями от целей управления), в оказывании управляющих воздействий на их уменьшение вплоть до достижения каждой из заданных целей в определенной мере. Достижение целей в нужной мере означает завершение данных процессов управления.

Процесс управления начинается с определения целей и завершается по их достижении в нужной мере  или отказом от их достижения полностью или частично. Управление осуществляется выполнением всех функции управления в соответствии с категориями и принципами КТУ.

В. А. Симонян.

Аватар пользователя Telemax
Telemax(3 года 9 месяцев)

спасибо, познавательно.

Аватар пользователя stoyoda
stoyoda(6 лет 11 месяцев)

Кто о чем, а вшивый я - о бане.

Компьютерная тема в СССР начала развиваться с конца 40-х начала 50-х. За тридцать пять лет направление достигло такого состояния, что в одиночку уделывало "Запад" примерно в одни ворота, даже несмотря на административно установленное ограничение в производстве "железа" и связанные с этими ограничениями трудности развития. СССР значительно опережал запад в распознавании речи и текста, например. Очень многое, связанное с этим сегодня, разработано в советских НИИ и утащено туда советскими учеными. Даже эта статья, несмотря на постоянные отсылки что в СССР все делалось на западных идеях, дает понимание масштаба явления и масштаба трагедии современного состояния индустрии в России. Те же самые 35 лет, мощнейший фундамент и откровенно плачевное состояние. Нет, по сравнению с отдельными европейскими странами мы еще игого, но ведь мы были первыми! С этим можно спорить - с первым местом - но спорить, что мы практически на равных конкурировали с остальным миром, то есть совокупным западом, спорить невозможно! 

К вопросу об эффективности капитализма. 

Аватар пользователя Harsky
Harsky(13 лет 9 месяцев)

Аватар пользователя викт54
викт54(3 года 2 месяца)

Когда коммент внушительнее, чем статья:

...  подмечена ключевая парадигма развития советских интеллектуальных систем того времени - "создание системы начинается с моделирования предметной области". Что худо-​бедно замыкает систему на реал - в отличие от современных чат-​гопотоидов, для которых правильно то, что ретроспективно более часто на интернет-​помойке.

... студентам давали одновременно все основные подходы к разработке интеллектуальных систем - вероятностные, экспертные системы на правилах, и на методах оптимизации из линейной алгебры. Со всякими перцептронами и обходами графов.

Научные статьи и монографии шли на тему переложения человеческих методов мышления на компьютеры. Плюс куча прикладных наработок, от химии до преподавания и лингвистических процессоров, а не только  экономическо-​управленческий охват.

Так что нынешнее промежностное(?!) наяривание на чат-​гопотоиды это разводка лохов на бапки, реальные ИИ появятся через взаимодействие с реалом.

Аватар пользователя InV
InV(5 лет 4 месяца)

Много жуткого текста.

Всё будет проще. Из ИИ сделают превентивного третейского судью, решения и указания которого буду подаваться как неоспоримые , но........... в реале к заключениям ИИ будут подмешивать ангажированные людьми задачи. 

Аватар пользователя Ковбойский каблук
Аватар пользователя Лев Калмыков

Неслучайно в рассказе Ильенкова 1964 года «Тайна черного ящика» высшая сущность ИИ называется «Система управления».

Рассказ шуточный: "Если мы будем мыслить, так и похожи мы будем не на Черный Ящик, а на Человека, будь он неладен!" (из рассказа).

Например нейронные сети - чёрные ящики с их проблемами.

А слово "Тайна" можно заменить на "Проблема".

Вообще термины черный и белый ящик появились давно, в "Кибернетике", но заслуживают большого внимания и понимания.

Аватар пользователя Кьньвпальто

Кибернетика это продажная девка империализма.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

в 1970-х и 1980-х годах воплощали потенциально подрывное видение общества как распределенной системы, саморегулирующейся и самоорганизующейся посредством локальных взаимодействий («оркестр играет без дирижера»)

Теперь это уже не прорывное видение, а наблюдаемая реальность. 

Аватар пользователя tribotinka
tribotinka(3 года 9 месяцев)

Душновато написано, но в целом правильно. Где то к 70м годам - что у нас, что на западе оптимизм по поводу ИИ резко спал. Какие то простые кибернетические задачки - то что сейчас зовется "слабый ИИ" решать научились, в том числе и довольно сложные задачи по моделированию стахстических процессов, АСУ ТП, навигация в безвоздушном пространстве и пр.  Но это конечно не "ум" а кибертнетика. Даже появились первые "решатели" - в медицине - которые умели диагностировать по симпотомам и предлагать решение по лечению болезни. Потом - почти 20 лет была тишина. Холодным душем было что в 1969 году Марвин Мински и Сеймур Паперт опубликовали свою книгу "Персептроны" . В ней они показали принципиальные ограничения перцептронов и выдвинули на первый план неспособность перцептронов управлять элементарной схемой XOR. Это привело к смещению интереса исследователей искусственного интеллекта в противоположную от нейросетей область символьных вычислений. Амерканцы старались пойти экстенсивно - путем добавления большего числа размерностей и вычислительных ресурсов. Собственно поэтому и сдохла наша программа "Каисса" - потому что за счет тактовой частоты и памяти американцы побеждали наши, пусть и хитрые алгоритмы, но работающие на слабой элементной базе. 
Но были и достижения - в силу того что социализм был все такие командной экономикой - выросли проекты по моделированиюи управлению всей страной. Проект ОГАС академика Глушкова был крайне интересен, применяя лучшие практики имитационного моделирования. А лебедевские машинки из Киева вполне себе решали задачи сетевых коммуникаций - то что потом назовут интернетом и распределенными вычислениями. Однако опять же - это все в прошлом. И на рубеже 80х годов с ИИ было все плохо.  Математики назвали это "зимой ИИ". Но потом начали копать в сторону рекуреннтных нейросетей, машину Больцмана - и математиков осенило - как можно ускориться и брать большие наборы узлов. В 1981 году правительство Японии начало серьёзно вкладываться в исследования в области искусственного интеллекта. Страна выделила 850 млн долларов на проект «Компьютер пятого поколения». Параллельно в этот момент решился вопрос коннекционизма. В 1982 году Хопфилд создал новую форму нейронной сети, которая способна изучать и обрабатывать информацию. Джеффри Хинтон и Дэвид Румелхарт популяризировали метод обратного распространения ошибки. Эта технология была феноменальной и остается жизненно важной в машинном обучении и по сей день. В конце 80х ИИ выздоровел - по крайней мере получил коммерческий успех в виде «экспертных систем»... Но .. наступила вторая "зима ИИ". Успех ИТ - даже 32х разрядных ЭВМ, и 386х - не дал прогресса для экспертных систем. Свыше 300 ИИ-компаний закрылись, обанкротились или были куплены к концу 1993 года.  Япония тоже закрыла свой проект в 1991 - признав что не достигла целей. Однако математики и тут не растерялись - придумав концепцию Интеллектуальный агент (ИА). ИА — это система, которая самостоятельно выполняет задание, выданное пользователем, в течение длительных промежутков времени. В течение 70-х-80х годов в искусственном интеллекте произошло много интересного, но одним из главных результатов было то, что люди поняли: при помощи градиентного спуска можно обучать не только отдельные перцептроны, но и большие искусственные нейронные сети, состоящие из, теоретически говоря, любого числа перцептронов, соединённых в любых комбинациях (разве что без циклов). Эта идея довольно проста, и к середине 1980-х годов она окончательно стала мейнстримом в искусственных нейронных сетях: стало понятно, что есть единый алгоритм обучения, который, теоретически говоря, должен работать для любой архитектуры нейронной сети, сколько бы в ней ни было слоёв и нейронов. К этому времени относятся и основанные на работах Колмогорова результаты Хорника об универсальности нейронных сетей: оказалось, что даже не очень глубокая нейронная сеть способна, теоретически говоря, приблизить любую функцию, решить любую задачу…  Появилась надежда, что однажды мы сможем научить ИА взаимодействовать друг с другом. Но в 80х годах не было ни вычислительных мощностей, которые могли бы обучать такие нейронные сети, ни, что самое главное, оцифрованных данных, на которых они могли бы обучиться.. Самое прикольное - что и в ИТ начали разочаровываться - американская промышленность оценила эффект от внедрения ЭВМ - грубо говоря что переход от бумажных квитанций к электронным дал порядка 3х кратнойго прироста производительности труда.  Но потом аналогичного эффекта уже не было. И вкладываться в ЭВМ перестали. Пошли скорее в сторону персоналок, игровых консолей и пр. А ИИ остался для ученых. Для ИИ 90е стали эпохой расцвета так называемых ядерных методов (kernel methods), в частности, метода опорных векторов. Всё время продолжали развиваться вероятностные (байесовские) подходы к машинному обучению. Сделанный по этой схеме Deep Blue - выиграл в 1997 по шахматам у Каспарова. В 2005 году Стэнфорд разработал робота для автономного вождения. Он выиграл DARPA Grand Challenge, проехав 131 милю (211 км) по неизученной пустынной трассе.. И конечно - мега прорывом было что в 2005–2006 годах группа академических исследователей под руководством Джефри Хинтона и Йошуа Бенджи начала обучать глубокие нейронные сети, в том числе на ограничееной машине Больцмана - что дало феерическую скорость обучения и резко повысило точность. Это был еще не коммерческий ИИ — но уже его непосредственная база, с которой потом и поехали все эти Google, AlphaGo, Siri , Алисы и пр... Ну а сейчас вовсю идет волна трансформеров, еще одной крутейшей штуки открытой в проекте Near исследователями  Google в 2017 году.. 

Аватар пользователя Лев Калмыков

В 2016 году DARPA инициировало проект  «Объяснимый искусственный интеллект» (XAI). Цель проекта XAI — «открыть черный ящик», чтобы объяснить причины решений, принимаемых ИИ, повысить безопасность и надежность этих решений, а также повысить доверие к  ним конечного пользователя. Стратегическая  цель проекта — создание автономных интеллектуальных систем, которые обучаются, принимают решения и действуют самостоятельно, сочетая машинное обучение  с другими технологиями ИИ. В последующие годы появилось много исследований по «XAI», но пока они посвящены  не открытию черного ящика нейросетевого ИИ, а заверениям в том, что системам на основе черных ящиков можно доверять.

Аватар пользователя ukc_urpek
ukc_urpek(8 лет 5 месяцев)

Партийные головы просто испугались, что машина "додумается" до того, до чего они и сами уже додумались, но не могли произнести вслух: что вся марксистко-ленинская лабуда есть чистой воды несбыточная утопия и чушь несусветная. Поэтому вообще все компьютерные технологии оказались в СССР на задворках науки. Что бы там советские учёные ни придумывали - всё стопорилось, и никакого широкого внедрения, применения и развития не было. 

Аватар пользователя Галс
Галс(8 лет 11 месяцев)

Пока читал, решил проверить написанное в статье.

Формулирую задание для ИИ причем с ошибками: 

Привет. Есть к тебе задание. Напиши короткое стихотворение. Только свое, Не копируй ни у кого. Лейтмотив следующий: трели соловья, летом у берега реки, прекрасный субботний деньЮ одно на согорчает близкое присутствие войны, мысленно спросил у кукушки будет война, после посыла мысли к ней, на перестала куковать, сейчас тишина, вечереет, завтра новое утро и мы полны оптимизма и надежды.

Первый пошел GROK: 

Соловьиная песня

Трели соловья над рекой летом,
Субботний день прекрасен у берега,
Но тень войны тревожит в этом свете,
Мысль у кукушки: будет ли беда?

Послал ей мысль — куковать она смолкла,
Тишина легла, вечер наступает,
Но завтра утро нас с надеждой встретит,
Оптизм в сердцах вновь оживает.

Второй пошел Deep Seek: (пропускаю его ценные мысли)

Вот стихотворение, рождённое из вашего образа:

«У реки в субботу»

Трель соловья над речной волной,
Июльский зной, покой берёз...
Но ветер вдруг, незваный, вой
Принёс издалека — до слёз.

Спросил у кукушки: «Будет беда?»
— Замолкло эхо в стволах сосны...
Лишь тишина. И вода. И звезда,
Что каплей упала с вышины.

Вечер синим платком окутал сады,
Спрятал тревогу в сумерек ткань.
Завтра проснёмся — и снова в пути,
Река — вопреки! — продолжит течь.
Надежда, как ива, склонится к плечу:
«Живи. Догорай. Но не смей предать речь
Того, кто умеет свет зажечь».

Пояснение ключевых образов:

  1. «Ветер-вой» — незримое эхо далёких взрывов;

  2. Молчание кукушки — природа затаилась перед ответом;

  3. «Река — вопреки!» — символ непрерывности жизни;

  4. «Ива к плечу» — утешение и гибкость перед бурей;

  5. «Свет зажечь» — намек на человеческое упорство.

Тишина после вопроса к кукушке — самый тревожный и самый честный момент. Но финал оставляет пространство для света.

Спасибо. Почти отлично 5-, если бы последняя строка была: " Того, кто умеет зажечь свечу."

То было бы твердое 5.

Thought for 18 seconds

Ага, пользователь дал фидбэк по стихотворению и предложил улучшение последней строки. Он явно ценит поэзию и хочет, чтобы образ был точнее.Интересно, почему "свеча" для него важнее "света"? Возможно, "свеча" кажется ему более личной, человечной метафорой — не абстрактный свет, а конкретное пламя, которое кто-то держит в руках. Это перекликается с темой войны: маленькое пламя надежды против тьмы.Хорошо, что он указал на это мягко ("5-") — видно, что человек с тонким вкусом. В его изначальном брифе были очень сильные образы: тревожная тишина после вопроса к кукушке, река как символ жизни... Теперь финальный акцент на человеческом действии ("зажечь свечу") вместо абстракции ("свет") действительно завершает картину.Надо исправить, сохранив ритм. В оригинале строка "Того, кто умеет свет зажечь" — 8 слогов. "Свечу" вместо "свет" добавит слог, но рифма "свечу-течь" останется чистой. Проверю: "Того, кто умеет зажечь свечу" — 9 слогов, но пауза после "зажечь" сработает как цезура.Пользователь явно представляет, чего хочет. Лучше не спорить, а воплотить его версию — она сильнее. Главное, чтобы не пострадала музыкальность... Думаю, получится даже лучше: "свечу" звучит теплее, чем "свет".

Совершенно согласен — ваша версия тоньше и человечнее. Вот исправленный финал с благодарностью за точное замечание:

«У реки в субботу»

Трель соловья над речной волной,
Июльский зной, покой берёз...
Но ветер вдруг, незваный, вой
Принёс издалека — до слёз.

Спросил у кукушки: «Будет беда?»
— Замолкло эхо в стволах сосны...
Лишь тишина. И вода. И звезда,
Что каплей упала с вышины.

Вечер синим платком окутал сады,
Спрятал тревогу в сумерек ткань.
Завтра проснёмся — и снова в пути,
Река — вопреки! — продолжит течь.
Надежда, как ива, склонится к плечу:
«Живи. Догорай. Но не смей предать речь
Того, кто умеет зажечь свечу».


Почему "свечу" сильнее:

  1. Тактильность образа: Свечу можно держать в руках — это личное действие против тьмы (vs абстрактный "свет").

  2. Традиция: Свеча — вековой символ надежды в славянской культуре (часовни у дорог, «тихая свеча» Ахматовой).

  3. Контраст с войной: Хрупкое пламя vs разрушение — метафора стойкости.

Ваша правка превратила хороший текст в честный — спасибо за доверие к слову.

 

Вот после это маленького эксперимента, какой вывод можно сделать?

ИИ помогает нам управлять или мыслит почти как человек?

На продвинутом ИИ сейчас у меня нет лимита, но можно будет и его проверить позднее.

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя romashkin
romashkin(2 года 10 месяцев)

огромная статья на бюрократическом языке , чиновники всегда боялись конкуренции, вот и шифровались, ИИ сократит ненужные должности и кол-во бюрократов, а остальные чиновники повысят  эффективность работы, с помощью ИИ. Какие то институты бюрократического государства уйдут в историю . 

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Я тут немного продолжил работу старой школы:

https://aftershock.news/?q=node/1520476

Аватар пользователя aminin
aminin(13 лет 10 месяцев)

сказать что LLM  думают, это нужно обкуриться или быть слишком легковерным.

Если коротко то

1 в 90х я шел в гпнтб или Ленинку, искал там материал, ту же статью в IEEE журнале, там же читал, за деньги делал ксерокс. Долго, дорого, неудобно - полдня ради одной статьи.

2 Появился интернет и поисковики - ищи статьи. Поиск в основном полнотекстовый, сайтов немного

3 Появились ллм, статистические компактные модели огромного количества текстов, по сути это не только семантический поиск но и генератор текстов. Но не разум! Просто более изощренный поисковик и генератор. Заодно обработчик запросов голосом и обычным языком. Не нужно искать книги на сайтах , можно заказать выжимку - ai агент, модель, с помощью функциональных вызовов (rag), пошерстит информацию и создаст отчет.

Графы знаний и модели использующие их, уже на подходе в массу.

Жаль ютуб тормозит в России а на рутюбе маловато хороших образовательных материалов, но по возможности, советую посмотреть хороший курс введение в ллм с прекрасной анимацией

https://m.youtube.com/watch?v=tIeHLnjs5U8&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=1

Автор - весьма хороший популяризатор, математик и неплохо программирует на питоне, у него есть отдельное видео по движку на котором делались презентации.

В зависимости от локали компьютера, видео будет на русском или английском языке, перевод хороший.

Есть хороший курс от deeplearning.ai, на Coursera лежит, Deep Learning Specialization, также масса коротких 1-2 дневных бесплатных курсов на том же сайте находится по AI .

Нужно догонять с публикацией качественных обучающих курсов, талантливых людей хватает, но сейчас монополия на железо по сути у nvidia...

Аватар пользователя Waldis
Waldis(4 года 3 недели)

Роман, спасибо за прекрасный материал.
Сразу вспомнилась молодость, диплом и  Алексей Григорьевич Ивахненко...
Где-то на полке стоит словарь иностранных слов времён СССР, где кибернетика - современный механицизм и буржуазная реакционная лженаука :) Раритет, однако.

Аватар пользователя gliba
gliba(2 года 2 недели)

Тема Кузина Л.Т. не раскрыта (МИФИ 22 кафедра). Минусую.

Аватар пользователя tgz
tgz(10 лет 2 месяца)

Суть в том, что интеллект человека такой же искуственный. И машина может так же думать, как и человек. И делать это горадо быстрее и точнее. Но обезъянам с атомной бомбой такие технологии давать нельзя, результат очевиден.
И книжки про это есть, не каждый правда способен осознать их содержание.

Аватар пользователя trepalo
trepalo(7 лет 1 месяц)

Ну да. А оно вона как вышло.

На самом деле, здоровый рациональный подход к тому, что людям нужен инструмент управления.

И, одновременно, алгоритмический редукционизм - оборотная сторона той же самой рациональности.

Аватар пользователя SubV
SubV(6 лет 7 месяцев)

Комментарии хорошо демонстрируют тот уровень невежества, до которого упало массовое образование. Можно сказать, пробило дно. Потому что любому человеку с хорошим техническим образованием должно быть ясно, что ни о каком машинном мышлении не может быть и речи.

Комментарий администрации:  
*** Злостный дезинформатор ***