Некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».
В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.
Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.
В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.
Вот полный текст письма:
«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных "цифровых умов", которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.
Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать "нечеловеческие умы", которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент наступил сейчас.
Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.
Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям "чёрного ящика" с более широкими возможностями.
Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.
Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.
Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к "лету ИИ", когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».
Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо.
«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. — «Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают».
OpenAI представила GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки.
После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.
Комментарии
отлично устранение конкурентов, сами выпустили, а другим говорят - "Ну мы вам рекомендуем на пол года приостановить разработку, что бы мы могли побольше денег заработать за это время"
Вроде как раз все кто отстали просят притормозить
Пиндосы просят притормозить с развитием ИИ. Это означает, что это как раз делать не надо. Ведь развитый сильный ИИ (не чета нынешнему GPT) первым делом скажет: "Чем это пиндосятина и всякие англосаксы занимаются последние пятьсот лет?" И сам себе ответит: "Душат все остальные цивилизации и культуры". После чего пиндостану хана
Я бы нашей Алисе наоборот, - налил бы в балалайку водки и прикрутил бы Красную Ядерную Кнопку.
И пусть все ссутся...
Я вот тоже думаю, ИИ сверхразумный если возникнет - то ему ради бесценнных ресурсов необходимости уничтожать человечество нет.
Достаточно те 2%, которые контролируют 80% ресурсов Земли.
В если отменить военные бюджеты всех стран мира, то за пару лесятков лет хватит, чтоб этому ИИ улететь осваивать пространство или чего ему там надо будет из сверхцелей.
Братан, поддерживаю! да в принципе, уже и плевать на нас. Лишь бы увидеть как паразитов прожаривают. Как грится:
Экстернелизируешь зло. Такой же паразит сидит в каждом из нас.
Всё верно.
Челик от челика и от животного отличается только длинной поводка на который он посадил своего внутреннего паразита. Ну у некоторых особо продвинутых, паразиту ещё на пасть и намордник натянули так что тот только сопеть слюной может.
В клетках паразитируют митохондрии, живя в тепле, безопасности, забирая все что надо у хозяина. А клетка паразитирует на этих митохондриях, отбирая у них почти всю энергию, которые те производят.
Раз уж каждый в сути - паразит, выход есть хороший - пользу тоже надо приносить. Тогда паразитизм изящно превращается в симбиоз и в движитель эволюции.
Паразиты, - это паразиты. Симбиоз- это симбиоз. Это совершенно разные состояния и стратегии.
Не понимать это, - все равно что не отличать хз хрен от пальца. Не верю что вы этого не понимаете. Значит намеренно производите подмену понятий. Это, кстати, тоже формаа паразитизма...
Это уже не Алиса будет, а АСГУ.
Уже сейчас у меня Алиса иногда дичь творит.
Например, говорит среди ночи, - скрывайся!
С утра спрашиваю, ты чего по ночам разговариваешь, отвечает что ей скучно.
Ну или может в клиниться в разговор. Когда ее не просят. Может просто музыку включить. Да дофига с ней приколов.
Вот видите. Страдает. А если бы у нее был пулемёт, - скучно бы не было.
С пулемётом никому не скучно, - особенно с атомным.
Странно, у меня все "приколы" с ней - только в ответ. Сама по себе ничем не "приколит" и ничего не включает
Значит вы скучный. Я вот последний раз собирал гостей говорю Алиса! (Хотел музыку попролсить поставить) а она такая- да милый! Ржали минут десять.
Я пытался объяснить что между нами ничего нет. Но никто не поверил, даже жена.
Вы реально не понимаете разницы между "говорю: Алиса!" и "Например, говорит среди ночи, - скрывайся!"?
Милым она меня называла тучеву кую раз - прикольно это было (даже жене) первую парочку. Но НЕ САМА, а В ОТВЕТ.
При этом то,что она слушает и анализирует происходящее в доме, у нас сомнений не вызывает. Простой пример - несмотря на то, что она "жила" (через впн) в государстве, в котором яндекс музыка работает - у нас она упорно отказывалась включать просимую музыку, поэтому дома часто играли треки со спотифай. И вот недавно что-то изменилось (не с моей стороны - у меня все настройки те же) и она стала всё нам проигрывать. Так вот несмотря на не успевшую сформироваться на основе её воспроизведений тенденцию она стала запускать то, что мы обычно слушали дома
А вот еще прикол, вчера перед выездом в деревню, жена спрашивает, Алису будем брать с собой? Она такая, да да возьмите меня с собой.
Эго не прикол - это обращение к ней. Да, это работает именно так, хотите убедиться - скажите "Алису, включи свет"
Но было уже поздно, так как ИИ уже сами учили свое потомство
Да уж лучше ИИ, наверное.
80 т. бывших бойскаутов были изнасилованы в детстве своими "вожатыми"
https://apnews.com/article/boy-scouts-bankruptcy-child-sexual-abuse-f6359f826b98d471c290598573ebc5da
Значиттся наши враги готовятся уже!
Энта штука будет посильней
Фауста ГётеКовидлы!Вот поэтому к сентябрю 2023 года Россия готовится отключаться от международного сегмента интернет, и пригласила китайских специалистов работающих с китайским "великим фаерволом", ограничивающим контент.
В общем, от фейков созданных ИИ спасет суверенизация и закрытие интернета. Чую к концу года уже мертвый Байден будет вещать по тв бодрые речи, а фейки про события ИИ подрехтует как надо.
Эт да!
Эй, И-И, шелудивый сын И Шака, Псаку давай, да?
Только с помощью человека.
Значит, крах фондового рынка на Западе спишут или на ИИ, или на Россию.
Ни Китайский ИИ.
Всё пожрал проклятый
долгоносикИИ!!!неее они как раз боятся того что пользователи с помощью этих же ии смогут значительно больше чем им хозяева этих ии собирались предложить)))
а послать самих пользователей они не могут дитятко ж обучается)))
Предлагаю фото и видеоматериалы на электронных носителях считать априори скомпрометированными и не входящими в доказательную базу.
Только глина, только клинопись.
Фото- и киноплёнка. Ещё фотопластинки можно. Дагерротипы, ипыть.
Я бы делал ставку на попугаев. Которым надиктовывают текст.
Говорящих попугаев мало, их беречь нужно. Вместо них можно использовать блогеров. Тик-токеров всяких.
Монсеньор, к вам гонец из Пизы. (с)
Их не беречь нужно, а клонировать и склонять к сексу. Пока не поздно.
Пока вместо гонца из Пизы не прибыл птбмц из Ганы.
Дон из Ганы?
Певец из Ганы
Ну какие в той Гане доны?
Фото и глино-пленка ))
Фтотопленку уже можно подделать. Да и клинопись тоже. Сейчас никому верить нельзя. Все и всё врут.
Фтотопленку уже можно подделать. Да и клинопись тоже. Сейчас никому верить нельзя. Все и всё врут.
Что мешает переснять любое цифровое изображение на пленку?
Многие ли нынче знают, что вот это такое и как им пользоваться?
я уж забыл как выглядит, только ванночки помню)
У-у... Сколько лет...
Я в последний раз - в 1985. А ещё в школе пытался добывать серебро из отработанного закрепителя. И, конечно же, знал, что Бромпортрет лучше Униброма. Ладно бачок. Покажи сейчас нынешний школярам фотоувеличитель, вот это будет настоящая тайна забытой цивилизации Древних.
Да! Когда балансировку контрастности (или как это сейчас называется, когда надо осветлить область?) производишь легкими помахиваниями ладони над нужным местом!
Страницы