Элон Маск, известный предприниматель и основатель компаний Paypal, Tesla Motors и Space X отметил, что исследования по созданию искусственного интеллекта представляют угрозу для человечества.
Элон Маск, исполнительный директор Tesla Motors, Space X
"На мой взгляд, мы должны очень осторожно подходить к теме искусственного интеллекта. Если бы меня спросили, что является самой серьезной угрозой для нашего существования, то, скорее всего, я бы указал на искусственный интеллект. Все больше ученых считают, что необходимо создание регулятивного контроля по данной тематике – возможно, как на национальном, так и на международном уровне – для того, чтобы мы не совершили серьезных ошибок. Создавая искусственный интеллект, мы призываем демона. Есть много историй, где кто-то призывает демона, надеясь, что сможет управлять им пентаграммами и защититься с помощью святой воды. Мы не можем позволить себе подобную самоуверенность".
В августе этого года Маск уже отмечал опасность того, что технологии могут стать "слишком умными" и выйти из-под контроля человека. Он, в частности, заявил: "Мы должны быть крайне осторожны с искусственным разумом. Теоретически он может быть опаснее ядерного оружия".
Комментарии
искусственный разум - разве такое возможно ?
если что-то и создадут, то все равно по заданному алгоритму будет работать ....но это-же не разум
Миф это и невежество. Чисто математически доказано (для машины Тьюринга, это абстракция, с избытком покрывающая все компьютеры) класс алгоритмически неразрешимых задач. Подняться над заложенными в нее (человеком) алгоритмами машина неспособна.
Скорее всего, это хитрый черт просто что-то лоббирует таким образом.
> класс алгоритмически неразрешимых задач
А для человека эти задачи разрешимы? Или только для компьютера?
> Подняться над заложенными в нее (человеком) алгоритмами машина неспособна.
Алгоритмически (в замкнутой системе) -- да. Но есть ещё источники внешних данных. Например, даём машине возможность генерировать программы и даём в качестве источника архив всех алгоритмов. Нерешаемая проблема -- какие целевые функции ставить? У человека целевые функции определяются химической природой (эмоции, гормоны, ...). Поэтому пока всё работает в режиме экспертных систем: дали целевую функцию, получили от машины "решение", выключили. Ну и сходимость решения для ИИ не очень высокая. Если заранее известен путь решения, то решение находится быстрее.
Часть из них разрешима человеком, часть нет.
Т.к. любая формально описанная проблема (к примеру в области математики) может быть преобразована в программу для класса универсальных машин Тьюрига.
Вы жестоко ошибаетесь. Не обязана. И потому не обязательно может. То есть некоторые - ну никак, даже теоретически. Даже если вы имеете бесконечную память и производительность.
В том, что вы описали, искусственным интеллектом, упомянутым в теме, даже и не пахнет.
Не понимаю. А если это алгоритмы "самообучения"?
Даже просто полагаться во всем на машины недальновидно. хотя бы по причине убытия специалистов.
Алгоритмы "самообучения" дальше нейронных сетей не ушли.
Значит плохие алгоритмы))
Отца искусственного интеллекта спасет генератор случайных чисел!
А может им на западе бояться России уже слишком страшно стало, так как ответка на их наезды все зримей и отчетливей:). Вот и выдумывают невнятные страшилки.
Тьюринг анализировал изолированные нестохастические универсальные машины.
(В то время господствовал ньютонистический взгляд в науке: Вселенная - набор вложенных точно настроенных механизмов.)
Но в основе нашей Вселенной - стохастические процессы.
Человек, как и ИИ, не изолирован от Вселенной, а значит результаты его работы непредсказуемы.
(К примеру, в мире ИИ широко используются генераторы случайных чисел; в последних процессорах эти генераторы получают данные от физических процессов)
Вам станет легче от того, что очередной якобы ИИ выдаст непредсказуемый бред? От этого ведь он интеллектуальнее не станет, правда?
ГСЧ конечно очень интеллектуальная вещь. Подойти так на улице к человеку и заявить "а вы знаете, что ваш интеллект целиком и полностью происходит от ГСЧ?!"...
Жжете. Во-первых нет алгоритмически неразрешимых задач. Есть NP-полные задачи. . Они не неразрешимы, они требуют огромных ресурсов. Во-вторых есть универсальные методы приближенного решения сложных задач. Например Метод Иммиграции Отжига. Результат его алгоритмически невыразим, но устойчив. В-третьих уже есть именуемый "квантовым" регистр D-Wave One ( хотя там нет никакой квантовой запутанности) который реализует так называемый "квантовый отжиг". Результат тут тоже алгоритмически невыразим (точнее бесконечно сложен), но вполне устойчив. В-четвертых сам исходный тезис Тьюринга "о выразимости в терминах Машины Тьюринга любой интуитивно понятной задачи " никем формально не опровергнут. В-пятых механизм кодирования и декодирования ДНК алгоритмически выразим )))
> Во-первых нет алгоритмически неразрешимых задач.
Да ну? А как же "проблема останова"? На входе текст программы на выходе сообщение, остановится ли эта программа когда-нибудь.
> Они не неразрешимы, они требуют огромных ресурсов.
Можешь сказать каких ресурсов тебе бы хватило для того, чтобы на любой текст на Си до 1 мегабайта, алгоритм выдавал ответ хотя бы в течение года?
Проблема останова куда уже чем в страшилках. Например все программа где нет циклов или в циклах не меняется итератор горантированно остановятся. Да и сама проблема останова неразрешима не вообще, а за конечное время.
> Например все программа где нет циклов или в циклах не меняется итератор горантированно остановятся. Да и сама проблема останова неразрешима не вообще, а за конечное время.
Так это и значит, что она неразрешима в общем случае. Так-то да, можно язык программирования урезать (например, для Agda проблема останова разрешима). Но, тем не менее, алгоритмически неразрешимые задачи существуют.
> или в циклах не меняется итератор горантированно остановятся
"int main() { while(1); }" -- в цикле итератор не меняется :-)
Плохой пример. Это означает что итератор скрыт в теле цикла. Отслеживается это тривиально.
> Это означает что итератор скрыт в теле цикла.
В пустом. Оригинально. "loop: goto loop;", я так понимая у тебя тоже с итератором.
Тогда можешь привести хороший пример цикла, где итератор не изменяется?
Хороших вечных циклов не бывает. Это плохой стиль.
Ты говорил
Прошу привести пример программы, где в цикле не меняется итератор, но программа завершается.
Итератор не меняется в теле цикла.
Ну. Пример можно?
>нет алгоритмически неразрешимых задач
Есть. ".. является нормальным трансцендентным числом, которое определимо, но невычислимо, что означает отсутствие алгоритма, который перечислял бы его цифры"
(http://ru.wikipedia.org/wiki/Константа_Хайтина)
>метод имитации отжига
"Алгоритм имитации отжига не гарантирует нахождения минимума функции"
(http://ru.wikipedia.org/wiki/Алгоритм_имитации_отжига)
Все математические задачи выразимы.
Нет, отжиг не гарантирует нахождение глобального минимума. Есть теоремы доказывающие возможность нахождение минимума с любой точностью. Этого достаточно для практических задач.
То что этот чёрт имеет второе дно однозначно и я даже предпологаю какое это дно, это попытка взять под контроль создание исскуственного интелекта а так же сопуствующих алгоритмов, которые сами по себе не являются интелектом но они являются его необходимыми составными частями, как винтики и колёсики являющие необходимыми частями сложных машин.
В остальном вы не правы ибо получается с ваших слов что разум не может породить разум, хотя сам по себе разум смог как то появиться, противоречия не замечаете?
Для того, чтобы отрастить рождалку разума, надо хотя бы понять, что это такое.
А то дальше определения "это то, что отличает человека от животного", пока никто из ученых не поднялся.
Короче говоря, можно наделить создание разумом. Но не больше, чем создатель сам имеет.
А ИИ в теме подразумевает неограниченные (в теории) интеллектуальные возможности у создания, созданного настолько тупыми существами, что они даже не могут понять, что такое разум. Смеху подобно.
Ещё раз для вас: разум уже есть и для его создания понадобился простейший алгоритм естественного отбора, данный алгоритм сам по себе вообще не то что про разум нихрена не понимает, этот алгоритм вообще никак мыслить не умеет.
Разум есть. Спасибо, Кэп!
Все остальные ваши утверждения не имеют никаких серьезных доказательств.
Ни в теории, ни на практике.
Потенциально возможно. Берём программу, устанавливаем ей целевую функцию, даём возможность переписывать себя (можно даже случайным перебором) и выбирать из потомков наилучшего. Вот и прототип.
Опасность может быть только в случае, если такую систему выпускать в реальный мир. Например дать ей доступ в Интернет или управление беспилотниками Предатор. :-)
Только не говорите об этом разработчикам F-35.... :-)
Вы думаете, что никто никогда не пробовал этого на суперкомпьютерах?
никогда, никакой "исскусственный интеллект" не будет создан. Этот блуд основан на ложном постулате что "человек мыслит", что у человека есть "мыслетворный орган", в то время как мозг это всего лишь - процессор.
Все р-ры об ИИ бессмысленны поскольку - Человек(на этом, земном плане) не имеет мыслетворного органа!!!
Соглашусь как и откуда появляются мысли, идеи и озарения никто внятно еще не знает, а автоматом пописать, пожрать, потрахацо и подышать делают встроенные инстинкты
Мне бы его проблемы! Лучше бы озаботился увеличением дебилов среди людей, скоро простой калькулятор будет выглядеть умнее некоторых индивидуев...
Может и придумают шайтан машину, которая будет задачи решать, которые ей человек поставил, но вот формулировать цели и задачи, желать и хотеть.... никогда.
> формулировать цели и задачи, желать и хотеть
Цели и задачи мы формулируем для достижения других целей. Это машина тоже может. А вот желать и хотеть... сделать можно, но для игрушки дорого, а для реального мира слишком непредсказуемо. Хотя если не придираться к мелочам, то есть же тамагочи (и желает и хочет :-)
Например искусство, написать красивую музыку. Как определить красоту, критерии которой меняются. Откуда взять желание, например покорить космос. Что должно двигать ИИ? Каковы критерии сознания, осознания себя и мира? И еще можно много подобных вопросов поставить.
> Например искусство, написать красивую музыку.
http://compulenta.computerra.ru/chelovek/culture/10008356/
> Как определить красоту, критерии которой меняются.
По образу и подобию + законы гармонии (золотое сечение, гаммы, фракталы, ...). Гармония у компьютера получается даже лучше, а образы ему можно и накидать (даёшь десяток примеров и он придумывает одиннадцатый в этом же стиле).
> Откуда взять желание, например покорить космос
Если копмьютеру сделать как человеку инстинктом (целефой функцией) "плодитесь и размножайтесь", то у него появится желание покорить космос. Но, боюсь, раньше появится желание "убить всех человеков" (с).
> Что должно двигать ИИ?
Вот этот вопрос как раз не решён. По образу человека нельзя (разве что в виртуальном мире). А не по образу... пока ответ "ИИ должна двигать цель поставленная исследователем" :-)
> Каковы критерии сознания, осознания себя и мира?
Дык тест Тьюринга. Если с точки зрения окружающих собеседник разумен, значит он разумен.
> По образу и подобию + законы гармонии (золотое сечение, гаммы, фракталы, ...). Гармония у компьютера
> получается даже лучше, а образы ему можно и накидать (даёшь десяток примеров и он придумывает
> одиннадцатый в этом же стиле).
Только подобие? А новые направления, приемы и т.п.?
> Если копмьютеру сделать как человеку инстинктом (целефой функцией) "плодитесь и размножайтесь", то у него > появится желание покорить космос. Но, боюсь, раньше появится желание "убить всех человеков" (с).
Если ИИ будет себя осознавать как личность, у него будет желание "выживать"
> Вот этот вопрос как раз не решён. По образу человека нельзя (разве что в виртуальном мире). А не по образу...
> пока ответ "ИИ должна двигать цель поставленная исследователем" :-)
Тогда это просто очень навороченная "счетная машинка".
> Дык тест Тьюринга. Если с точки зрения окружающих собеседник разумен, значит он разумен.
ИИ должен осознавать себя, что он существует и что он мыслит. Мне кажется, автоматически появится идея о выживании и продолжении существования, при полном отсутсвии морали и этики. Должна быть свобода воли.
Должна ли ИИ быть возможность переписывать свой код, только части или полностью?
> Только подобие? А новые направления, приемы и т.п.?
Может. Только, чтобы узнать, что понравится человеку, нужен человек. Самстоятельно только фракталы генерить можно.
> Если ИИ будет себя осознавать как личность, у него будет желание "выживать"
Не обязательно. У тебя же нет желания бодрствовать.
> Мне кажется, автоматически появится идея о выживании и продолжении существования
Даже у людей эта идея есть не у всех. Несмотря на животный инстинкт и биохимию организма.
> Должна быть свобода воли.
А есть ли она у человека? День сурка смотрел? Как думаешь, если бы главный герой не только переносился в начало дня, но и забывал всё, что произошло за день, мог бы он действовать не так как в первый раз?
> Должна ли ИИ быть возможность переписывать свой код, только части или полностью?
Полностью. Дальше отсев. Не компилируется, не выполняется целевая функция, не выполняется функция генерации следующего поколения => отсев. Через n поколений оставляем только сотню лучших (с точки зрения целевой функции), и снова запускаем самомодификацию.
Товарищ полу-покер, пусть даже ИИ не реализуем в полном смысле этого понятия, но то, что ИИ может выявить неэффективность паразитирующего класса,
включая этого полупокера, то конечно ИИ станет страшной угрозой :)
Так тогда для полупокера любое мыслящее существо -- угроза!
Конечно, ведь оно может понять, что перед ней полупокер. А ИИ может это понять даже быстрее чем живое мыслящее существо. А поэтому для полупокеров и для покеров опасно втройне.
Пока что человеческий мозг на много порядков производительней и эффективней суперкомпьютеров.
Так что ИИ не представляет опасности по чисто экономическим причинам.
> человеческий мозг на много порядков производительней и эффективней суперкомпьютеров.
Посчитай без компьютера число pi до тысячного знака. Сколько у тебя это займёт времени? А компьютеру понадобится меньше секунды.
Так разная схематическая заточенность.
Мозг человека - аналоговая нейронная сеть огромной степени параллельности.
Ну вот. Так откуда быстродействие (ещё и на порядок выше)?
Это всё равно, что утверждать что человек на порядок сильнее экскаватора.
Ключевой вопрос. Разум=мозг?
Да потихоньку уже становится очевидно что нет.
Страницы