Маск: "Искусственный интеллект – это угроза для нас"

Аватар пользователя GreenWood

Элон Маск, известный предприниматель и основатель компаний Paypal, Tesla Motors и Space X отметил, что исследования по созданию искусственного интеллекта представляют угрозу для человечества.


Элон Маск, исполнительный директор Tesla Motors, Space X

"На мой взгляд, мы должны очень осторожно подходить к теме искусственного интеллекта. Если бы меня спросили, что является самой серьезной угрозой для нашего существования, то, скорее всего, я бы указал на искусственный интеллект. Все больше ученых считают, что необходимо создание регулятивного контроля по данной тематике – возможно, как на национальном, так и на международном уровне – для того, чтобы мы не совершили серьезных ошибок. Создавая искусственный интеллект, мы призываем демона. Есть много историй, где кто-то призывает демона, надеясь, что сможет управлять им пентаграммами и защититься с помощью святой воды. Мы не можем позволить себе подобную самоуверенность".



В августе этого года Маск уже отмечал опасность того, что технологии могут стать "слишком умными" и выйти из-под контроля человека. Он, в частности, заявил: "Мы должны быть крайне осторожны с искусственным разумом. Теоретически он может быть опаснее ядерного оружия". 

источник

Комментарии

Аватар пользователя GreenWood
GreenWood(10 лет 3 месяца)

искусственный разум - разве такое возможно ?

если что-то и создадут, то все равно по заданному алгоритму будет работать ....но это-же не разум

Аватар пользователя alexsword
alexsword(12 лет 5 месяцев)

Миф это и невежество.  Чисто математически доказано (для машины Тьюринга, это абстракция, с избытком покрывающая все компьютеры) класс алгоритмически неразрешимых задач. Подняться над заложенными в нее (человеком) алгоритмами машина неспособна. 

Скорее всего, это хитрый черт просто что-то лоббирует таким образом. 

Аватар пользователя monk
monk(12 лет 1 месяц)

> класс алгоритмически неразрешимых задач

А для человека эти задачи разрешимы? Или только для компьютера?

> Подняться над заложенными в нее (человеком) алгоритмами машина неспособна. 

Алгоритмически (в замкнутой системе) -- да. Но есть ещё источники внешних данных. Например, даём машине возможность генерировать программы и даём в качестве источника архив всех алгоритмов. Нерешаемая проблема -- какие целевые функции ставить? У человека целевые функции определяются химической природой (эмоции, гормоны, ...). Поэтому пока всё работает в режиме экспертных систем: дали целевую функцию, получили от машины "решение", выключили. Ну и сходимость решения для ИИ не очень высокая. Если заранее известен путь решения, то решение находится быстрее.

Аватар пользователя splight
splight(9 лет 5 месяцев)

Часть из них разрешима человеком, часть нет.
Т.к. любая формально описанная проблема (к примеру в области математики) может быть преобразована в программу для класса универсальных машин Тьюрига.

Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

Вы жестоко ошибаетесь. Не обязана. И потому не обязательно может. То есть некоторые - ну никак, даже теоретически. Даже если вы имеете бесконечную память и производительность.

Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

В том, что вы описали, искусственным интеллектом, упомянутым в теме, даже и не пахнет.

Аватар пользователя Ермек
Ермек(11 лет 8 месяцев)

Подняться над заложенными в нее (человеком) алгоритмами машина неспособна. 

Не понимаю. А если это алгоритмы "самообучения"?

 Даже просто полагаться во всем на машины недальновидно. хотя бы по причине убытия специалистов.

Аватар пользователя iStalker
iStalker(12 лет 1 месяц)

Алгоритмы "самообучения" дальше нейронных сетей не ушли.

Аватар пользователя Ермек
Ермек(11 лет 8 месяцев)

Значит плохие алгоритмы))

Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

Отца искусственного интеллекта спасет генератор случайных чисел!

Аватар пользователя Производственник

А может им на западе бояться России уже слишком страшно стало, так как ответка на их наезды все зримей и отчетливей:). Вот и выдумывают невнятные страшилки.

Аватар пользователя splight
splight(9 лет 5 месяцев)

Тьюринг анализировал изолированные нестохастические универсальные машины.
(В то время господствовал ньютонистический взгляд в науке: Вселенная - набор вложенных точно настроенных механизмов.)
Но в основе нашей Вселенной - стохастические процессы.
Человек, как и ИИ, не изолирован от Вселенной, а значит результаты его работы непредсказуемы.
(К примеру, в мире ИИ широко используются генераторы случайных чисел; в последних процессорах эти генераторы получают данные от физических процессов)

Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

Вам станет легче от того, что очередной якобы ИИ выдаст непредсказуемый бред? От этого ведь он интеллектуальнее не станет, правда?

ГСЧ конечно очень интеллектуальная вещь. Подойти так на улице к человеку и заявить "а вы знаете, что ваш интеллект целиком и полностью происходит от ГСЧ?!"...

Аватар пользователя Dark Side
Dark Side(11 лет 6 месяцев)

Жжете. Во-первых нет алгоритмически неразрешимых задач. Есть NP-полные задачи. . Они не неразрешимы, они требуют огромных ресурсов.  Во-вторых есть универсальные методы приближенного решения сложных задач. Например Метод Иммиграции Отжига. Результат его алгоритмически невыразим, но устойчив. В-третьих уже есть  именуемый "квантовым" регистр D-Wave One ( хотя там нет никакой квантовой запутанности) который реализует так называемый "квантовый отжиг". Результат тут тоже алгоритмически невыразим (точнее бесконечно сложен), но вполне устойчив. В-четвертых сам исходный тезис Тьюринга "о выразимости в терминах Машины Тьюринга любой  интуитивно понятной задачи " никем формально не опровергнут. В-пятых механизм кодирования и декодирования ДНК алгоритмически выразим )))

Аватар пользователя monk
monk(12 лет 1 месяц)

> Во-первых нет алгоритмически неразрешимых задач.

Да ну? А как же "проблема останова"? На входе текст программы на выходе сообщение, остановится ли эта программа когда-нибудь.

> Они не неразрешимы, они требуют огромных ресурсов.

Можешь сказать каких ресурсов тебе бы хватило для того, чтобы на любой текст на Си до 1 мегабайта, алгоритм выдавал ответ хотя бы в течение года?

Аватар пользователя Dark Side
Dark Side(11 лет 6 месяцев)

Проблема останова куда уже чем в страшилках. Например все программа где нет циклов или в циклах не меняется итератор горантированно остановятся. Да и сама проблема останова неразрешима не вообще, а за конечное время.

Аватар пользователя monk
monk(12 лет 1 месяц)

> Например все программа где нет циклов или в циклах не меняется итератор горантированно остановятся. Да и сама проблема останова неразрешима не вообще, а за конечное время.

Так это и значит, что она неразрешима в общем случае. Так-то да, можно язык программирования урезать (например, для Agda проблема останова разрешима). Но, тем не менее, алгоритмически неразрешимые задачи существуют.

> или в циклах не меняется итератор горантированно остановятся

"int main() { while(1); }" -- в цикле итератор не меняется :-)

Аватар пользователя Dark Side
Dark Side(11 лет 6 месяцев)

Плохой пример. Это означает что итератор скрыт в теле цикла. Отслеживается это тривиально.

Аватар пользователя monk
monk(12 лет 1 месяц)

> Это означает что итератор скрыт в теле цикла.


В пустом. Оригинально. "loop: goto loop;", я так понимая у тебя тоже с итератором.


Тогда можешь привести  хороший пример цикла, где итератор не изменяется?

Аватар пользователя Dark Side
Dark Side(11 лет 6 месяцев)

Хороших вечных циклов не бывает. Это плохой стиль.

Аватар пользователя monk
monk(12 лет 1 месяц)

Ты говорил

Например все программа где нет циклов или в циклах не меняется итератор горантированно остановятся.

Прошу привести пример программы, где в цикле не меняется итератор, но программа завершается.

Аватар пользователя Dark Side
Dark Side(11 лет 6 месяцев)

Итератор не меняется в теле цикла.

Аватар пользователя monk
monk(12 лет 1 месяц)

Ну. Пример можно?

Аватар пользователя splight
splight(9 лет 5 месяцев)

>нет алгоритмически неразрешимых задач
Есть. ".. является нормальным трансцендентным числом, которое определимо, но невычислимо, что означает отсутствие алгоритма, который перечислял бы его цифры"
(http://ru.wikipedia.org/wiki/Константа_Хайтина)
>метод имитации отжига
"Алгоритм имитации отжига не гарантирует нахождения минимума функции"
(http://ru.wikipedia.org/wiki/Алгоритм_имитации_отжига)
Все математические задачи выразимы.

Аватар пользователя Dark Side
Dark Side(11 лет 6 месяцев)

Нет, отжиг не гарантирует нахождение глобального минимума. Есть теоремы доказывающие возможность нахождение минимума с любой точностью. Этого достаточно для практических задач.

Аватар пользователя kw
kw(9 лет 9 месяцев)

То что этот чёрт имеет второе дно однозначно и я даже предпологаю какое это дно, это попытка взять под контроль создание исскуственного интелекта а так же сопуствующих алгоритмов, которые сами по себе не являются интелектом но они являются его необходимыми составными частями, как винтики и колёсики являющие необходимыми частями сложных машин.

 

В остальном вы не правы ибо получается с ваших слов что разум не может породить разум, хотя сам по себе разум смог как то появиться, противоречия не замечаете?

Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

Для того, чтобы отрастить рождалку разума, надо хотя бы понять, что это такое.

А то дальше определения "это то, что отличает человека от животного", пока никто из ученых не поднялся.

Короче говоря, можно наделить создание разумом. Но не больше, чем создатель сам имеет.

А ИИ в теме подразумевает неограниченные (в теории) интеллектуальные возможности у создания, созданного настолько тупыми существами, что они даже не могут понять, что такое разум. Смеху подобно.

Аватар пользователя kw
kw(9 лет 9 месяцев)

Ещё раз для вас: разум уже есть и для его создания понадобился простейший алгоритм естественного отбора, данный алгоритм сам по себе вообще не то что про разум нихрена не понимает, этот алгоритм вообще никак мыслить не умеет.

Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

Разум есть. Спасибо, Кэп!

Все остальные ваши утверждения не имеют никаких серьезных доказательств.

Ни в теории, ни на практике.

Аватар пользователя monk
monk(12 лет 1 месяц)

Потенциально возможно. Берём программу, устанавливаем ей целевую функцию, даём возможность переписывать себя (можно даже случайным перебором) и выбирать из потомков наилучшего. Вот и прототип.

Опасность может быть только в случае, если такую систему выпускать в реальный мир. Например дать ей доступ в Интернет или управление беспилотниками Предатор. :-)

Аватар пользователя Скорпион
Скорпион(10 лет 4 месяца)

Только не говорите об этом разработчикам F-35....          :-)

Комментарий администрации:  
*** отключен (инфомусор) ***
Аватар пользователя Пианист
Пианист(9 лет 8 месяцев)

Вы думаете, что никто никогда не пробовал этого на суперкомпьютерах?

Аватар пользователя gojesi1
gojesi1(9 лет 9 месяцев)

 никогда, никакой "исскусственный интеллект" не будет создан. Этот блуд основан на ложном постулате что "человек мыслит", что у человека есть "мыслетворный орган", в то время как мозг это всего лишь - процессор.
Все р-ры об ИИ бессмысленны поскольку - Человек(на этом, земном плане) не имеет мыслетворного органа!!!

Аватар пользователя Логин
Логин(9 лет 5 месяцев)

Соглашусь как и откуда появляются мысли, идеи и озарения никто внятно еще не знает, а автоматом пописать, пожрать, потрахацо и подышать делают встроенные инстинкты

Аватар пользователя Скорпион
Скорпион(10 лет 4 месяца)

Мне бы его проблемы!  Лучше бы озаботился увеличением дебилов среди людей, скоро простой калькулятор будет выглядеть умнее некоторых индивидуев...

Комментарий администрации:  
*** отключен (инфомусор) ***
Аватар пользователя Alex_VA
Alex_VA(10 лет 1 месяц)

Может и придумают шайтан машину, которая будет задачи решать, которые ей человек поставил, но вот формулировать цели и задачи, желать и хотеть.... никогда. 

Аватар пользователя monk
monk(12 лет 1 месяц)

> формулировать цели и задачи, желать и хотеть

Цели и задачи мы формулируем для достижения других целей. Это машина тоже может. А вот желать и хотеть... сделать можно, но для игрушки дорого, а для реального мира слишком непредсказуемо. Хотя если не придираться к мелочам, то есть же тамагочи (и желает и хочет :-)

Аватар пользователя Alex_VA
Alex_VA(10 лет 1 месяц)

Например искусство, написать красивую музыку. Как определить красоту, критерии которой меняются. Откуда взять желание, например покорить космос. Что должно двигать ИИ? Каковы критерии сознания, осознания себя и мира? И еще можно много подобных вопросов поставить.

Аватар пользователя monk
monk(12 лет 1 месяц)

> Например искусство, написать красивую музыку.

http://compulenta.computerra.ru/chelovek/culture/10008356/

> Как определить красоту, критерии которой меняются.

По образу и подобию + законы гармонии (золотое сечение, гаммы, фракталы, ...). Гармония у компьютера получается даже лучше, а образы ему можно и накидать (даёшь десяток примеров и он придумывает одиннадцатый в этом же стиле).

> Откуда взять желание, например покорить космос

Если копмьютеру сделать как человеку инстинктом (целефой функцией) "плодитесь и размножайтесь", то у него появится желание покорить космос. Но, боюсь, раньше появится желание "убить всех человеков" (с).

> Что должно двигать ИИ?

Вот этот вопрос как раз не решён. По образу человека нельзя (разве что в виртуальном мире). А не по образу... пока ответ "ИИ должна двигать цель поставленная исследователем" :-)

> Каковы критерии сознания, осознания себя и мира?

Дык тест Тьюринга. Если с точки зрения окружающих собеседник разумен, значит он разумен.

Аватар пользователя Alex_VA
Alex_VA(10 лет 1 месяц)

> По образу и подобию + законы гармонии (золотое сечение, гаммы, фракталы, ...). Гармония у компьютера

> получается даже лучше, а образы ему можно и накидать (даёшь десяток примеров и он придумывает

одиннадцатый в этом же стиле).

Только подобие? А новые направления, приемы и т.п.?


> Если копмьютеру сделать как человеку инстинктом (целефой функцией) "плодитесь и размножайтесь", то у него > появится желание покорить космос. Но, боюсь, раньше появится желание "убить всех человеков" (с).

Если ИИ будет себя осознавать как личность, у него будет желание "выживать"

> Вот этот вопрос как раз не решён. По образу человека нельзя (разве что в виртуальном мире). А не по образу...

> пока ответ "ИИ должна двигать цель поставленная исследователем" :-)

Тогда это просто очень навороченная "счетная машинка". 


> Дык тест Тьюринга. Если с точки зрения окружающих собеседник разумен, значит он разумен.

ИИ должен осознавать себя, что он существует и что он мыслит. Мне кажется, автоматически появится идея о выживании и продолжении существования, при полном отсутсвии морали и этики. Должна быть свобода воли.


Должна ли  ИИ быть возможность переписывать свой код, только части или полностью?

Аватар пользователя monk
monk(12 лет 1 месяц)

> Только подобие? А новые направления, приемы и т.п.?


Может. Только, чтобы узнать, что понравится человеку, нужен человек. Самстоятельно только фракталы генерить можно.


> Если ИИ будет себя осознавать как личность, у него будет желание "выживать"


Не обязательно. У тебя же нет желания бодрствовать.


> Мне кажется, автоматически появится идея о выживании и продолжении существования


Даже у людей эта идея есть не у всех. Несмотря на животный инстинкт и биохимию организма.


> Должна быть свобода воли.


А есть ли она у человека? День сурка смотрел? Как думаешь, если бы главный герой не только переносился в начало дня, но и забывал всё, что произошло за день, мог бы он действовать не так как в первый раз?


> Должна ли  ИИ быть возможность переписывать свой код, только части или полностью?


Полностью. Дальше отсев. Не компилируется, не выполняется целевая функция, не выполняется функция генерации следующего поколения => отсев. Через n поколений оставляем только сотню лучших (с точки зрения целевой функции), и снова запускаем самомодификацию.

Аватар пользователя spbcity
spbcity(9 лет 7 месяцев)

Товарищ полу-покер, пусть даже ИИ не реализуем в полном смысле этого понятия, но то, что ИИ может выявить неэффективность паразитирующего класса,

включая этого полупокера, то конечно ИИ станет страшной угрозой :)

Комментарий администрации:  
*** Уличен в набросах с затиранием разоблачающих комментов ***
Аватар пользователя monk
monk(12 лет 1 месяц)

Так тогда для полупокера любое мыслящее существо -- угроза!

Аватар пользователя Federal
Federal(12 лет 2 месяца)

Конечно, ведь оно может понять, что перед ней полупокер. А ИИ может это понять даже быстрее чем живое мыслящее существо. А поэтому для полупокеров и для покеров опасно втройне.

Аватар пользователя splight
splight(9 лет 5 месяцев)

Пока что человеческий мозг на много порядков производительней и эффективней суперкомпьютеров.
Так что ИИ не представляет опасности по чисто экономическим причинам.

Аватар пользователя monk
monk(12 лет 1 месяц)

> человеческий мозг на много порядков производительней и эффективней суперкомпьютеров.

Посчитай без компьютера число pi до тысячного знака. Сколько у тебя это займёт времени? А компьютеру понадобится меньше секунды.

Аватар пользователя splight
splight(9 лет 5 месяцев)

Так разная схематическая заточенность.
Мозг человека - аналоговая нейронная сеть огромной степени параллельности.

Аватар пользователя monk
monk(12 лет 1 месяц)

Ну вот. Так откуда быстродействие (ещё и на порядок выше)?

Это всё равно, что утверждать что человек на порядок сильнее экскаватора.

Аватар пользователя Alex_VA
Alex_VA(10 лет 1 месяц)

Ключевой вопрос. Разум=мозг?

Аватар пользователя iStalker
iStalker(12 лет 1 месяц)

Да потихоньку уже становится очевидно что нет.

Страницы