Как завершается эпоха Просвещения

Аватар пользователя klaran

С философской и интеллектуальной точки зрения общество не готово к наступлению искусственного интеллекта

Генри Киссинджер – помощник по национальной безопасности и госсекретарь США при президентах Ричарде Никсоне и Джеральде Форде.

Резюме: Просвещение началось с философских размышлений, которые распространялись с помощью новой технологии. Мы движемся по противоположному пути. Разработана потенциально доминирующая технология Искусственного Интеллекта, которая нуждается в направляющей философии. Но разработкой таковой никто даже не занимается.

Статья опубликована в журнале The Atlantic (июнь 2018 г.) и публикуется по-русски с официального разрешения редакции.

Три года назад на конференции по трансатлантическим вопросам в повестке дня появилась тема искусственного интеллекта (ИИ). Я собирался уйти с заседания, поскольку этот предмет не входит в сферу моих интересов, но начало презентации заставило меня остаться. Выступавший рассказывал о компьютерной программе, которая вскоре сможет бросить вызов чемпионам мира по игре го. Я удивился: компьютер способен справиться с го – более сложной игрой, чем шахматы? Каждый из игроков имеет в своем распоряжении 180 или 181 фишку-камень (в зависимости от выбранного цвета) и по очереди расставляет их на пустой доске. Выигрывает тот, кто, принимая эффективные стратегические решения, парализует действия противника и будет контролировать большую территорию.

Выступавший утверждал, что эта способность не может быть запрограммирована. Его машина освоила игру посредством тренировок. Зная правила, компьютер сыграл бессчетное количество партий сам с собой и учился на собственных ошибках, совершенствуя алгоритмы. В процессе тренировок ему удалось превзойти своих наставников-людей. Спустя несколько месяцев действительно появилась ИИ-программа AlphaGo, способная обыгрывать сильнейших мастеров го.

Пока я слушал заявления о победе технического прогресса, мой опыт историка и периодически практикующего государственного деятеля заставил меня задуматься. Как повлияют на историю самообучающиеся машины – те, что приобрели знания с помощью специфических внутренних процессов и могут применить их для целей, недоступных человеческому пониманию? Научатся ли машины коммуницировать друг с другом? Как будет происходить выбор из имеющихся опций? Может ли в истории человечества повториться судьба инков, столкнувшихся с испанской культурой, которая была недоступна их пониманию и вызывала ужас? Стоим ли мы перед новой фазой истории? Осознавая собственную некомпетентность в этой сфере, я организовал ряд неформальных встреч со специалистами по технологиям и гуманитарным наукам. Состоявшиеся дискуссии обеспокоили меня еще сильнее.

До сих пор технологическим прорывом, изменившим ход современной истории, можно было назвать изобретение печатного станка в XV веке. В результате появился доступ к эмпирическим знаниям, вытеснившим религиозные доктрины, на смену эпохе религии постепенно пришла эпоха разума. Человеческая прозорливость и научные знания заменили веру как основной критерий сознания. Информация хранилась и систематизировалась в разрастающихся библиотеках. Эпоха разума стимулировала мысли и действия, сформировавшие современный мировой порядок.

Но сегодня этот порядок переживает трансформацию на фоне новой, еще более стремительной технологической революции, последствий которой мы пока не осознаем. В результате может возникнуть мир, опирающийся на машины, управляемые данными и алгоритмами, а не этическими и философскими нормами.

Мы живем в эпоху интернета и уже сталкиваемся с некоторыми вопросами, которые с распространением искусственного интеллекта станут еще острее. Просвещение предоставляет традиционные истины свободному, склонному к анализу человеческому разуму. Назначение интернета – ратифицировать знания посредством аккумулирования и манипулирования увеличивающимися массивами данных. Когнитивные способности человека утрачивают личностный характер. Индивидуум превращается в набор данных, и данные начинают доминировать.

Для пользователей интернета важно получение и манипулирование информацией, а не контекст и концептуализация ее значения. Они редко интересуются историей или философией, как правило, им требуются сведения, касающиеся практических нужд. Алгоритмы поисковиков обретают способность прогнозировать предпочтения конкретных пользователей, результаты можно персонализировать и предоставлять заинтересованным лицам для политических или коммерческих целей. Правда становится относительной. Информация угрожает пересилить разум.

Через соцсети на пользователей льются потоки мнений большинства, и человек утрачивает способность к рефлексии. В действительности многие технофилы используют интернет, чтобы избежать одиночества, которое их пугает. Все это ослабляет силу духа, необходимую, чтобы выработать собственные убеждения и пройти определенный путь в одиночку – без этого невозможно создать нечто новое.

Воздействие интернет-технологий на политику особенно заметно. Возможность влиять на конкретные микрогруппы разрушила существовавший консенсус по поводу приоритетов – теперь акцент делается на определенных целях или претензиях. Политические лидеры заняты нишевым давлением, у них нет времени, чтобы задуматься о контексте, и, следовательно, нет потребности расширять мировоззрение. В цифровом мире приоритетна скорость, что препятствует рефлексии, радикалы получают преимущество перед вдумчивыми людьми, ценности формируются консенсусом субгруппы, а не в процессе размышлений. Несмотря на все достижения, цифровой мир рискует сам себя уничтожить, потому что недостатков больше, чем удобств.

Интернет и повышение мощностей компьютеров облегчили аккумулирование и анализ данных, открылись беспрецедентные ресурсы, которые человеку сложно осознать. Один из самых значительных – искусственный интеллект, т.е. технология, позволяющая решить сложные, казавшиеся абстрактными проблемы с помощью процессов, напоминающих работу человеческого мозга.

Речь идет не только об автоматизации, как мы ее сейчас понимаем. Автоматизация затрагивает средства достижения поставленных целей путем рационализации или механизации инструментов. Искусственный интеллект, напротив, имеет отношение именно к целям, он ставит собственные задачи. Поскольку его достижения отчасти определяются им самим, искусственный интеллект по своей природе нестабилен. ИИ-системы в процессе функционирования постоянно меняются: они получают и мгновенно анализируют новые данные, а затем самосовершенствуются на основе этого анализа. В результате искусственный интеллект приобретает способность, раньше считавшуюся прерогативой человека. Он выносит стратегические суждения о будущем, основываясь на установочных данных (например, правила игры) или данных, полученных им самим (например, сыграв 1 млн игр).

Беспилотный автомобиль демонстрирует различия между традиционными компьютерами, контролируемыми человеком и определяемым программным обеспечением, и вселенной, где будет царствовать искусственный интеллект. При управлении автомобилем необходимо оценивать множество ситуаций, которые невозможно предвидеть и, следовательно, запрограммировать. Возьмем известный гипотетический пример: что произойдет, если беспилотному автомобилю придется выбирать между гибелью бабушки и гибелью ребенка? Кого он выберет? Почему? Какие факторы попытается оптимизировать? Будет ли в состоянии объяснить свои действия? Если бы он умел коммуницировать, то, скорее всего, ответил бы так: «Я не знаю (потому что следую математическим, а не человеческим принципам)» или «Вы не поймете (потому что я обучен действовать определенным образом, а не объяснять свои действия)». Между тем через 10 лет беспилотные автомобили будут преобладать на дорогах.

До сих пор ИИ-исследования ограничивались определенными сферами деятельности, но сейчас речь идет о разработке «широко развитого интеллекта», способного выполнять задачи в различных сферах. В обозримом будущем во многих областях человеческой деятельности будут работать ИИ-алгоритмы. Но они являются математической интерпретацией наблюдаемых данных и не объясняют реалии, которые их обусловили. Парадоксально: мир становится более прозрачным и одновременно более таинственным. Чем новый мир будет отличаться от привычного нам сегодня? Как мы будем в нем жить? Как будем управлять искусственным интеллектом, совершенствовать его, а в крайнем случае помешаем ему нанести нам вред? Главная проблема заключается в том, что искусственный интеллект осваивает навыки быстрее и увереннее человека, поэтому со временем он может сократить человеческую деятельность, а людей превратить в данные. Искусственный интеллект способен принести невероятную пользу в медицине, обеспечении чистой энергией, в экологии и многих других сферах. Но именно потому, что ИИ принимает решения по поводу пока еще неопределенного будущего, результатам его деятельности присущи неопределенность и неоднозначность. Особое беспокойство вызывают три аспекта.

Во-первых, искусственный интеллект может достичь непредусмотренных результатов. В научной фантастике описывается, как искусственный интеллект атакует своих создателей. Более вероятно, что ИИ неверно интерпретирует инструкции человека из-за отсутствия понимания контекста. В качестве примера можно вспомнить ИИ-виртуального собеседника Tay, который предназначен для ведения дружеских бесед языком 19-летней девушки. Но машина не смогла распознать императивы «дружеский» и «разумный», установленные разработчиками, поэтому виртуальный собеседник подавал расистские, сексистские и просто оскорбительные реплики. Некоторые представители мира технологий утверждают, что эксперимент плохо продуман и неудачно реализован, тем не менее он продемонстрировал базовую неоднозначность. Насколько ИИ способен понять контекст, определяющий полученные им инструкции? Кто помог бы Tay понять значение слова «агрессивный», если сами люди не могут прийти к единому мнению? Можем ли мы на начальной стадии выявить ошибки и скорректировать ИИ-программу, действующую не так, как мы ожидали? Или у искусственного интеллекта неизбежно возникнут небольшие отклонения, которые со временем могут привести к катастрофическим последствиям? 

Во-вторых, в процессе достижения поставленных целей ИИ может изменить человеческое мышление и человеческие ценности. AlphaGo удалось обыграть сильнейших мастеров го, предпринимая беспрецедентные стратегические шаги, о которых человек даже не мог подумать и которым пока не научился противодействовать. Эти ходы находятся за пределами возможностей человеческого мозга? Или люди смогут освоить их, после того как их показал новый мастер го?

До того как искусственный интеллект начал играть в го, игра имела различные многоуровневые задачи. Игрок стремился не только победить, но и освоить новые стратегии, применимые в других жизненных ситуациях. У искусственного интеллекта цель одна – выиграть. Он «учится» не концептуально, а математически, совершенствуя свои алгоритмы. ИИ научился побеждать, играя не так, как человек, и ему удалось изменить природу игры и ее воздействие. Можно ли сказать, что такой однобокий подход характерен для искусственного интеллекта в целом?

Другие ИИ-проекты занимаются модификацией человеческого мышления посредством разработки устройств, способных генерировать ответы на запросы человека. Помимо вопросов относительно фактов (какая температура на улице?), вопросы о природе реальности и смысле жизни поднимают более глубокие проблемы. Хотим ли мы, чтобы дети узнавали о ценностях посредством бесстрастных алгоритмов? Должны ли мы защищать частную жизнь, ограничивая информацию ИИ о тех, кто задает вопросы? Если да, то как мы будем это делать?

Если искусственный интеллект обучается в разы быстрее человека, можно ожидать, что процесс проб и ошибок (как обычно люди принимают решения) тоже пройдет у него ускоренно. Только ошибки ИИ будут совершаться быстрее и с более серьезными последствиями. Вряд ли, с этими ошибками удастся справиться путем добавления в программу «этического» или «рационального» просчитывания ситуации, как предлагают ИИ-разработчики. Все научные дисциплины возникли из-за неспособности человечества договориться об определении этих терминов. Так может ли искусственный интеллект стать арбитром?

В-третьих, ИИ может достичь предусмотренных целей, но ему не удастся объяснить свои выводы. В некоторых сферах – распознавание образов, анализ больших данных, игры – ИИ по своим способностям уже превосходит человека. Если его вычислительные ресурсы продолжат так же быстро расти, ИИ вскоре сможет оптимизировать ситуации, но совсем не так, как это сделал бы человек. Но на данном этапе может ли ИИ объяснить, почему его действия оптимальны, чтобы человеку было понятно? Или решения ИИ не поддаются объяснению человеческим языком и поэтому недоступны человеческому пониманию? На протяжении всей истории человечества цивилизации создавали способы объяснения мира: в Средневековье это была религия, в эпоху Просвещения – разум, в XIX веке – история, в XX – идеология. Но самый сложный и важный вопрос по поводу мира, к которому мы движемся, звучит так: что станет с человеческим сознанием, если его объяснительные способности будут уступать искусственному интеллекту и общество уже не сможет интерпретировать существующий мир в терминах, имеющих для него смысл?

Как определить сознание в мире машин, которые ограничивают человеческий опыт математическими данными, интерпретируемыми их собственной памятью? Кто несет ответственность за действия ИИ? Как будет устанавливаться ответственность за его ошибки? Сможет ли правовая система, созданная людьми, контролировать деятельность ИИ, который умнее и потенциально хитрее человека?

В конечном итоге термин «искусственный интеллект» рискует оказаться неверным. Эти машины действительно могут решать сложные, кажущиеся абстрактными проблемы, которые раньше поддавались только человеческому познанию. Но то, что является их уникальной особенностью, это мышление не на основе того познания и опыта, который приобретен ранее. Скорее речь идет о беспрецедентных возможностях памяти и вычислительных ресурсах. Учитывая естественное превосходство ИИ в данных аспектах, он всегда будет побеждать в играх. Но для человечества игры – это не только победа, нам важны размышления. Если мы будем относиться к математическому процессу как к мыслительному, попытаемся его имитировать и безоговорочно примем его результаты, то окажемся в опасности – мы можем потерять способность, являющуюся основой человеческого познания.

Проблемы подобной эволюции демонстрирует недавно разработанная программа AlphaZero, которая играет в шахматы на уровне выше гроссмейстерского и в стиле, прежде не встречавшемся в истории шахмат. За несколько часов игры с собой программа вышла на уровень, для достижения которого человечеству потребовалось 1500 лет. В программу были загружены только базовые правила игры. Люди и собранные ими данные не использовались в процессе самообучения AlphaZero. Если программа смогла достичь подобного уровня мастерства так быстро, где будет искусственный интеллект через пять лет? Как это повлияет на когнитивные способности человека? Какова роль этики в этом процессе, который по сути заключается в ускоренном выборе?

Обычно такие вопросы оставляют специалистам по технологиям и интеллектуалам из смежных научных областей. Философы и другие гуманитарии, которые помогли сформулировать концепции мирового порядка, в дискуссию не вступают, потому что им не хватает знаний о механизмах ИИ или его возможности приводят их в ужас. Научный мир, напротив, готов исследовать технические возможности своих достижений, а технологический мир занят масштабным коммерческим воплощением своих идей. Оба мира стремятся раздвинуть границы открытий, не понимая их. А власти больше интересует использование ИИ в сфере безопасности и разведки, чем уже начавшаяся трансформация человеческой жизни.

Просвещение началось с философских размышлений, которые распространялись с помощью новой технологии. Наша эпоха движется противоположным путем. Разработана потенциально доминирующая технология, которая нуждается в направляющей философии. Во многих странах ИИ превратился в национальный проект. Соединенные Штаты пока системно не исследуют весь диапазон возможностей ИИ, его воздействие и не начали процесс совершенствования. Это должно стать национальным приоритетом с точки зрения взаимосвязи ИИ и гуманистических традиций.

Создатели ИИ, некомпетентные в политике и философии, как я – в сфере технологий, должны задаться вопросами, которые я поднял в этой статье, чтобы встроить ответы в свои инженерные разработки. Правительству США стоит подумать о создании президентской комиссии из признанных экспертов-мыслителей, которые помогут разработать национальный подход. Очевидно одно: если мы не начнем эту работу в ближайшее время, очень скоро мы поймем, что уже опоздали.

Авторство: 
Копия чужих материалов
Комментарий редакции раздела Новый Дивный Мир

как пример восприятия НДМ консервативными кругами запада.

Комментарии

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Владимир Зулкарнеев

Одна из ветвей Нью-эйджа проповедует, что цель человечества заключается в создании принципиально нового разума, то бишь ИИ. А что там будет дальше, какие цели и задачи он будет сам себе ставить и решать, нам, дескать, не понять. Мы вообще должны будем освободить поле, чтобы не мешать новому витку эволюции

Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Опять на колу мочало....
Где и какой "искусственный интеллект" кто увидел ???

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя ДК
ДК(11 лет 7 месяцев)

гугл хранит запросы пользователей и выдаёт контекстную рекламу на их основе.

фейсбук хранит все посты даже удалённые и анализирует лайки на предмер предпочтений, которые также пока использует пока для рекламы

яндекс имеет алгоритмы ИИ в "нейролингвинистическом" переводе страниц, который как мне представляется франшизой гугловского.

и много много других...

Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Я знаю об этих вариантах использования БД и программ обработки инфы в них.
Ну, а ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ там - ГДЕ?

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя ДК
ДК(11 лет 7 месяцев)

в алгоритмах. в методах принятия решений.

не ленитесь делать запросы в сети

Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Хоть какая-то часть из этих алгоритмов создана не человеком?

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя ДК
ДК(11 лет 7 месяцев)

а причём здесь это?

Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

К тому, что это пока естественный интеллект.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя ДК
ДК(11 лет 7 месяцев)

вы считаете искусственным только тот интеллект который создан тоже искусственным интеллектом?

Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Вы привели в пример алгоритмы. Создание алгоритма - требует интеллекта, а вот работа алгоритма интеллекта не требует, это просто автомат.

Методы принятия решения - уточните. Что-то кроме random(), детерминированного автомата и перебора всех вариантов (с оценкой, опять-же, заданной извне).

И да - если интеллект не может создать интеллект - он интеллект? (кстати, я пытаюсь хоть от кого-то добиться внятного ответа на вопрос "что есть интеллект" прежде, чем обсуждать - создали его или нет... пока безуспешно).

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя ДК
ДК(11 лет 7 месяцев)

вы описали алгоритмы бывшие в прошлом. во многих современных алгоритмах программист задаёт лишь структуру и алгоритм изменения блоков мышления. а само мышление как продукт формируется на основе входных данных и не программируется программистом напрямую.

система работает как-бы в два этапа: принятие решения и анализ результатов на основе которого изменяется основной алгоритм принятия решения. никакого рандома. можно даже механизм изменения делать зависимым от входных данных. но это очень долго регулировать такую систему. скорее всего пойдёт вразнос.

Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

ДК, я программист, и ИИ занимался. Алгоритм нигде не меняется, в том числе и в нейронных сетях. Их тренируют, меняют вес входных фич (featires) и их взаимозависимость. Но я пока не слышал, чтоб ИИ где-то поменял свой алгоритм, или вывел свои собственные фичи или что-то подобное.

Грубо говоря, вот аналогия - вектор входных параметров умножается на матрицу, во время тренировки коэффициенты в матрице подбираются оптимальным образом. Но это просто подбор коэффициентов, а не новый алгоритм. Интеллекта тут нет.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Алгоритм в нейросетях и задаётся весами. Ну вот в машинном коде, который сейчас исполняется, - набором бит, формирующих одна за другой команды, в схеме из жёсткой логики (например, ПЛИС) - соединениями... а в нейросети - веса.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

А чуть выше вы написали, что интеллект - это способность строить модели. Но от нейросети до построения модели - очень далеко. Собственно, как от одного перейти к другому - никто(?) и не знает. А если пытаться "как в жизни", эмулировать мозг, типа накидать побольше нейронов, и само выростет - ему тогда окружающую среду подавай и миллионы лет эволюции, а без них не факт, что выростет. Ну и искусственным его уже не назвать, само выросло.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Нейросеть и строит модели реальности. Некоему набору на входе пытается сопоставить - через внутреннюю модель - некий адекватный ситуации выход. Что дрозофила в своём полёте к яблоку, что я сейчас, набирая этот текст, что... хм... автопилот автомобиля.

Ну, автопилоты для машин - это ещё даже не уровень таракана, но это уже есть. Можем ли мы, имея достаточно вычмощи, "вырастить" оптимальную нейросеть другими опттимизирующими алгоритмами? допустим - вот прям как с природы - генетической оптимизацией?

Нет причин отвечать "нет".

Да, сейчас мы определяем топологию и конфигурацию сетей ручками - ручками ставим свёртки, выбираем функцию активации... но было время, не так давно, мы и процессоры вручную разводили - по десятку тыщ транзисторов. Никто не может развести в ручную миллиард транзисторов на чипе... но никто же этого и не делает, правда же?

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

В моем представлении - модель, это упрощённое представление о реальности. Упрощённое - значит некоторые параметры используются (как имеющие значение), а все остальные игнорируются (как несущественные). Модель E=mc2 означает, что ни цвет предмета, ни запах, ни что другое не имеют значения для вычисления энергии, только его масса. В этом смысле нейросети - модели не имеют. Они по определению учитывают все параметры попадающие на вход. В этом их проблема обучения - они учатся на конкретном наборе примеров, и приписывают некие веса даже тем входящим данным, которые на самом деле (с точки зрения некой модели) несущественны. Просто чтоб лучше отработать обучающие примеры.

И нейросеть не выбирает свои входные данные, не выбирает сколько слоёв иметь и прочее. Хитроумно самонастраивающийся автомат, но до интеллекта уровня построения моделей в таком виде они нас не доведут.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Ну, если чётко разделять то, о чём мы тут беседуем, то E=mc- НЕ МОДЕЛЬ. А лишь её описание неким формализмом (ЯЗЫКОМ). Так сказать - некий инструмент описания и закрепления знаний и проектных решений в заданной предметке.

Кстати, вот один из критериев определения интеллектуальности некоей системы: сможет ли она создать формализм (язык) для описания и закрепления модели в совершенно новых, для этой системы, условиях и обстановке. Пусть и - по аналогиям (кстати, а сможет ли она построить аналогии? :) )

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Угу. Хотя язык то нужен для передачи знаний от одного субъекта другому. Может и без него интеллект можно сделать,  но как тогда узнать, что он там унутри действует... :)

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Как же так, "учитывают", когда совершенно нет? :) Будет у аксона нулевой вес, и нейросеть перестанет учитывать этот вход (или целый фактор, если аксон внутри нейросети и нейрон отвечал за этот фактор). И в процессе обучения этот нулевой вес там, конечно, появиться может (и часто появляется). 

Натаскать нейросеть на изображение тривиальной квадратичной зависимости не так и сложно - лишь бы m и c были бы где-то на входе.

А чтобы нейросеть не просто выбирала входные данные, а выбирала способ выбирать, и нужно множество слоёв, множество нейронов и хитрозагнутые способы обходиться с данными - свёртки, реккурентные связи, разные функции активации и зависимости и т.п. и т.д. И ессно, что вначале мы "подсказываем" нейросети, задавая её топологию, отсекая сразу "лишние" связи (иначе обучение становится утомительным и/или нереальным на конечном числе примеров).

Но это уже детали и вопросы количества, а не качества.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Натаскать на квадратичную функцию (в ограниченных пределах) не сложно. Только откуда взяться самой идее, что энергия связана с массой? Другими словами. Простейшая механика - тело, на которое не действуют силы, движется равномерно и прямолинейно. А вот в жизни у нас нет примеров, когда на тело не действуют никакие силы. Нейросеть их просто никак в обучающей выборке не получит. Само понятие "силы" - это уже запредельная абстракция, откуда оно у нейросети возьмётся? Обучить её можно, только сама она обучиться не может. Не определяет нейросеть какие из примеров использовать для тренировки, какие из них положительные, а какие отрицательные, и чему именно она собирается обучаться.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Это всё понятно, что ожидать от нейросети размером с мозг дрозофилы эйнштейновских выводов не надо.

Понятно и то, что с изготовлением робоэйнштейнов у нас пока временные трудности технического, экономического и фундаментального характера.

Но вот смотрите: у Вас в голове - нейросеть. И Вы каким-то образом сумели сформировать у себя все эти абстракции, а потом ещё и оперировать ими, привязывая к внешнему миру и экспериментами над ним. Почему нечто подобное недоступно машине? Тут нужно либо принять, что необходима божья искра (как её ни назови - некое принципиальное отличие живого мозга от неживого), либо признать, что вопросы это количественные.

...

В обучающей выборке нейросети не существует, например, и понятия "дорожный знак". Машина учится выцеплять из видеопотока знаки и изолировать образы для их опознавания в процессе работы. Для этого нужны дополнительные слои и сужения, а далее выходы распознавалки в виде вполне абстрактных понятий "дорожный знак" и "пешеходный переход" спокойно подаются на вход сети, которая управляет движением на основе таких данных. Есть способы формировать такие связи и распознающие кластеры "на лету" - пока они вычислительно дороговаты, но над этим можно думать далее.

Ессно, что от "мы убили 10% клеток рака в хвосте мыши" до "учёные лечат рак" - дистанция в десятки (а может, сотни) лет работы. Конечно, между таким примитивным абстрагированием (как у мушки, даже хуже) и абстрагированием понятия энергия - пропасть.

Но. Ширина пропасти уже измерима.  

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Так в том-то и дело, что процесс "выцепляния", будет скрыт в нейросети за уймищем весовых коэффициентов, про которые потом шарлатаны от ИИ любят говорить, что как оно там и что внутрях после обучения - хрен его знает.
А в кибернетике основоположники не зря от живой природы шли. Там же принцип - НЕ угадывания. Там и сопоставление с образцами - вполне объясним и тривиален. Он там на поверхности лежит. Только обратные связи выдели и формализуй!
Это - если не надо содержать целый кагал научной школы с грантами, статьями, званиями и прочей околонаучной требухой.
Поэтому и получается, что когда действительно НАДО замаскированный "холодный" танк за "зелёнкой" разглядеть, то и меги 128-ой хватает, что бы первым увидеть и живым вернуться. А - когда щёки понадувать и умными словесами на симпозиумах и конференциях погрохотеать - то и дипБлу, Крэя или кластеров не хватает со "спецплатами-ускорителями работы логики и взвешивания слоёв нейросети"

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Опять сравнение лопаты с экскаваторным заводом - мол, лопата топлива не требует, не ломается, стОит дёшево и т.п.. :)

Кстати, машины с опорным вектором, кои Х-55 наводили, придумали те самые, из кагала. Со статьями и званиями. С одним из них я даже встречался... так он ещё - еврей, представляете?

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Ой, как жирно!
Куда вас мотнуло, милейший?!
Не уходите от темы.
Уж с кем я ручкался и продолжаю, вам за три жизни не успеть, таки - шо?
А классифицировать, кстати, можно и менее затратно...
Да и к ИИ это - никаким боком.

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Я ухожу? Это Вы что-то там про классификацию и кагалы внезапно понесли. Я пытаюсь угнаться.

Классификация и распознавание образов - это самые примитивные вещи, доступные нейросетям. Приводить эти задачи в пример, да еще для наипростейших случаев, - расписываться в непонимании их  возможностей.

Если для Вас задачи ИИ сводятся лишь к этому - ну, это ж для Вас...

Типа, микроскоп хуже молотка: молоток ухватистей, если орехи колоть. Ну, не факт, но допустим... так и что?

 

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Я смотрю, вы перешли в режим дискуссии с вашими персональными демонами.
Не смею мешать.

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Я уже писал. Напишу ещё раз. Если вы сделаете кучу из нейронов, и сядете ждать, когда там сам собой появится интеллект - то если он появится, то будет естественным интеллектом, а не искусственным. Естественный у нас уже есть. Наивно думать, что если у естественного интеллекта на чипах будет больше нейронов, то он будет умнее.

Дело не в количестве нейронов. Иначе выходит - в кого больше мозг - тот умнее. На примере животного мира видно, что это не так. И очевидно, что это не так. И не в божьей искре дело. Если хотите это численно выразить - то копать нужно в сторону сложности организации. Как говорил Энгельс - количество переходит в качество. Только не количество нейронов (оно нужно, но не главное). Повышение сложности организации мышления переходит в новое качество.

------------

В обучающей выборке нейросети обязательно присутствует заданная учителем классификация. Кто-то должен говорить нейросети, что тут она ошиблась, а тут правильно классифицировала. У животных понятно кто является учителем - научился вместо хищников распознавать цветочки - сразу в морг. А нейросети кто это будет говорить? Выпустить в мир, чтоб у неё появился личный опыт - вырастет естественный интеллект (лет через 1000, если не миллион). Чтоб создать искусственный интеллект - нужно понять как оно работает, и сделать. Мы же не делаем нейросети выращивая биологические нейроны. Мы эмулируем работу нейрона (так, как мы её понимаем). Так и с процессом выделения абстраций, построения гипотез, планирования эксперимента - это нужно научиться программировать, тогда от ИИ возможна польза.

PS Но проще и быстрей, IMHO, будет разработать нейроинтерфейс (вначале с периферической нервной системой, лет через 30-50 и до мозга дойдёт), и через него подключить модули усиления интеллекта к обычному человеку. У него уже есть и умение строить гипотезы, и проверять их, и прочее. Если его количественно усилить - то в самом процессе работы с нейроуситилем - мозг его и структурирует.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Нет, конечно. Количество нейронов - это необходимое, но НЕ достаточное условие. Ессно, топология сети критична (как и много других вещей - вон, даже за последние 5 лет сколько интересных штук обнаружили, одни резнеты чего стОят). Мы научимся это делать рано или поздно. Или приспособим для этого алгоритмы.

Но ессно, что любой интеллект, что естественный, что искуственный, должен обучаться - в этом, собссно, и суть интеллекта, для этого он и нужен. Да, в идеале мы должны взять машину, выпустить её в реальный мир - на реальные задачи и ждать, пока она не научится (а потом оттиражировать то, что вышло, если нужно). Собссно, это именно то, что мы делаем с нашими игрушечными пока нейросетями - автопилоты заставляем смотреть видео с регистраторов миллионами км и наматывать тысячи км на полигонах, а гугл-ассистант слушать невнятное мычание миллионов человек. Потом, когда ИИ обучен, мы натравливаем его на задачи. Более сложный ИИ мы выпустим в более сложные тренировочные условия. Это не сделает его "естественным".

Что касается "умнее"...  а что это значит - "умнее"? Нам - в абсолютном большинстве случаев! - не нужна машина абстрактно "умнее". Нафиг не нужна. Нам нужна машина, которая лучше и дешевле человека выполняет вполне конкретные задачи. Типа, автоведения машины. Плевать, что машину ведёт сеть, которую нельзя назвать даже клиническим кретином, потому что она на самом деле - даже до таракана не дотягивает. Если этого хватает, чтобы вести машину чётко, на дорожные ситуации реагировать быстрее и вернее, чем человек - всё, это всё, что нам от ИИ тут надо. Если нужно, чтобы нейросеть управляла трафиком - мы делаем нейросеть, которая управляет трафиком (лучше, быстрее, полнее, чем даже сотня человек), и абсолютно плевать, что она примитивнее, неспособна к саморефлексии и не умеет писать стихи.

Точно так же и во всех других случаях, и с ростом сложности нейросетей ничего в этом поменяться не должно. Если нужен разнорабочий-строитель или программа-переводчик - нам вполне достаточно, чтобы нейросеть была умнее человека в конкретных задачах. Ниже я приводил пример с крысами: они умнее человека при поиске выхода из лабиринта или еды в нём. У них мозг эволюцией лучше заточен именно под эти задачи... и как бы там антропоцентристы ни отмазывались, крыса в этой задаче действительно умнее, имея ту же хардварную базу и ту же технологию. Электроника может дать качественный скачёк за счёт скорости работы упрощеных нейронов (у нас частота порядка сотен герц - килогерц, электроника может работать и на гигагерцах).

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Вы не сможете сделать программу-переводчик на нейросети. Для перевода нужно понимание текста. Понимание во всём объёме опыта взрослого человека. Я на это напоролся при тренировке фейс-детектора. Он находил лица на фотках лучше (и быстрее) человека. Но всегда есть "серая зона" - то-ли лицо, то-ли нет, то-ли человеческое, то-ли микки-мауса и т.п. Лицо там на фотке или не лицо - человек знает по контексту (и кстати - по контексту знает искать его там или нет, что даёт огромный прирост скорости распознавания). А у фейс-детектора контекста нет. И как-бы хорошо его не натренировали - он будет распознавать хуже человека.

С программой-переводчиком принцип тот-же, только всё намного хуже для ИИ. Без понимания текста, качественно его перевести - невозможно. Никакими нейросетями.

Со всем остальным согласен.

Просто Киссенджер не понимает, что до понимания нынешнему ИИ - как до луны. И бъётся в панике. Конечно, рано или поздно, так или иначе, ИИ до этой луны долетит. Вопрос в том - сколько это будет стоить, и до каких звёзд уже к этому времени долетит человек.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Ну так то совсем уж примитивные фейс-детекторы. Современные алгоритмы того же гугла - ессно, смотрят контекст. Насколько хорошо - другой вопрос, ну так орлята учатся летать.

Если Вы когда-нибудь тыкались в теоретическую физику, Вы должны знать, что "понимание" - это не более, чем установление связей и контекста. Мы манипулируем понятием "электрон", нифига не "понимая" (в бытовом смысле), что это такое, у нас есть лишь формулы (причём, для многих областей немного и ограниченных в применении), которые соотносят одни "непонятные" (в бытовом смысле) абстракции с другими. 

В этом смысле достаточно большая нейросеть, имеющая доступ к достаточно большому набору текстов, будет "понимать" любой отдельно взятый текст, даже не соотнося напрямую его с объектами реального мира. Вопрос размеров, вычмощи и времени. Мы можем вывести нейросеть мутируя наиболее удачные экземпляры и заставляя их учиться снова и снова, и снова и снова заниматься переводами. Собссно, люди работают над этим. Ессно, что 10% результата требуют 90% работы - время быстрых результатов прошло, сейчас за устранение каждой неровности в "понимании" придётся платить экспотенциальным ростом сложности сети, но пока сети ещё очень простые, экспонента не страшна.

И после... То, что люди называют в быту "пониманием" - лишь знание большего числа зависимостей и более широкий охват контекста. То есть, опять же количественная разница (которая переходит в качество, но тем не менее - количественная). Мы (по историческим меркам) быстро можем получить это для машины. Я лишь не уверен, что это вообще нужно в полной мере для задачи перевода.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Верно. Да, нейросети нужен кто-то кто говорит ей об ошибках или хвалит. Именно так. И что? Мы берём нейросеть и учим её выкладывать плитку или собирать клубнику, раз из разу хваля или ругая за результат... и через некоторое время обучения получаем тиражируемую систему, которая умеет, научилась решать эту задачу. Если мне потребуется 1000000 сборщиков клубники, я просто залью им одну и ту же прошивку и получу результат, не обучая каждую.

Я не только не вижу смысла "писать" ИИ (в обычном смысле, программировать его)... я просто не верю в том, что человек в принципе способен это сделать. Тут как раз и начинается качественный переход, когда нужна машина, чтобы делать машину, чтобы делать машину, причём, люди ни при каких усилиях не могут повторить работу некоторых машин... Мы уже проходили такое с палками копалками, с ножами, с кузницами... и так до реакторов и станков с ЧПУ. Машина работает там и так, как человек не может - тыркается в камни на Марсе, допустим. Человек лишь говорит, какой камень тыкать.

Сейчас тот же процесс можем повторить с интеллектом. Это страшно непривычно, страшно, непривычно :), но это вполне нормальный, хоженый путь: мы будем говорить, что мы хотим узнать или сделать и машина будет решать... Собссно, в некоторых областях уже так есть: некоторые вещи в теории групп или дифгеме невозможно проверить и доказать без машины - способ формального вывода понятен, но просто очень уж утомителен... И ничего.

Страшно - да. Куча проблем - да.

А нефиг было с дерева слезать.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Если клубнику собирать - то самое оно. И клубнику соберёт, и жучков, и прополет без ядохимикатов. Но ведь не этого люди боятся. А того, что оно станет умнее и ... тут полезли антропо-центричные и био-центричные страхи о борьбе за существование.

А вот ИИ для управления экономикой в количестве 100500 штук не нужно. Копированием вы ничего не выиграете. Нам один ИИ такой нужен. И с интеллектом уровня крысы/кошки он нам не нужен. А как его сделать с интеллектом выше нашего уровня - мы не знаем. Вы думаете, что дать ему побольше нейронов и запустить их побыстрее щёлкать - тогда оно само как-нибудь. А я в само как-нибудь не верю.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Я думаю, что если дать побольше нейронов и запустить на нейросеть метаоптимизатор (который будет заниматься уже топологией), можно получить приемлимый результат. Ну так то пока не техническое, а... хм, религиозное: пруфом был бы только созданный ИИ, а его нет. Равно как не доказано, что это невозможно.

У Вас есть барьер в понимании слова "умный", Вы почему-то считаете интеллект некой линией, на которой можно ставить отметки типа "крыса", "кошка", "человек", "Эйнштейн". Представьте себе интеллект, ум как способность строить модели реальности и решать задачи, и Вы обнаружите, что этих линий можно начертить чуть ли не бесконечно много, и даже задачи, которые считаются эталонными в определении КИ человека для нечеловеческих мозгов теряют смысл. 

Например, типичный (простой и надёжный) тест - перемножение длинных чисел в уме (потому что задействует нашу сверхкороткую память, от размера которой критично зависит сложность задач, которые мы вообще способны осознать). Калькулятор в этом тесте будет гипергением, а это даже не уровень таракана, это нечто недотягивающее даже до ганглия улитки... Крыса умнее человека в прохождении сложных изменяющихся лабиринтов, кошка на охоте решает задачу нахождения, выделения и распознавания мыши МНОГО быстрее человека, используя для этого приметы, контекст и логические выводы (sic).

У Вас постоянно неявно подразумевается, что для сверхбыстрого счёта мы должны были построить искусственного сверхчеловека, гения превосходящего всех известных гениев в тыщи раз. Реально - нет, мы должны были построить (и построили) калькулятор и компьютер. На примере со счётом это очевидно, но Вы почему-то не хотите увидеть, что другие задачи, решаемые универсальным человеком - тоже имеют свои особенности и возможности оптимизации.

Нет: то же самое с более сложными задачами, которые могут решаться оптимизированной под них нейросетью. Да, для управления экономикой, возможно, нужна очень сложная нейросеть с обалденно широким пониманием контекста. Но совершенно не факт, что для управления экономикой нужен именно сверхчеловек. Поэтому нет смысла говорить о "нашем уровне", потому что линейка измерения способностей может быть ортогональна привычным линейкам для теста человеческого КИ. 

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Roman Nebezbesov
Roman Nebezbesov(5 лет 9 месяцев)

А если пытаться "как в жизни", эмулировать мозг, типа накидать побольше нейронов, и само выростет - ему тогда окружающую среду подавай и миллионы лет эволюции, а без них не факт, что выростет. Ну и искусственным его уже не назвать, само выросло.

Кхм, простите, дяденька... (дергает за штанину) А что, если не бывает никакого "Искусственного"? Ну, вот просто тот "интеллект", который мы можем зафиксировать, будь он у дрозофил, нематод или дельфинов - он одинаковый по своей природе - он качественно одинаков - естественен? И кроме "естественного" - другого быть не может? 

Я, вот, сколько ни пытаюсь, сгенерировать мысль не могу. Мож, генератор барахлит, но то такое... Я очучениями думаю... И это как... Ну, Вы похожи на программиста на умного человека, но попробую на компуктерном языке: Человек - это не персональный компьютер, а сетевой. То есть просто - терминал, а все данные и операционка - в Сети. И Интеллект - это, ну-у, объем прав доступа, к информации в Сети... Если при некоей критической сложности нейронных связей в гудящей и моргающей коробке, которую пожилые бабушки уважительно называют "Процессор", просто происходит процесс "подключения" к этой Сети и тогда мы можем с неохотой признать, что, к примеру, у червяков тоже есть "какие-то зачатки интеллекта"? А они не "какие-то" - они ровно такие, какие требуются их "терминалу" (может я неправильно использую это слово, но "Процессор" уже занято бабушками). Если "терминал" дельфина не нуждается в софте "терминала" человека, то является ли это поводом сказать, что он обладает меньшим интеллектом?..

Ребенка взять... (Почему еще никто не взял ребёнка? Банально?) За два года мы получаем вполне сформировавшийся интеллект. Да, коммуникативные навыки еще в процессе освоения, но интеллект уже есть. И это - меньше, чем за три года от состояния двух абсолютно чужих друг другу клеток разных организмов! Сколько там "частота процессора мозга"? Килогерцы? За три года с "килогерцами" человек получает больше интеллекта, чем все нейросети из гигагерцовых компуктеров за десять лет (А может - и за стотыщмиллионов!). Причем - универсального интеллекта! А что он за это время получает? Личный опыт восприятия и воспитание. Воспитание можно сравнить с "ключами" к информации в Сети. Родитель нарисовал квадратик, сказал - это "домик" - внимание ребенка "открыло дверь" к пониманию построения больших и сложных объектов через нарисованные мелком условные модели: "дом", "машина", "солнышко", "кораблик" - в мозг "загружена" информация, что можно использовать предельно упрощенный силуэт объекта для его графической передачи другим людям. Равно как и обратный процесс.

Дети-маугли, лишенные этих "ключей" вырастали на том, что "было"... То, что инфа именно загружается - "эффект сто первой обезьяны" - это когда как в "виндус-10" - ты не просил, а обновление уже скачалось и установилось...

Что это за "Сеть"? Ну, это, наверное, к Вернадскому... Или к Вачовски, братьям, там, или сестрам, не знаю - таблеток их не ел...

Комментарий администрации:  
*** отключен (перевирание собеседников, манипуляции) ***
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

А что об этом на форуме говорить? Кроме сотрясения клавиатуры - ничего.

Хотите "сети" - ну медитируйте, там, созерцайте, куча же практик. Потом сможете сравнить практические результаты.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Будьте аккуратней в определениях.
Вы написали полнейшую ахинею в соединении двух определений работы двух разных, по природе принципов работы, машин (исполнителей).
И, кстати, в обоих случаях, опять-таки, НЕТ ИЗМЕНЕНИЯ АЛГОРИТМА РАБОТЫ ИЛИ ЕГО ПЕРЕГЕНЕРАЦИИ. Могут быть разные пути УЖЕ СФОРМИРОВАННОГО алгоритма (или наборов алгоритмов), есть процедура выбора ветви алгоритма. Но и - всё.

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Что такое конечный автомат - знаете? Алгоритм - это то, что определяет переходы КА из состояния в состояние. 

Представьте нейросеть как КА (а она им является). Что именно определяет переход нейросети из состояния в другое?

Вы путаете сами себя со всеми этими доморощенными "перегенерациями" и т.п. Дискмат разобрался с этим полвека назад.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

К дискмату - претензий никаких. Он-то - давно разобрался, в отличие от вас, если вы нейросеть называете конечным автоматом, а не их совокупностью/системой.
Вам, кстати, не понадобятся вероятностные КА? недерминированные? Марков, тоже, кстати, там рядом не бродит? Нет? Как там, с разбирающим "грамматику" совокупности входных воздействий КА? Описать сможете закорючками?

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Смогу, наверное, но смысл?

Вы за попытками кидать пальцы упустили смысл. А смысл был в том, что нейросеть может реализовать любой алгоритм.

На практике стоИт задача скорее не допустить этого, искусственно сократив выбор (потому что обучающие сеты небесконечны и переобучение - проблема та еще). И это делается исскуственным заданием/сокращением связей в ней. Ну и вычислительную мощь нужно беречь. То есть, возможность реализовать слишком широкий класс алгоритмов - это сейчас на практике вредная возможность.

Но она есть.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Реализация нейросетью алгоритмов - этапять.

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

Вы вообще слышали такие словосочетания "база знаний", "машина вывода"?
Там НЕТ ни ИИ, ни "изменение основного алгоритма". Там вообще НЕТ изменения каких-то алгоритмов. Алгоритмы - неизменны, кто бы вам что ни говорил. НЕТ ещё в истории (ИТ) примеров вывода нового поведения самой машиной на основе новых ситуаций.

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя ДК
ДК(11 лет 7 месяцев)
Аватар пользователя mkizub
mkizub(8 лет 10 месяцев)

Я прочитал и даже сходил на сайт gamalon-а почитать. Но нигде, кроме заголовка статьи, не нашёл написания программой своего кода. Судя по сайту стартапа, люди создали язык программирования для создания моделей. Это классно и интересно, но ничего о написании программы программой там нет. Может вы конкретней цитату приведёте? Только, желательно не из этой желтушной статьи, там, похоже, журналист переврал что только можно.

Комментарий администрации:  
*** Отключен (клевета) ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

О! так и знал. Байес опять пошёл... Вы вообще, отличаете рекламные выкрики заголовков от содержимого статей?
Ну не может там программа что-то новое распознать, кроме того, знания о чём в неё заложили. Там просто новые методы фильтрации и отсеивания лишних веток распознавания отсеиваются опят-таки вероятностными методами. Если в этих системах не заложены будут знания о пряжке офицерского ремня (и - вообще о пряжках ремней), то программа в любом случае даже не отведёт их в разряд класса "на что-то похожее". 

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Колхозник
Колхозник(8 лет 10 месяцев)

я думаю,что понятие интеллекта -это комплексное понятие.Способность к логическому мышлению+чувства+ ощущения,работающие  вместе.или,может быть,для кого-то это только логика

Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Интеллект - система способная адаптироваться к реальности: строить её модели и проецировать их в будущее.

Нейросеть мушки-дрозофилы - интеллект. Тупенький, но вот какой есть. И все промежуточные ступения от ганглия улитки до человеческого мозга. Можно провести лишь одну качественную черту - способность к рефлексии и моделированию себе подобного. В этом смысле высшие приматы имеют полноценный интеллект, качественно соотвествующий человеческому (хотя количественно очень сильно уступающий). См. книгу "Политика у обезьян" - там много интересных примеров.

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Хмурый ослик
Хмурый ослик(8 лет 8 месяцев)

А вы не попутали "качественно" и "количественно"?
У дельфинов - вонна какой тяжёлый мозг и извилин - поболе, чем у хомо сапиенса. Однако - не взлетело. В смысле надежд...

Комментарий администрации:  
*** отключен (систематические манипуляции и набросы) ***
Аватар пользователя Simurg
Simurg(7 лет 3 месяца)

Нет, не попутал.

Свои задачи дельфин решает вполне годно, и можно быть уверенным, что человеческий мозг на месте дельфиньего с задачами дельфина справлялся бы хуже. У дельфина в его эволюции ни разу не возникало задачи стать человеком.

Малоизвестный факт: в тестах на интеллект крысы проходят лабиринты быстрее, чем люди. Хотя, казалось бы, череп человека поболе будет, а уж понтов - ... :)

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Мурман
Мурман(9 лет 11 месяцев)

Вот он, тотальный материализм!.. Помощнички будут под рукой.  Только куда все это направить?

Страницы