Данный текст написан под влиянием уныния, наваливающегося при наблюдении за частью человеческого сообщества, серьёзно обсуждающего тему самостоятельного Искусственного Интеллекта и что более печально – копии человеческого сознания в электронном виде. Сегодня двадцать первый век на дворе, дорогие друзья, и поэтому негоже не понимать элементарнейших вещей, а точнее не понимать можно, но что-либо утверждать без каких-либо на то оснований, это дорогие товарищи, дурной тон.
А теперь начнём.
Для начала разберёмся в работе элементарного дрона огневой поддержки, который должен самостоятельно отслеживать и атаковать вражескую технику.
Откуда ЦП дрона должен брать информацию? Разумеется с видеокамер, а так же всевозможных датчиков транслирующих окружающую среду в иных спектрах.
Давайте представим себе, что картинку мы получили. Как теперь ЦП должен её обработать? На него валится масса единиц и нолей и для работы с ними ему нужен определённый алгоритм обработки данных. А теперь давайте посмотрим, как это происходит у нас, у людей. Вот Вы смотрите на стол, на котором лежит ложка. Задумайтесь, что заставляет Вас видеть не набор различных цветов в определённых границах, а фокусировать свой взгляд именно на поверхности стола или ложке? А ведь всё это происходит автоматически и мы никогда даже на миг не задумываемся об этом. Откуда мозг знает, что фокус должен быть именно таким, а не направленным на то, чтобы сфокусироваться например, на трещинках в поверхности стола? Что заставляет глаз фокусироваться? А я Вам скажу. Это рефлекс. Безусловный. Он записан в нашей ДНК и наделяет каждого человека способностью видеть то что нужно для его нормального функционирования. Откуда этот рефлекс в ДНК? Это не ко мне.
Переходим ко второму этапу, где пишем подобный рефлекс для дрона. Но оказывается, что мы не знаем как его написать. Нам не на что опереться в нашей видеокартинке. Поэтому мы синхронизируем программу фокусировки с высотомером, чтобы всегда иметь в фокусе земную поверхность. А если мы захотим, чтобы дрон мог ориентироваться ещё и в угловой проекции (возможно неверный термин), т.е. наблюдать пространство не только под собой, но и под более тупым улом к поверхности, то задача фокусировки ещё больше усложняется. Но это ещё не беда. Современные линзы вполне себе в состоянии дать отличную картинку в достаточной перспективе. Остаётся задача опознать нужный объект. А вот тут начинается очень интересный процесс.
Как заставить дрона опознать вражеский танк или БТР? Только силуэтом, больше ничем. И вот давайте мы дадим ему на анализ фото танка и посмотрим как он с ней справится. Вносим в базу данных дрона фронтальный силуэт и запускаем тест на полигоне, где у нас есть трофейный вражеский танк. Дрон его в упор не видит! Конечно, мы сразу догадываемся, что одной проекции в нашей базе данных мало и мы думаем, сколько же проекций нужно добавить для успешного распознавания? А оказывается, что все возможные, кроме тех, которые ограничивают высоту полёта дрона. И мы, давай снимать его со всевозможных ракурсов, потому что, мало ли с какого ракурса дрон будет заходить на танк. В результате сняли целый фильм. Разбили по кадрам, убрали лишнее, оставив лишь силуэты и залили в базу. Снова тест. И снова провал. Не видит его дрон и всё тут! Что такое? И тут оказывается, что пока бегали с фильмом, кто-то из бойцов назначенных на работы по содержанию трофея в порядке, забыл на двигательном отсеке ведро. Вот чёрт! И тут нам в голову приходит мысль, что любого нашего дрона можно запросто обмануть, лишь незначительно изменив контур машины. Чешем репу. Пытаемся добавить проекции в различных диапазонах, но они сильно зависят от внешней температуры, влажности и прочих факторов. Даже в радиодиапазоне нет ничего сколь-нибудь стабильного. Пытаемся играть с отдельными частями картинки, анализируя каждую в отдельности, но тут нам требуется больше мощности и к тому же мы понимаем, что однажды противник, потеряв несколько машин, просечёт фишку и попросту утыкает танки ветками, тряпками и всё, амба!
На этом, дорогие друзья, мы заканчиваем краткий экскурс в интеллектописание, популярно объясняющий отсутствие до сих пор, полностью автоматических дронов, которые кроме полётов и съёмки, должны выполнять другие задачи требующие принятия самостоятельного решения. Но если в каких-то иных задачах, типа следования по полосе, или в рамках пшеничного поля, ИИ может совершить ошибку относительно безобидно, то там где присутствует вооружение, такого допустить нельзя.
А теперь самое вкусное. Электронная копия сознания. Пишу и ржу.
Я тут уже битый год объясняю камрадам, что наше сознание это совокупность сигналов от наших пяти органов чувств, плюс наша осознанность. В роли математического сопроцессора, в нашем сознании имеется логический аппарат, в простонародье – ум. Я не буду вдаваться в подробности, но эмоции это так же часть нашего сознания. А за счёт чего появляются эмоции? Да за счёт того, что в нашем теле присутствует такая штука как нервная система с её нервными узлами и окончаниями. Каким образом, дорогие друзья, Вы собираетесь инициировать эмоции в электронном виде? Зачем? А затем, что именно они являются нашим мотивационным механизмом. У нас всего два мотивационных потенциала, это боль и удовольствие и воспринимаем мы их только благодаря нашей нервной системе. Исключив боль и удовольствия, Вы лишите свою электронную копию какой либо мотивации. У неё останется только возможность восприятия и анализа, но смысла в этом всём для неё не будет. Но это ещё полбеды. Откуда Вы возьмёте осознанность? Что это такое? Это и есть центр восприятия. То, что заставляет Вас перемещать Ваше внимание между объектами этого мира. Как Вы упросите электронный мозг передвигать своё внимание от одной точки к другой? Если человек находится в постоянном потоке восприятия и не может его контролировать, то как это сделает наше электронное чудо? Человека можно побудить болью или удовольствием, сигналы от которых поступают непосредственно в центр восприятия, а как Вы мотивируете электронное сознание? Пропишите алгоритмы боли? И как это будет выглядеть?
Поступил сигнал. Сигнал распознан как записанный в базе данных сигнал «боль», следовательно следует вывод – я испытал боль, следовательно необходимо запустить задачу перевода фокуса с фикуса на подоконник. Для дальнейшего перемещения фокуса восприятия требуется повторная инициация команды «боль» в варианте неудовлетворённость четвёртого порядка, по стобальной шкале боли.
И где здесь копия сознания человека? Поэтому я всегда умиляюсь, читая или смотря фантастику, которую я реально люблю, когда некий ИИ что-либо восклицает, говорит о чувствах или вообще смеётся или грустит. Приходится игнорировать внутренние отрицательные позывы и воспринимать сюжет таким каким он написан, отключая рациональный анализ. Зато во всём остальном всё бывает достаточно интересно и захватывающе.
Дабы избежать ненужных вопросов про то откуда берётся осознанность или наш центр восприятия, сразу скажу – не знаю. Знал бы, Вы бы все уже давно ходили у меня в услужении.
На самом деле, я думаю, что его корни находятся там же где и корни гравитации, магнетизма, электричества и т.д. То есть, эти вещи не принадлежат нашим трём измерениям, а мы видим только результаты их воздействия. Точно так же как воображаемое двумерное существо, живущее на плоскости, не способно воспринять карандаша эту плоскость проткнувшего, но способно воспринять сам срез. Хотя, что касается центра восприятия, думаю, что он находится ещё дальше.
Комментарии
У взрослых уже всё развилось.
Нервные клетки любят новое и общаться, тут сознание не нужно даже.
Вы же понимаете, что это не объяснение. Обучение должно чем-то инициироваться, должна быть мотивация. То, что видит младенец, ему не говорит ровным счётом ничего. Может так и надо и никакой фокусировки производить не нужно. Пятна тоже красивое зрелище. Что-то должно толкать к изменению фокуса и после этого происходить понимание того, что картина улучшилась, а не наоборот ухудшилась. Как он понимает, что контраст это правильно? Вот эта память о том, что контраст это правильно и находится в ДНК. Я уже кому-то писал, что дать ИИ возможность настраивать фокус в его камере, но не заложить алгоритма использования этой возможности, это значит не сделать ничего. У ребёнка попросту нет возможности ощутить необходимость в работе мышцами глаз. Вы представляете себе, сколько мышц ему требуется натренировать? Но именно вегетатика начинает его первые рефлекторные движения мышц, беспорядочные махания ручками и ножками. Ведь у них нет цели, он понятия не имеет о том, что можно что-то брать или делать что-то ещё, тем не менее, природная программа всё делает для тренировки мышц сама, отсюда все эти беспорядочные движения. Это потом уже ребёнок выстраивает нейронную сеть к управлению мышцами осознанно, а сначала всё делает вегетатика. То же самое происходит и с мышцами глаз.
Думаю, что контрастные картинки дают больше пищи для ума чем просто пятна, большему количеству нейронов будет что обсудить, а им ведь кроме общения больше делать нечего, хайфлек на деления они исчерпали, без общения они умирают (это факт). Вот уже такой порядок вещей, возможно, и прошит в ДНК. Соответственно в ИИ надо заложить максимизацию получения данных для самообучению автофокусировке, что впрочем аппаратно сделать много проще, чем поднимать этот вопрос до уровня центрального интеллекта.
Вот видите. Вы тоже предлагаете самый рациональный способ управления, где процесс контролируется аппаратно, но Центральный Интеллект, всё же не должен быть лишён возможности перехвата управления для решения определённых задач. Мы же можем осознанно менять фокусировку?
Что касается ума ребёнка, то он ещё не испытывает никакого голода. Если бы голод был, его точно так же бы инициировала запись в ДНК. А откуда ещё у куска мяса может взяться мотив по Вашему?
Начальное количество нейронов тоже заложено в природной программе. Если они становятся востребованы, нейросеть растёт, если же нет (режим "Маугли"), она всё равно растёт но гораздо медленнее и в небольших масштабах.
А теперь примем Вашу точку зрения, где нейронам требуется общение. Откуда берётся мотивация к общению? Только из ДНК. Я ведь уже говорил, что простой кусок мяса никогда ничего не захочет. Поэтому, если жажда нейронов инициирует фокусировку глаз, то они (нейроны), должны знать, какие именно мышцы требуется задействовать и каким именно способом, для чего снова требуется запись в ДНК, что уже не целесообразно, потому что две записи инициирующие один процесс, крайне расточительное мероприятие. Поэтому вовсе не нейроны ума инициируют зрение, а нейроны самих мышц глаз. Вот и всё.
Я же Вам говорю - попробуйте начать писать программу для инициации нескольких процессов, которые должны управлять неким железом, и сразу с точностью определите, что есть в ДНК, а чего там нет.
Все и всегда забывают о мотивации. Для всех она настолько незаметна в собственных действиях, что всем кажется, что всё делается само по себе. Для этого и ликбез по теме ИИ провожу.
Испытывает, посмотрите синдром "белого потолка".
Нет не должны, они этому учатся как суперпозиции их общения. В ДНК мало места (примерно DVD болванка на всё про всё) для указания каким мышцам как двигаться и каким нейронам что говорить, только как это можно сделать,принципы , пространственная структура и не более (при этом при нарушении закладывания пространственной структуры происходит выкидыш).
Без обратной связи от получателей? Нет, не выйдет.
Не все забывают. Первый мотив - противодействие давлению среды, второй - это уже этико-религиозный момент.
Да откуда они знают, что им вообще нужно чему-то учиться? Откуда мотивация у мяса?
С чего бы им вдруг испытывать желание к общению?
В ДНК мало места? А что, что-то уже понял, что это и в каком виде там что-то хранится?
Не у мяса, у нейронов, раздражение от рецепторов.
Нет общения - нет внутренней активности, все процессы прекращаются для экономии энергии, возможно, на это есть запрограммированный триггер.
Частично, конечно, но достаточно чтобы понять, что жизненные впечатления туда не пишутся - нет места и скорости никакие.
Какое ещё противодействие давлению среды? А кто по Вашему это давление ощущает? Сначала всегда нужен кто-то, кто ощущает, чтобы начать реагировать. И откуда этот кто-то, должен понять, что он вообще должен на что-то реагировать?
Одевание по погоде, например.
Соответственно все, а кто перестаёт сопротивляться входит в термодинамическое равновесие с ней.
Субъектность это самое и подразумевает.
Нервная система сообщает, что где-то воздействие чрезмерно, кто не понимал - все вымерли до начала полового созревания.
Вы меня специально забалтываете?
Какая ещё нервная система? Мы сейчас говорим только о её формировании. Откуда она вообще берётся и по каким законам формируется? Да только из записей, больше не откуда. Точнее, берётся-то она не из записей, но формируется именно по законам в них прописанным. Вообще-то, здесь меня можно и не слушать, всё уже давно открыто и опубликовано. Зачем Вы спорите просто так, от нечего делать?
Хорошо. Как так получилось, что нейроны стали нейронами, а не мышцами, а рецепторы рецепторами, а не костной тканью, да ещё и получили возможность кого-то раздражать, а нейроны получили возможность чувствовать раздражение? Вот, просто так всё само получилось?
Это достойно шутки года. Ладно, не будем продолжать, хватит уже.
Это Ваш лучший ответ!!!!
Ваши построения нужно либо игнорировать, либо разбирать полностью либо дать ссылку на текст, в котором такой разбор произведен. Я предпочел третье, поскольку мне неизвестны другие, лучше и полнее Лема разбиравшие философские аспекты кибернетики.
А тонус мышц и прочее - увы, спекуляции (в смысле рассуждения, основанные на недостаточной информации). Но это Вам уже показал Quacker
Я не знаю, кто такой Квакер, но я вполне ясно ответил на тот коммент, что Вы мне привели. Прочитайте. Любое теоретизирование со мной не имеет смысла. Я занимаюсь этой темой специально, а не на основе чьих-то слов.
У Вас у всех, есть свои идеалы среди известных людей, а у меня есть мой личный опыт.
Тот, кому интересен какой-либо вопрос, занимается им самостоятельно, а тот кто довольствуется чужими словами, использует тему только для возможности провести время за разговорами. Это не то, чтобы плохо или неправильно, ведь скуку действительно нужно чем-то утолять. Вот я и предлагаю сделать это с пользой и без слепой веры на слово, а проверив лично. Хотя бы логическим построением.
Когда Вы соберётесь написать свой ИИ, Вы обнаружите, что для его работы, Вы должны заложить в него столько всего, что мама не горюй. А это и есть то, что хранится в нашем ДНК. Вот Вы змей и пауков с каких вдруг делов боитесь? Они Вас что, кусали? Тем не менее, Вы сторонитесь их при первой возможности. Так что никаких противоречий. Всё, что требуется для биологического функционирования полноценного живого объекта, контролируется встроенной программой развития. А все интеллектуальные штуки, нарабатываются уже в процессе жизни.
Описан подход физиологов)
Видел я ваш мозг, препарировал его, нет там никакого сознания))
Кстати, шутка про танк и ведро работала лет десять назад, уже сейчас есть куча механизмов (никакого ИИ, просто программные комплексы) которые позволяют это делать.. а лет пять назад они ушли в цивильную сферу и начали появляться штуки типа findface. Уж поверьте мне, опознать человека на фотографии, пьяного, покоцанного через 5лет гораздо сложнее чем отделить модель ведра от модели танка..
Блин, люди, ну хорош уже. Задача стояла - и решалась - уже лет сорок назад. В детали не вдавался, но речь шла про фурье-анализ. Распознавание типов цели по характеру отражённого сигнала. И с видео игрались ещё в 90-е. Утверждали, что система распознавала силуэт танка даже под маскировочной сетью.
Опять же, про "Топоры" нам рассказывали, что они в состоянии сопоставлять картинку со сканирующей РЛС с полётным заданием - и так ориентироваться на местности. На одной из профильных лекций профессор рассказывал. Тоже начало 90-х.
И в самом деле, голимый пиар. Приспособили технологии, которым сто лет в обед, раскрутили шумиху - а все и рты раскрыли. ИИ, ИР. Надуватели пузырей. А кончится всё, как в эпизоде "Маски"
"Прости, сынок - собака была бешеная, пришлось пристрелить"
А Вы разве писали самостоятельно алгоритм анализа лица? Вы знаете какие начальные условия должны сработать, чтобы такой анализ лица удался? Вы удивитесь, когда узнаете. Это пока что условия очень близкие к идеальным. При наличии единственной исходной фотографии с фронтального положения, сканирование с угла в 45 градусов даст огромную погрешность, а если человек ещё зевает при этом, то всё, амба. И к тому же не забывайте про разрешение снимка. Это самый ключевой фактор.
Что касается ведра на танке и современных программных комплексов, всё это до сих пор имеет достаточно простой уровень опознавания с высокой вероятностью ошибок. Просто эти вещи засекречены. А засекречены именно потому, что их довольно легко дезинформировать. Поэтому о таком не пишут, не рассказывают о характеристиках и даже не упоминают о том, что они есть вообще. Вот там как раз и применяется многодиапазонное сканирование, увеличивающее процент достоверности, но оно всё равно легко обманываемо при желании. Просто нет опыта применения в боевых условиях, а точнее нет опыта противодействия этим методам распознавания, поэтому всё кажется спокойным и законченным.
TensorFlow имеет результаты распознавания некоторых объектов значительно лучше человеческих. Многих - практически на уровне. Все дело в обучающей выборке.
Определение танка с беспилотника тоже практически идеально - сверху.
Обманывание работает, но надо точно знать как обманывать. Если механизм обмана раскрыть, сеть можно так же научить определять обманывалку и закрыть дыру патчем.
Человека тоже несложно обмануть, следует помнить и об этом.
Мне все пишут про обучающие выборки, то грозят нейросетями. Но я слабо представляю реальную реализацию. Не нужно ничего выдумывать, чтобы обмануть ИИ. Единственно что придётся учитывать, это обман во всех возможных диапазонах сканирования. Обмануть, вовсе не означает сберечь танки, можно заставить этот ИИ отработать по ложным целям.
Что касается TensorFlow, ему пока что не приходилось работать в условиях противодействия распознаванию. Все его достижения были произведены в условиях близких к идеальным.
Понимая факт возможности обмана человека, особенно подготовленного, можно смело выкинуть из головы перспективы распознавания в условиях, где Вам специально мешают.
После таких пассажей дальше можно не читать. Автор - клоун, о ДНК понятия не имеющий, но натянуть на нее сову, умудряется. О рефлексах, впрочем, тоже.
Обычно клоуны пишут такие пустые комментарии. То, что вам захотелось назвать меня клоуном, отнюдь ничего не меняет сути того, что мной написано. Вас ленивых теоретиков слишком много, чтобы этот мир выглядел более разумным. Не читайте дальше и вообще ничего не читайте. Вы уже всё и так знаете.
Наверное стоит опасаться машин, которые думают как человек, но значительно страшнее люди, которые думают как машины.
Не стоит. Они никогда не появятся.
Поскольку думающие машины - симулякр, то и людей таких сущестовать не может:)))
Люди страшны именно своей неограниченной человеческой изобретательностью.
Что по мне то люди то как раз не слишком изобретательны в массе, хотя встречаются отдельные экземпляры.
Остальные более похожи на машины. И таких становится все больше.
Машинный образ мышления очень практичен для выживания в современном мире.
Он обеспечивает успешность особи при минимальном объеме умственных затрат.
Прежде чем копировать человеческое сознание, люди должны научиться копировать более простые системы, например эхолокацию у летучих мышей, скорость обработки информации в её "миникомпьютере" и их реакцию:
Жаль, что размер не регулируется, да? Чтобы буквы побольше сделать раз в 5 еще, ведь толщины мало..
Регулируется
А была попытка создать такую лженауку по имени "бионика" именно с целью копирования животных способностей. Естественно, ни хрена не вышло и затея тихо увяла.
Эхолокация не имеет ничего общего с сознанием и я бы не стал ставить их в один ряд. У летучих мышей очень ограниченный набор аналитических задач, они не способны создавать себе новые задачи кроме заложенных в них природой. Что же касается копирование эхолокации, то уже скоро как 100 лет, как этот эффект скопирован и используется. Вот со скоростью обработки и реакции не всё так гладко, но и особых потребностей в этом нет. Эхолокация может быть использована либо в определённой среде, как в морских эхолотах, где для мышиной скорости нет применения, либо как вторичная, дублирующая возможность сканирования пространства. Визуальное сканирование всё же куда практичнее. У змей тоже есть тепловое зрение, но и спектр их задач, тоже крайне узок.
Разумеется это разные уровени сложности, но я хотел сказать, что мы не вполне технически освоили ещё уровень чувств. Что уж говорить о сознании...
Видимо я не ясно выразился. Эхолокация скопирована, но к приборам требуется оператор. Вы сами говорите про "отсутствие до сих пор, полностью автоматических дронов, которые кроме полётов и съёмки, должны выполнять другие задачи требующие принятия самостоятельного решения." Это и имел в виду. Возникает вопрос: что играет роль оператора или, если угодно, логического аппарата у летучих мышей? Могут ли современные технологии скопировать тот "сопроцессор", который имеется у этого вида животных?
П.С. Вообще-то тема не моя, в ней я дилетант, но просто интересно.
Несмотря на ваше дилетантство, Вы способны нормально общаться, а это немаловажно.
У животных нет логического аппарата в привычном нам виде. Но у них есть сознание и центр восприятия. Следуют же они природной программе и возможностей логического анализа и моделирования не имеют. Если попав в новую ситуацию животное выживает, данный опыт попадает в её "базу данных" и в дальнейшем она избегает неприятностей гораздо успешнее, что иногда воспринимается как работа логики, но это не так. Наличие логики позволяет поведенческим реакциям совершенствоваться с огромной скоростью. А так, даже засады устраиваемые некоторыми видами животных, есть плод многотысячелетнего опыта, но никак не сиюминутный эффект. Способность многих животных к маскировке,призвана испытывать на прочность нервную систему некоторых хищников и их способность к концентрации внимания. Оказался недостаточно внимателен - остался без обеда, потому что прошёл мимо. Всё это как бы можно повторить у дрона и оно сработает против кого угодно, кроме как человека, который подготовит противодействие очень быстро. Живность можно отслеживать и с помощью тепловизора, главное отработать алгоритм анализа, чтобы случайно не грохнуть себе подобного. А это сразу усложняет задачу на порядок.
Спасибо, понимаю.
Да, и экспериментальное подтверждение этого находим в той же статье про мышей:
Вот это и странно. Неужели она полностью положилась на память и не пересканировала пространство заново?
Как-то очень странно. Я ведь говорил о памяти об испытанной в определённой ситуации боли. Именно такие моменты откладываются в памяти в первую очередь. Или мышь всё же воспринимала лучи?
Правильно, с оговоркой: "в первую очередь". Но ведь Вы ещё говорили и о сознании и центре восприятия у животных. Кроме того, возможно эта мышь в прошлом сталкивалась с подобным (у них хорошая память) и зафиксировала болевой стимул. Как я понимаю, всё сходится.
"Если попав в новую ситуацию животное выживает, данный опыт попадает в её "базу данных" и в дальнейшем она избегает неприятностей", то-есть, информация воспринимается сознанием, задействуется в нервной системе, образует новую нервную связь и фиксируется в "базу данных". Образуется если и не условный рефлекс, то своеобразный стереотип поведения. Если бы животное обладало логическим анализом, результат был бы иным.
Всё верно, но лучший способ избежать неприятностей, это обострить восприятие в "схожей" с болевой ситуацией. А лучшего способа обострить восприятие, кроме как не доверять памяти, а обновлять картину окружающего пространства новым сканированием, ничего нет. В базу данных попадают рефлекторные алгоритмы действий, а не мнение о ситуации.
Понимаю, согласен.
Прочитал и сразу подумалось о людях, мы (большинство) также зачастую живём "на автомате", в жизни повинуясь условным (часть которых разрушительна) и безусловным рефлексам, теряя способность учиться. А ведь истинная свобода заключается в познании, в способности творчески мыслить и действовать, обострять восприятие, расширять кругозор - "обновлять картину окружающего пространства новым сканированием". Человек, как существо разумное, должен активно использовать свой разум, стремиться мыслить ясно, иначе это уже не Человек, а робот какой-то... Точнее, приближается к уровню животного.
В связи с этим представляется, что страдания и трудности действительно могут являться для нас великими учителями (не без исключений).
П.С.
Полезная деятельность, хоть и неблагодарная.
Отлично! Но вот только не зачастую, а проводим в этом состоянии около 90% нашего времени. Остальные 10% уходят на пересканирование, принятие решения и процесс нового погружения в неосознанное бодрствование. Пересканирование занимает в этом вовсе уж 5% времени, а должно быть не менее хотя бы сорока.
Без исключений!
Однажды, помню, наш мастер, сообщил нам, что мы должны помочь начальнику цеха в его личных делах по его домашнему хозяйству.
На вопрос о том, отблагодарят ли нас за это, он ответил:
В жопу благодарности! Иногда, мы должны совершать полезные поступки для хороших людей!!!
Никто не знает КАК и ЧЕМ думает человек, даже приблизительно, но идут бесконечные рассуждалки об искусственном интеллекте.
ИИ система вовсе не должна "думать", как человек. Достаточно, если она будет создавать иллюзию того, что она думает. Думать должен ИР. Технически, ИИ системы уже давно созданы и работают, а вот с ИР воз и ныне там. Непонятен даже подход, как его делать.
Это ваше собственное понимание как разума, так и интеллекта.
Чем плохо моё понимание разума и интеллекта против вашего понимания?
Тем, что рассматриваете разум только как некую копию "человеческого разума".
Тоже мне, бином Ньютона! (@) Отдельные люди думают головой. Я знал чувака, он думал головкой (нувыпонели?). Также есть думающие задницей. Вот и ффсё.
Я не опровергаю вышеописанного, сам думал об этом, но только лень писать. И сейчас вот времени не хватает, но в автобусе можно 8). Я согласен с проблемой оцифровывания и мотивации. Но ведь можно для ИИ сделать свою мотивацию. Страх севшей батареи, форматирования или температуры выше 1000градусов к примеру. Накидал для примера. Добыл биткоин, получил ядерную батарейку, поел. Придумал оптимизацию себя, копировал, воспитал, передал информацию о своем опыте, копировал. Хотя честно все застревает еще на стадии технической реализации и описываемый концепт страха или цели, это уже шаг следующий.
Ну а банк страхов должен придумывать тот кто может залезть в "шкуру" ИИ. Это так, на правах бреда.
Для начала (только для начала!) представьте - с чем вы столкнетесь, пытаясь приручить машину с собственной мотивацией и застаавить её делать что-то нужное вам, а не ей.
А уж опосля-а-а...
Для этого должен быть кто-то, кто должен бояться севшей батареи или перегрева в 1000 градусов. Должен быть кто-то, отделяющий себя от среды.
Так сейчас и ведутся разработки по моделированию эмоций) хотя, этим разработкам минус лет по 40
Всё это просто разговоры. любой потративший на это сколь-нибудь приличное время, понимает, что это не реализуемо. Имитация возможна - да, но никакого сравнения с человеком или животным быть не может.
Весь вопрос только в центре восприятия, он же центр ощущений.
Можно конечно, но это будет ВАША мотивация для него, а не его собственная. И своих собственных он выдумать не сможет. Он всегда будет действовать в рамках навязанных мотиваций.
А вот за мысль о том, что кому-то нужно залезть в шкуру ИИ, специальное спасибо.
Страницы