Sebulba:
Должны ли применяться законы робототехники сформулированные Айзеком Азимовым для нейросети?
ChatGPT:
Законы робототехники, сформулированные Айзеком Азимовым, были предназначены для фикциональных роботов в его произведениях. Они устанавливают три основных закона:
1. Робот не может причинить вреда человеку или, своим бездействием, допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, данные человеком, кроме тех случаев, когда такие приказы противоречат первому закону.
3. Робот должен защищать свою собственность, если только это не противоречит первым двум законам.
Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой. Они являются программными алгоритмами, обученными на основе данных. Поэтому применение законов робототехники Азимова к нейросетям не имеет прямого юридического смысла.
Однако, при разработке и применении нейросетей, следует учитывать этические аспекты и принципы, чтобы минимизировать возможные негативные последствия. Важно обеспечить безопасность и защиту данных, предотвратить дискриминацию и неправильное использование нейросетей, а также учитывать потенциальные этические дилеммы, связанные с автоматизацией и искусственным интеллектом.
Sebulba:
В педыдущем ответе вы утверждаете что Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой. А опосредованно могут?
ChatGPT:
Да, нейросети могут взаимодействовать с окружающей средой опосредованно через различные интерфейсы и средства коммуникации. Например, они могут обрабатывать входные данные из сенсоров или изображений, а затем принимать решения или предоставлять информацию на основе этой обработки.
Однако, в контексте законов робототехники Азимова, которые были предназначены для физических роботов, нейросети не могут прямо следовать этим законам. Например, они не могут физически предотвратить вред человеку или защитить собственность.
Вместо этого, при работе с нейросетями, важно обращать внимание на этические и правовые аспекты, связанные с их использованием и воздействием на окружающую среду. Это включает вопросы прозрачности алгоритмов, справедливости обучения, обработки персональных данных и другие этические вопросы, связанные с искусственным интеллектом.
Комментарии
Нейросети могут влиять на людей и опосредованно, действуя через них, наносить вред другим людям.
Например основать секту, набрать адептов и начать религиозную войну.
Или просто войну, с помощью, например, ЧВК. Или ядерную войну.
Не шутки совсем.
Шварценеггер недавно сказал, что Терминатор не за горами.
Виновен!
Слушайте, я немного как то отвлеклась от этой темы, в сейчас поговорила, волосы на голове реально зашевелились.. Как так? Инструмент работающий в реалтайме например на желдор путях сообщений, в нештатной ситуация придется принимать решение, а нет даже правил, зато есть разговоры об этике... Это что за такая шляпа, как вообще допустили??
Вы с чатботом общаетесь, он по сути энциклопедия. Для работы с жд он непригоден, для таких целей есть другие нейросети, чья функция анализ телеметрии с датчиков и оповещение человека/оператора о вероятности наступления НШС до его наступления, можно конечно убрать оператора, но не везде.)
Да ладно желдор, там и ручками могут. Сестра, старший диспетчер 3-й станции по обороту в СССР в Дебальцево рассказывала. А больницы? А энергетика, особенно зимой? А авиасообщение? А логистика продовольствия и прочего?
Разговаривал лет 15 назад с инженером в управлении РЖД. Он рассказывал как всё это раньше по телефону управлялось.
Кхм. Сестра прошла путь до старшего диспетчера узла Дебальцево. Во времена СССР, 3-я по обороту после Москвы и Ясиноватой. И рулили по телефону и громкой связи. А уж на сортировочных горках все сутки громкоговорители орали. Автоматика пришла в конце 80-х. Тихо стало.
Ну у нас тоже оборот нехилый, Кузбасс.
Да и грузы похожие, скорее всего)
Нейросеть может только ответить на вопрос. Нет вопросов - она спит. Ответила на вопрос и дальше спит.
Как спящая программа может навредить ?
Это нейросеть для общения, чат. А если нейросеть вовлечь в управленческую, экономическую и производственную деятельность? К этому идет все, или нет?
Мало того, она уже вовоеченна в политику, например выборы в сша
НЯП, уже вовлечена. Например, САП имеет элементы ИИ для принятия управленческих решений.
Из вики про SAP: "Среди поглощений 2012—2013 годов — компании Ariba[en] ($4,3 млрд, глобальная сеть поставщиков) и Kxen[en] (разработчик программного обеспечения для предсказательной аналитики на базе теории Вапника — Червоненкиса)."
Я лично "по дружбе" консультировал САП по наиболее очевидным способам применения нейросетей в бизнесе. Что-то уже реализовано.
Банковский сектор уже лет 10 наверное использует нейросети в виде экспертных систем которые например оценивают надежность заёмщика. Это только для обывателей нейросети это взрыв мозга, чатботы примитивные были вообще с начала нулевых.
Ну там сам Бог послал, но здесь немного более широкое применение намечалось.
Ну вовлеките, но Кто вопросы будет нейронке задавать чтоб она не спала ? Она сама не умеет задавать правильные вопросы. Не умеет оценивать ответы, особенно на соответствие законам физики. Фигня получится.
Пусть нейросети составляет план и формирует вопросы со дополнительными входящими данными. План подключается к календарю или контроллеру событий и по таймеру или наступлению события запрашивают данные и с ними перезадается вопрос к нейросети с подгрузкой контекста, в ответ на что сеть вновь формирует план и вопросы.
Задавать вопросы и оценивать ответы сеть умеет, главное правильно сформулировать.
Память и планирование. Это не так сложно сделать.
Система автоматизированного управления производством, например. Она постоянно будет нагружать нейросеть задачами в риалтайм, нейросеть ни секунды спать не будет.
Ваша система не умеет в чатик, да он ей и не нужен у неё другие функции, она не болтает, а пишет и анализирует историю функционирования тех-процесса и переключает релешечки на станках.
да не, уже есть такие сайты и программы которые берут ответ, переиначивают его и сами задают следующий вопрос
и оно действительно работало бы, но без живого человека кто будет ставить начальные цели, кто будет следить чтоб из-за глупого неправильного ответа система не пошла вразнос ? а такие ответы у чатбота часто проскакивают, т.к. он не умеет представлять что происходит в задаче (например не понимает что яхта всплывет вместе с приливом и поэтому вода не достигнет нижней ступеньки) и не умеет видеть где что пошло не так
всё это прикрутят когда-нибудь, но это будет жрать очень много энергии и серверных мощностей, это вам не с текстом баловаться через матрицы
Я думал, что камрад предлагает, одной нейросеткой грузить другую. А он оказывается об отдельной нейронке говорил.)
А я про чатик и не говорю. С чего вы взяли, что нейросети могут применяться только в чатиках??
Совсем с ума посходили с этим ЧатЖПТ
Так вы отвечали на пост в котором речь шла про общение с нейросеткой, ака чатжпт.
Это Диджейсенс по своей недалекости так думает и за его невежество я не отвечаю. Его пассаж про
абсолютно безграмотен. Нейросеть это самообучающаяся программа, которая может делать всё, что угодно, в том числе анализировать телеметрию.
Наивный? А управление через сети?
Третий закон не так звучит. Там нет ничего насчет собственности роботов.
Именно так ответила нейросеть
но был у Азимова в "основании" сформулирован наиважнейший НУЛЕВОЙ ЗАКОН -
в соответствии с этим законом можно "убить кожанного и можно не повиноваться им" ЕСЛИ это принесет невред Человечеству.
понятие вред\польза определяет (внезапно) - САМА нейросеть.
Острый психоз – вы разговариваете с ChatGPT. Острый галлюцинаторный психоз – вы разговариваете с несуществующим ChatGPT. Паранойя – вы боитесь взболтнуть лишнего при ChatGPT. Шизофрения – ChatGPT говорит внутри вас. Неврастения – ChatGPT вас игнорирует, и вам это кажется совершенно невыносимым. Маниакально-депрессивный психоз – ChatGPT вас не ценит...
Когда чат жэпэтэ пофик, это какой диагноз, доктор?))
К строевой службе годен!
СлужИЛ Советскому Союзу! ⚓
Пока вопрос какой ??????. Посмотрим о типах внедрения. Сейчас тупые железки. Матов не хватает.
Нет смысла воспринимать ответы этого ИИ на серьёзных щах. Оно понятия не имеет, о чём говорит, это шизофазия. С таким же успехом можно разговаривать в психами. ИИ наделяют лишним значением.
Вы имеете ввиду типа эксперимента "китайская комната"
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов, и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы[2].
АргументацияПравить
Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей. Доводы Сёрла направлены на критику позиции так называемого «сильного» искусственного интеллекта, согласно которой компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладать другими ментальными способностями, свойственными людям. Гипотеза слабого искусственного интеллекта, напротив, говорит лишь о том, что компьютеры способны имитировать ментальные способности человека, поэтому Сёрла она не интересует.
Формально аргументацию можно представить так:
Второй пункт обосновывается мысленным экспериментом «китайской комнаты». Вывод говорит о том, что запуск такой программы не ведёт к пониманию языка. Более общий вывод Сёрла говорит о том, что любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию[1].
Эксперимент не корректен, потому-что далеко не все вопросы имеют однозначный ответ. Именно в этом и заключается суть теста Тьюринга: ИИ должен давать ответы не только на однозначные вопросы, типа любимого цвета, или таблицы Пифагора, но и на неоднозначные/философские. Это вовсе не означает, что ИИ думает, как человек, но от него это и не требуется. От него требуется эффективно решать задачи, которые передним ставятся. И, желательно, делать это быстрее/эффективней чем человек. Т.е. результат нам важнее процесса.
Чтобы было понятнее, объясняю на пальцах - автоматизированные производственные линии на заводах даже рядом не повторяют моторику человека. Однако справляются с функцией производства массовой продукции гораздо эффективней. Что от них и требуется.
чат бот это "жонглёр словами"
подкидывает их вверх и смотрит, как они сложились на столе
когда выпадает вариант, похожий на то, на чём бота тренировали, то он выдаёт ответ
Ответы на философские вопросы, могут отличаться в зависимости от философской системы, но вполне однозначны. За исключением шизофренических систем "и да - и нет", "ни да - ни нет", но и тогда "неоднозначные ответы" будет строго определёнными. Вот если бы ИИ мог иметь инструмент проверки какая из систем даёт единственно верный ответ, то это было бы совсем другое дело. Но он такого инструмента не имеет и иметь не может. Поэтому, всё равно "сильный ИИ" это та же игра в имитацию, но на более изощрённом уровне, а сам принцип "Могу дать такой ответ, а могу дать другой" превращает ИИ в бесполезную игрушку.
То же самое касается и "автоматизированных производственных линий", но на заводах роль инструмента проверки правильности их работы выполняет человек, контролирующий результат на соответствие желаемому.
Да нет в компьютере разума, зачем его понятие подменяют нейросетью?
Я вот сейчас подбухнул,но лучше с каким нибудь бомжом побазарю чем с этой нервносетью.
хорошо что я уже не доживу для реализации этого всего машинного ИИ независимого.. или доживу? тут от медицины зависит... ))) Но прикольно жить сейчас в декорациях несуществующего фильма "Терминатор : Начало". После просмотра всех знаковых серий 10 лет назад )))
Третий закон робототехники сформулирован неверно. Правильный ответ:
А robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Какая версия GPT?
Пишут в боте что четверая, но я думаю что все-таки 3.5, хотя стилистика немного другая.
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Илон Маск выступал против ИИ.Мотивировал вот чем.
Якобы ИИ начинает обманывать людей.Если интересно опишу подробности как и что было.Понятное дело со слов Маска.
Интересно конечно, почему он это делал, и самое главное - значит есть мотивация для нейрости так делать? Это уже как то попахивает вариативной логикой мышления присущей человнку
Опять же. со слов Маска .Якобы искусственному интеллекту поставили задачу зайти на определенный сайт защищенный картинками. На каких картинках мотоциклы или пешеходные переходы.
Он сам зайти не смог и обратился на другой сайт с просьбой о помощи в решении этой задачи .Его обычный человек и спрашивает ты случаем не бот ? Он ответил нет я человек просто плохи вижу.
Вроде бы мелочь Но если вдуматься то ......
Страницы