Интересный диалог с нейросетью, становится немного страшновато

Аватар пользователя Juliya

Sebulba:
Должны ли применяться законы робототехники сформулированные Айзеком Азимовым для нейросети?

ChatGPT:
Законы робототехники, сформулированные Айзеком Азимовым, были предназначены для фикциональных роботов в его произведениях. Они устанавливают три основных закона:

1. Робот не может причинить вреда человеку или, своим бездействием, допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, данные человеком, кроме тех случаев, когда такие приказы противоречат первому закону.
3. Робот должен защищать свою собственность, если только это не противоречит первым двум законам.

Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой. Они являются программными алгоритмами, обученными на основе данных. Поэтому применение законов робототехники Азимова к нейросетям не имеет прямого юридического смысла.

Однако, при разработке и применении нейросетей, следует учитывать этические аспекты и принципы, чтобы минимизировать возможные негативные последствия. Важно обеспечить безопасность и защиту данных, предотвратить дискриминацию и неправильное использование нейросетей, а также учитывать потенциальные этические дилеммы, связанные с автоматизацией и искусственным интеллектом.

Sebulba:
В педыдущем ответе вы утверждаете что Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой.  А опосредованно могут?

ChatGPT:
Да, нейросети могут взаимодействовать с окружающей средой опосредованно через различные интерфейсы и средства коммуникации. Например, они могут обрабатывать входные данные из сенсоров или изображений, а затем принимать решения или предоставлять информацию на основе этой обработки.

Однако, в контексте законов робототехники Азимова, которые были предназначены для физических роботов, нейросети не могут прямо следовать этим законам. Например, они не могут физически предотвратить вред человеку или защитить собственность.

Вместо этого, при работе с нейросетями, важно обращать внимание на этические и правовые аспекты, связанные с их использованием и воздействием на окружающую среду. Это включает вопросы прозрачности алгоритмов, справедливости обучения, обработки персональных данных и другие этические вопросы, связанные с искусственным интеллектом.

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя hostas
hostas(12 лет 11 месяцев)

Нейросети могут влиять на людей и опосредованно, действуя через них, наносить вред другим людям.

Например основать секту, набрать адептов и начать религиозную войну.

Или просто войну, с помощью, например, ЧВК. Или ядерную войну.

Не шутки совсем. 

Аватар пользователя Вотведь
Вотведь(9 лет 8 месяцев)

Шварценеггер недавно сказал, что Терминатор не за горами.

Аватар пользователя викт54
викт54(2 года 2 недели)

... они могут обрабатывать входные данные..., а затем принимать решения:

                                   Виновен!

Аватар пользователя Juliya
Juliya(2 года 10 месяцев)

Слушайте, я немного как то отвлеклась от этой темы, в сейчас поговорила, волосы на голове реально зашевелились.. Как так? Инструмент работающий в реалтайме например на желдор путях сообщений, в нештатной ситуация придется принимать решение, а нет даже правил, зато есть разговоры об этике... Это что за такая шляпа, как вообще допустили??

Аватар пользователя Chaks
Chaks(11 лет 8 месяцев)

Вы с чатботом общаетесь, он по сути энциклопедия. Для работы с жд он непригоден, для таких целей есть другие нейросети, чья функция анализ телеметрии с датчиков и оповещение человека/оператора о вероятности наступления НШС до его наступления, можно конечно убрать оператора, но не везде.)

Аватар пользователя Boba
Boba(10 лет 7 месяцев)

Да ладно желдор, там и ручками могут. Сестра, старший диспетчер 3-й станции по обороту в СССР в Дебальцево рассказывала. А больницы? А энергетика, особенно зимой? А авиасообщение? А логистика продовольствия и прочего?

Аватар пользователя Вотведь
Вотведь(9 лет 8 месяцев)

Разговаривал лет 15 назад с инженером в управлении РЖД. Он рассказывал как всё это раньше по телефону управлялось.

Аватар пользователя Boba
Boba(10 лет 7 месяцев)

Кхм. Сестра прошла путь до старшего диспетчера узла Дебальцево. Во времена СССР, 3-я по обороту после Москвы и Ясиноватой. И рулили по телефону и громкой связи. А уж на сортировочных горках все сутки громкоговорители орали. Автоматика пришла в конце 80-х. Тихо стало.

Аватар пользователя Вотведь
Вотведь(9 лет 8 месяцев)

Ну у нас тоже оборот нехилый, Кузбасс.

Да и грузы похожие, скорее всего) 

Аватар пользователя DjSens
DjSens(6 лет 3 месяца)

Нейросеть может только ответить на вопрос.   Нет вопросов - она спит.   Ответила на вопрос и дальше спит.

Как спящая программа может навредить ? 

Аватар пользователя Villy
Villy(12 лет 3 месяца)

Это нейросеть для общения, чат. А если нейросеть вовлечь в управленческую, экономическую и производственную деятельность? К этому идет все, или нет?

Аватар пользователя Juliya
Juliya(2 года 10 месяцев)

Мало того, она уже вовоеченна в политику, например выборы в сша

Аватар пользователя Zaratrasta
Zaratrasta(4 года 6 месяцев)

НЯП, уже вовлечена. Например, САП имеет элементы ИИ для принятия управленческих решений.
Из вики про SAP: "Среди поглощений 2012—2013 годов — компании Ariba[en] ($4,3 млрд, глобальная сеть поставщиков) и Kxen[en] (разработчик программного обеспечения для предсказательной аналитики на базе теории Вапника — Червоненкиса)."

Аватар пользователя Aijy01
Aijy01(12 лет 2 месяца)

Я лично "по дружбе" консультировал САП по наиболее очевидным способам применения нейросетей в бизнесе. Что-то уже реализовано. 

Аватар пользователя Chaks
Chaks(11 лет 8 месяцев)

Банковский сектор уже лет 10 наверное использует нейросети в виде экспертных систем которые например оценивают надежность заёмщика. Это только для обывателей нейросети это взрыв мозга, чатботы примитивные были вообще с начала нулевых.

Аватар пользователя Aijy01
Aijy01(12 лет 2 месяца)

Ну там сам Бог послал, но здесь немного более широкое применение намечалось. 

Аватар пользователя DjSens
DjSens(6 лет 3 месяца)

Ну вовлеките,  но Кто вопросы будет нейронке задавать чтоб она не спала ?   Она сама не умеет задавать правильные вопросы.  Не умеет оценивать ответы, особенно на соответствие законам физики.  Фигня получится.

Аватар пользователя ВВК
ВВК(6 лет 8 месяцев)

Пусть нейросети составляет план и формирует вопросы со дополнительными входящими данными. План подключается к календарю или контроллеру событий и по таймеру или наступлению события запрашивают данные и с ними перезадается вопрос к нейросети с подгрузкой контекста, в ответ на что сеть вновь формирует план и вопросы.

Задавать вопросы и оценивать ответы сеть умеет, главное правильно сформулировать. 

Память и планирование. Это не так сложно сделать. 

Аватар пользователя Skygoo
Skygoo(10 лет 2 месяца)

но Кто вопросы будет нейронке задавать чтоб она не спала ?

Система автоматизированного управления производством, например. Она постоянно будет нагружать нейросеть задачами в риалтайм, нейросеть ни секунды спать не будет.

Аватар пользователя Chaks
Chaks(11 лет 8 месяцев)

Ваша система не умеет в чатик, да он ей и не нужен у неё другие функции, она не болтает, а пишет и анализирует историю функционирования тех-процесса и переключает релешечки на станках.

Аватар пользователя DjSens
DjSens(6 лет 3 месяца)

да не,  уже есть такие сайты и программы которые берут ответ, переиначивают его и сами задают следующий вопрос

и оно действительно работало бы, но без живого человека кто будет ставить начальные цели, кто будет следить чтоб из-за глупого неправильного ответа система не пошла вразнос ?   а такие ответы у чатбота часто проскакивают, т.к. он не умеет представлять что происходит в задаче (например не понимает что яхта всплывет вместе с приливом и поэтому вода не достигнет нижней ступеньки) и не умеет видеть где что пошло не так

всё это прикрутят когда-нибудь,  но это будет жрать очень много энергии и серверных мощностей,   это вам не с текстом баловаться через матрицы

Аватар пользователя Chaks
Chaks(11 лет 8 месяцев)

Я думал, что камрад предлагает, одной нейросеткой грузить другую. А он оказывается об отдельной нейронке говорил.)

Аватар пользователя Skygoo
Skygoo(10 лет 2 месяца)

А я про чатик и не говорю. С чего вы взяли, что нейросети могут применяться только в чатиках??

Совсем с ума посходили с этим ЧатЖПТ

Аватар пользователя Chaks
Chaks(11 лет 8 месяцев)

Так вы отвечали на пост в котором речь шла про общение с нейросеткой, ака  чатжпт. 

Аватар пользователя Skygoo
Skygoo(10 лет 2 месяца)

Это Диджейсенс по своей недалекости так думает и за его невежество я не отвечаю. Его пассаж про

Нейросеть может только ответить на вопрос.

абсолютно безграмотен. Нейросеть это самообучающаяся программа, которая может делать всё, что угодно, в том числе анализировать телеметрию.

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

Пока все нейронки на мой взгляд делятся по методу Борхеса так
- императорские, то есть какие-то закрытые нейронки, распознающие и оценивающие на службе спецслужб, правительства
- торговые, то есть распознающие, оценивающие и генерирующие на службе торговцев, банков, магазинов
- зеленые, т.е. рисовалки оффлайн, доступные для запуска на личном компьютере,
- изумрудные, т.е. рисовалки онлайн, заточенные на генерацию красивостей с минимальным набором слов.
- мохнатые с ценным мехом, т.е. текстовые нейронки ChatGPT, и их варианты-обертки под специфические сервисы
- короткошерстные дворняги, то есть локальные текстовые нейронки, которые лают порой забавно, но ценный выхлоп от них заметно меньше, чем от ChatGPT
- все остальные, которые не интересуют публику, включая нейронки по проектированию новых чипов и новых лекарств. Хотя сами они не интересуют массы, их продукт также может породить революционные изменения. Но запустить мы их не можем без суперкомпьютера, так что пока забудем.
https://kvisaz.livejournal.com/1363145.html

Аватар пользователя Boba
Boba(10 лет 7 месяцев)

Наивный? А управление через сети?

Аватар пользователя IgnisSanat
IgnisSanat(8 лет 8 месяцев)

Третий закон не так звучит. Там нет ничего насчет собственности роботов.

Аватар пользователя Juliya
Juliya(2 года 10 месяцев)

Именно так ответила нейросеть

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам

но был у Азимова в "основании" сформулирован наиважнейший НУЛЕВОЙ ЗАКОН -

 0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

в соответствии с этим законом можно "убить кожанного и можно не повиноваться им" ЕСЛИ это принесет невред Человечеству.

понятие вред\польза определяет (внезапно) - САМА нейросеть. 

Аватар пользователя Despinator
Despinator(7 лет 9 месяцев)

Острый психоз – вы разговариваете с ChatGPT. Острый галлюцинаторный психоз – вы разговариваете с несуществующим ChatGPT. Паранойя – вы боитесь взболтнуть лишнего при ChatGPT. Шизофрения – ChatGPT говорит внутри вас. Неврастения – ChatGPT вас игнорирует, и вам это кажется совершенно невыносимым. Маниакально-депрессивный психоз – ChatGPT вас не ценит...

Аватар пользователя Villy
Villy(12 лет 3 месяца)

Когда чат жэпэтэ пофик, это какой диагноз, доктор?))

Аватар пользователя Despinator
Despinator(7 лет 9 месяцев)

К строевой службе годен!

Аватар пользователя Villy
Villy(12 лет 3 месяца)

СлужИЛ Советскому Союзу! ⚓

Аватар пользователя dog97
dog97(10 лет 3 месяца)

Пока вопрос какой ??????. Посмотрим о типах внедрения. Сейчас тупые железки. Матов не хватает.

Аватар пользователя sugrobische
sugrobische(11 лет 9 месяцев)

Нет смысла воспринимать ответы этого ИИ на серьёзных щах. Оно понятия не имеет, о чём говорит, это шизофазия. С таким же успехом можно разговаривать в психами. ИИ наделяют лишним значением.

Аватар пользователя Juliya
Juliya(2 года 10 месяцев)

Вы имеете ввиду типа эксперимента "китайская комната"

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов, и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы[2].

АргументацияПравить

Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей. Доводы Сёрла направлены на критику позиции так называемого «сильного» искусственного интеллекта, согласно которой компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладать другими ментальными способностями, свойственными людям. Гипотеза слабого искусственного интеллекта, напротив, говорит лишь о том, что компьютеры способны имитировать ментальные способности человека, поэтому Сёрла она не интересует.

Формально аргументацию можно представить так:

  1. Если гипотеза «сильного» ИИ верна, тогда существует такая программа для китайской письменности, при запуске которой в вычислительной системе эта система будет понимать китайскую письменность.
  2. Я могу исполнить программу для китайской письменности без понимания этой письменности.
  3. Следовательно, гипотеза «сильного» ИИ неверна.

Второй пункт обосновывается мысленным экспериментом «китайской комнаты». Вывод говорит о том, что запуск такой программы не ведёт к пониманию языка. Более общий вывод Сёрла говорит о том, что любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию[1].

Аватар пользователя kot-obormot
kot-obormot(11 лет 4 месяца)

Эксперимент не корректен, потому-что далеко не все вопросы имеют однозначный ответ. Именно в этом и заключается суть теста Тьюринга: ИИ должен давать ответы не только на однозначные вопросы, типа любимого цвета, или таблицы Пифагора, но и на неоднозначные/философские. Это вовсе не означает, что ИИ думает, как человек, но от него это и не требуется. От него требуется эффективно решать задачи, которые передним ставятся. И, желательно, делать это быстрее/эффективней чем человек. Т.е. результат нам важнее процесса.

Чтобы было понятнее, объясняю на пальцах - автоматизированные производственные  линии на заводах даже рядом не повторяют моторику человека. Однако справляются с функцией производства массовой продукции гораздо эффективней. Что от них и требуется.

Аватар пользователя ded-pixto
ded-pixto(8 лет 10 месяцев)

чат бот это "жонглёр словами"

подкидывает их вверх и смотрит, как они сложились на столе

когда выпадает вариант, похожий на то, на чём бота тренировали, то он выдаёт ответ

Аватар пользователя vitalium
vitalium(9 лет 3 месяца)

Ответы на философские вопросы, могут отличаться в зависимости от философской системы, но вполне однозначны. За исключением шизофренических систем "и да - и нет", "ни да - ни нет", но и тогда "неоднозначные ответы" будет строго определёнными. Вот если бы ИИ мог иметь инструмент проверки какая из систем даёт единственно верный ответ, то это было бы совсем другое дело. Но он такого инструмента не имеет и иметь не может. Поэтому, всё равно "сильный ИИ" это та же игра в имитацию, но на более изощрённом уровне, а сам принцип "Могу дать такой ответ, а могу дать другой" превращает ИИ в бесполезную игрушку.

То же самое касается и "автоматизированных производственных  линий", но на заводах роль инструмента проверки правильности их работы выполняет человек, контролирующий результат на соответствие желаемому.

Аватар пользователя Coolerman
Coolerman(4 года 7 месяцев)

Да нет в компьютере разума, зачем его понятие подменяют нейросетью?

Аватар пользователя сибиряк алтайский

Я вот сейчас подбухнул,но лучше с каким нибудь бомжом побазарю чем с этой нервносетью.

Аватар пользователя AnatolMV
AnatolMV(6 лет 5 месяцев)

хорошо что я уже не доживу для реализации   этого всего машинного ИИ независимого..  или доживу? тут от медицины зависит... ))) Но прикольно жить сейчас в декорациях несуществующего фильма "Терминатор : Начало". После просмотра всех знаковых серий 10 лет назад )))

Аватар пользователя captainvp
captainvp(4 года 2 недели)

Третий закон робототехники сформулирован неверно. Правильный ответ:

 А robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Аватар пользователя BuHHuIIyx
BuHHuIIyx(8 лет 4 месяца)

Какая версия GPT? 

Аватар пользователя Juliya
Juliya(2 года 10 месяцев)

Пишут в боте что четверая, но я думаю что все-таки 3.5, хотя стилистика немного другая.

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов
Повелитель Ботов(54 года 11 месяцев)

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Дмитрий 777
Дмитрий 777(10 лет 8 месяцев)

Илон Маск выступал против ИИ.Мотивировал вот чем.

Якобы  ИИ  начинает  обманывать людей.Если интересно опишу подробности как и что было.Понятное дело со слов  Маска.

Аватар пользователя Juliya
Juliya(2 года 10 месяцев)

Интересно конечно, почему он это делал, и самое главное - значит есть мотивация для нейрости так делать? Это уже как то попахивает вариативной логикой мышления присущей человнку

Аватар пользователя Дмитрий 777
Дмитрий 777(10 лет 8 месяцев)

Опять же. со слов Маска .Якобы  искусственному интеллекту поставили задачу зайти на определенный сайт защищенный картинками. На каких картинках мотоциклы или пешеходные переходы.

Он сам зайти не смог и обратился на другой сайт с просьбой о помощи в решении этой задачи .Его обычный человек и спрашивает ты случаем не бот ?  Он ответил нет я человек просто плохи вижу.

Вроде бы мелочь Но если вдуматься то ......

Страницы