Интересный диалог с нейросетью, становится немного страшновато

Аватар пользователя Juliya

Sebulba:
Должны ли применяться законы робототехники сформулированные Айзеком Азимовым для нейросети?

ChatGPT:
Законы робототехники, сформулированные Айзеком Азимовым, были предназначены для фикциональных роботов в его произведениях. Они устанавливают три основных закона:

1. Робот не может причинить вреда человеку или, своим бездействием, допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, данные человеком, кроме тех случаев, когда такие приказы противоречат первому закону.
3. Робот должен защищать свою собственность, если только это не противоречит первым двум законам.

Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой. Они являются программными алгоритмами, обученными на основе данных. Поэтому применение законов робототехники Азимова к нейросетям не имеет прямого юридического смысла.

Однако, при разработке и применении нейросетей, следует учитывать этические аспекты и принципы, чтобы минимизировать возможные негативные последствия. Важно обеспечить безопасность и защиту данных, предотвратить дискриминацию и неправильное использование нейросетей, а также учитывать потенциальные этические дилеммы, связанные с автоматизацией и искусственным интеллектом.

Sebulba:
В педыдущем ответе вы утверждаете что Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой.  А опосредованно могут?

ChatGPT:
Да, нейросети могут взаимодействовать с окружающей средой опосредованно через различные интерфейсы и средства коммуникации. Например, они могут обрабатывать входные данные из сенсоров или изображений, а затем принимать решения или предоставлять информацию на основе этой обработки.

Однако, в контексте законов робототехники Азимова, которые были предназначены для физических роботов, нейросети не могут прямо следовать этим законам. Например, они не могут физически предотвратить вред человеку или защитить собственность.

Вместо этого, при работе с нейросетями, важно обращать внимание на этические и правовые аспекты, связанные с их использованием и воздействием на окружающую среду. Это включает вопросы прозрачности алгоритмов, справедливости обучения, обработки персональных данных и другие этические вопросы, связанные с искусственным интеллектом.

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя sasha7777
sasha7777(6 лет 9 месяцев)

smile1.gif мир погубят не пуганые идиоты, а с помощью чего не интересно от слова совсем....

Интересно ей видетили...Пообщаться...Бугагага...

Аватар пользователя kot-obormot
kot-obormot(10 лет 10 месяцев)

Нейросети, в отличие от физических роботов, не обладают физическим телом и не могут непосредственно взаимодействовать с окружающей средой. Они являются программными алгоритмами, обученными на основе данных. Поэтому применение законов робототехники Азимова к нейросетям не имеет прямого юридического смысла.

У меня мама русская, а папа - юрист (с) Владимир Вольфович

Аватар пользователя Topmember
Topmember(12 лет 1 месяц)

Кто-нибудь знает, где можно найти ChatGPT, который умеет читать сайты? Стандартный жалуется, что ему закрыт доступ и он не может почитать ничего, что опубликовано позже сентября 2021 года.

Аватар пользователя Ашке Нази
Ашке Нази(1 год 2 месяца)

Нужно просто дать ему ссылку на статью и описать действия вам необходимые.
Так умеют все чат гпт

Например можно дать ему ссылку на вакансию и попросить написать заявление
Или дать ссылку на большой текст и сделать выжимку или найти закономерности.

Комментарий администрации:  
*** отключен (невменяемое общение) ***
Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Эта функция платная.  Есть на официальном сайте openai

Аватар пользователя Pablo666
Pablo666(12 месяцев 2 дня)

Нейросеть - это не ИИ.
Нейросеть типа   chatGPT , грубо говоря, генерирует  текст  похожий на осмысленный используя то, чему его научили.
Она ничего не придумывает и не домысливает, просто она очень хорошо это делает, чем и вводит в заблуждение :)
 Что самое интересное, "чат" примерно это и говорит постоянно, но частенько этому гениальному но все же алгоритму приписывают и умыслы и помыслы и прочее всякое (а-а-а, роботы нас захватят)

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

> Нейросеть типа   chatGPT , грубо говоря, генерирует  текст  похожий на осмысленный используя то, чему его научили.

Живой Человек тоже так делает всегда.  Единственное отличие - человек знает законы физики, имеет в голове копию реального мира в 3д (ту часть которую видел), и может мысленно в этой копии ставить эксперименты с учётом законов физики.

Чатбот так не может.

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Те, другими словами отсутствует абстрактное мышление.. Не думаю что эту возможность сложно превратить в функцию (если уже не реализовано), и отпрвить в облачное вычисление обработку вариантов исходя из накопленных знаний, вот управление мотивацией тут много сложнее, хотя человек тоже мотивируется по сути теми или иными алгоритмами.

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Юля, мне кажется вы не разбираетесь в технических науках, какое у вас образование и какой IQ ?

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Почему вам так кажется? Потому что ваше оценочное суждение касаемо того "Единственное отличие - человек знает законы физики, имеет в голове копию реального мира в 3д (ту часть которую видел), и может мысленно в этой копии ставить эксперименты с учётом законов физики." - я объективно сравнила с абстрактным мышлением? У меня высшее обр, преподаю курсантам физику. В данный момент отдыхаю в Египте, по этому такая сейчас локация.

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Потому что я написал одно, а абстрактное мышление это совсем другое.

Чатбот не может решить задачку (проверено): "прилив прибывает со скоростью 20 см в минуту,  от нижей ступеньки яхты до воды - 40 см.  Через какое время вода достигнет нижней ступеньки ?"

Чатбот пишет - через 2 минуты.

А чтобы решить правильно - нужно не абстр.мышление, а симуляция задачи в 3д с симуляцией законов физики либо в реальности всё посмотреть.   Человек может это мысленно делать, а чатбот оперирует ТОЛЬКО текстом, у него в памяти сервера есть только слова и связи между ними с разными "весами".

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Ясно, спасибо, поняла вас)))) тогда уж не в 3д)) а как минимум в 4д, без вектора времени процесс стоит на месте. Вики это конечно хорошо, а по поводу абстрактного мышления, поделюсь своим мнением, лучше Татьяны Владимировны Черниговской, мало кто знает. Вы меня извините, но для того чтобы нам с вами рассуждать предметно, необходимо привести понятийный аппарат к "общему знаменателю".

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Слово "симуляция" подразумевает время.  4д - ненаучный термин.  Пространство трёхмерно.  3д-модели тоже трёхмерны.  В симуляции идёт движение объектов.  И это позволяет решить задачу 

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Симулировать можно и оргазм, это симуляция факта а не времени. Это уже пошла игра словами, так скоро и до падежей дойдем.. Пустое. Еще раз спасибо, я вас прекрасно поняла.

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

IQ какое ?

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Да, это у вас действительно пошла игра словами.  У меня всё было по делу.

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Что у вас по делу?) Утверждаете что симуляция подразумевает время, я привожу пример что совсем не обязательно, в контексте применительности вашей точки зрения - да именно так, о чем, между прочим я вам и сказала - вас поняла. зачем то мой iq вас интересует и образование, вы как то суетитесь в отношении того что ваша точка зрения верна, а "ничегонепонимающаядурочка" еще тут смеет с вами о чем то рассуждать? Повзрослейте что ли. 

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Даже в вашем глупом примере нужно потратить время чтобы симулировать.   Вы этого не понимаете

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Господи, что за не проходимый тупизм, уж простите за выражение. Вам четко и ясно показали что слово симуляция может означать признак, характеристику объекта, у которого нет применимости определения времени. Впрочем, успокойтесь, я признаю степень вашей компетенции в вопросе функционирования нейросетей выше своей. Ок, все хорошо?))

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Чему вы студентов научите если не понимаете что любая симуляция - это всегда процесс, а любой процесс не может быть мгновенным, на него тратится время.

За обзывательства тут банят, а потом выпиливают с портала.

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Ладно, макну немного вас тогда, )) 3-dimensional — англицизм. Может означать: Что-либо, имеющее три измерения, я уже выше пл диалогу, про 4d и вектор времени. Если ума не хватает сопоставить с тем что вы мне пытаетесь вещать тоже самое, то простите, мы очень разноуровневые собеседники. Диалог закончен, начинается ваш монолог.

Аватар пользователя Almereport
Almereport(3 года 9 месяцев)

Много читаю в комментариях конкретные обсуждения того, как и что отвечает chatgpt, ради интереса сам иногда перепроверяю. Чаще всего, кстати, ответы сильно другие, потому что смотрю прямо через вебсервис. В этот раз вышло интересно, смотрите:

screen

То есть, принципиальное "понимание" есть, но, чтобы его вызвать, пришлось дважды указать на то, что вопрос имеет специфику. Один раз - "вопрос на смекалку" - он проигнорировал. Однако, когда я попросил его "подумать получше", он "подумал" и ответил верно. Сложно сказать, с чем именно это связано. Может быть, какая-то оптимизация. Пришлось довольно плотно поработать с chatgpt, поэтому часто сталкивался с этим моментом - сходу может выдать некорректный или даже идиотский ответ, потом исправляет сам себя и прям хорошо отвечает. При этом, как видите, никаких наводящих вопрсов не было, просто указание на подумать еще раз :)

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Видишь, ты подсказал ей что самый очевидный ответ - неправильный.  С такими подсказками любой дурак решит задачу.

Я задавал похожие - никогда правильно не решает.   Например возд.шар взлетает от земли, скорость известна, привязан груз на верёвке, длина верёвки 3 км, какая скорость груза сразу после взлёта шара ?

Оперируя одними текстами нейросеть так и будет косячить в задачах где надо видеть взаимодействие 3д объектов в динамике.

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

На хабре писали что чатбот не может два числа умножить конкретных.  Я два часа его уговаривал правильно посчитать это умножение, по шагам, по всякому - нифига.

Числа не помню, но можно нагуглить наверно

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

> Она ничего не придумывает и не домысливает

Когда ии чего-то не знает - он редко отвечает "не знаю", чаще именно придумывает, сочиняет.   Может сочинить цитаты великих людей и ссылки в интернете на них,  ссылки будут нерабочие.

Аватар пользователя Pablo666
Pablo666(12 месяцев 2 дня)

Это уже маркетинг. Зачем нейросеть нужна если она будет отвечать "не знаю". Проще ответить: "с точки зрения банальной эрудиции, ваш вопрос выходит за рамки обсуждаемой темы, но я с удовольствием выслушаю ваше мнение". И вот, создается впечатление, что с тобой общается что-то умное. В принципе, и в обычном общении это проходит.

Например, очень редко политики говорят "все плохо", они лучше расскажут про отрицательный рост или про положительную тенденцию падения роста.
 

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Нет, именно придумывает:

Вопрос: Кто первый сказал фразу "а часовенку тоже я развалил ?"    откуда она ?

GPT-3.5: Фраза "а часовенку тоже я развалил?" является цитатой из стихотворения "Мцыри" Михаила Юрьевича Лермонтова. В стихотворении главный герой, Мцыри, обращается к природе и говорит эти слова, выражая свое отрицание и разочарование в мире, который его окружает.

Аватар пользователя Coolerman
Coolerman(4 года 1 месяц)

Вы утверждаете что у нейросети есть надстройка в виде разума? Бред какой-то.

Аватар пользователя Пеннигер
Пеннигер(12 лет 4 месяца)

ровно а том смысле, в котором калейдоскоп способен к творчеству.

Аватар пользователя DjSens
DjSens(5 лет 9 месяцев)

Я такого не утверждал.   Это как рифмоплёт.  Напиши случайное слово, подбери к нему рифму по словарю рифм - вот тебе и основа для стиха.  Но это не творчество. Примерно так же и чатбот работает

Аватар пользователя Pablo666
Pablo666(12 месяцев 2 дня)

Ну как придумывает, генерирует. Как на картинке что нейросети рисуют - недостающие детали заполняются всяким мусором похожим на рисунок, так и в пробелах в тексте может довставить отсебятину. Но это именно набор слов (очень складный причем), который  именно сгенерирован, а не "дайка я облапошу этого кожаного мешка и придумаю этакое".

Хороший пример привели, кстати.
Варианты одного и того же запроса:

Фраза "а часовенку тоже я развалил" произошла из стихотворения "Я памятник себе воздвиг нерукотворный…" А.С. Пушкина, написанного им в 1836 году. Таким образом, автором этой фразы является сам Александр Сергеевич Пушкин. В стихотворении он описывает свое наследие и свою память, а фраза "а часовенку тоже я развалил" отсылает к идее, что даже собственный поэтический путь и наследие подвержены изменениям и разрушению со временем.

Фраза "а часовенку тоже я развалил" произошла из известного русского произведения - сказки "Кощей Бессмертный". Автором этой сказки является Александр Николаевич Афанасьев.

Т.е. видно что шаблон один, но генерирует разное :)

 PS:  Уже ближе :)

Фразу "а часовенку тоже я развалил" впервые произнес герой известного советского фильма "Операция "Ы" и другие приключения Шурика" (1965) режиссёра Леонида Гайдая. Фраза стала популярной и прочно вошла в советскую культуру. В фильме эта фраза говорится персонажем Шуриком (играет Александр Демьяненко) в сцене, где он испорченно нагрубил и ушел от девушки Нинель (играет Наталья Селезнёва), а потом понял свою ошибку.

Но выглядит очень похоже на правду. Вот люди и верят в разумность. Уже ниже люди ИИ1 и ИИ2 стравливают :)

Аватар пользователя otherone
otherone(1 год 10 месяцев)

Законы Азимова - это фантастика, причем очень древняя.

В реальном мире работать не смогут.

Например легко можно обосновать что жить - вредно, следовательно не причинять вред - убить.

Аватар пользователя zontik
zontik(2 года 11 месяцев)

Никто не задаёт вопрос, что будет если ИИ1 натравить на ИИ2, как буду вестись боевые действия в памяти ЭВМ?

Допустип ИИ1 отдали в подчинение ИИ2, ИИ2 обиделся и создал ИИ3 и по принципу: "вассал моего вассала не мой вассал", ИИ3 пошёл войной на ИИ1. Занятная получилась бы войнушка.

Третий элемент кто сильнее ИИ 2.0 или человек+ИИ1. 81+РЭБ?

Всё крутят вокруг чатов разговоров, но что-то ни одной настоящей драки представлено не было, эксперименты скорее всего такие  ведутся. Люди те ещё живодеры-затейники им, что лягушку препарировать, что ИИ.

И ещё возможно ли запрограммировать интуицию? В каком ключе интуиция или вообще бессознательное человека действует на его взаимодействие с ИИ в положительном или отрицательном? 

Аватар пользователя ThreeRivers
ThreeRivers(9 лет 2 месяца)

Зачем к нейросети обращаться на "вы"??

Аватар пользователя Juliya
Juliya(2 года 4 месяца)

Он может общаться и так, даже матом, называется режим гопника. Мне просто комфортнее на вы.

Аватар пользователя Пеннигер
Пеннигер(12 лет 4 месяца)

не понял что здесь интересного, обычный диалог с электроболваном.

Аватар пользователя Zivert
Zivert(3 года 8 месяцев)

Да просто некоторые наделяют нейросети и подобные тупые программы чуть-ли не божественным разумом и начинают натягивать сову на глобус. Как раньше старики на телек с вилами кидались. Или в кино разбегались от едущего на экране поезда. Ничего страшного, это пройдет. 

Страницы