РБК: В России обсудят запрет ИИ с «угрожающим уровнем риска»

Аватар пользователя Mr.Wolf

Кто должен нести ответственность за вред, нанесенный технологией человеку? Участники рынка, эксперты и депутаты обсуждают проект госрегулирования ИИ. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями.

Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили РБК пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России» (копия есть у РБК, ее подлинность подтвердили два источника РБК на IT-рынке). Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, отметили собеседники РБК.

В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).

Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».

По его словам, законодательные инициативы пока депутатами «всерьез не рассматриваются». «Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.

Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.

Что предлагает законопроект

  • Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
  • Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
  • Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
  • Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
  • Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
  • Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
  • Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).

Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.

Нужно ли регулировать ИИ

Источник РБК в одной компании — разработчике ИИ говорит, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Например, в феврале этого года вице-премьер Дмитрий Григоренко говорил, что законодательное регулирование ИИ не планируется в ближайшие два года.

«Российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, — говорит источник РБК. — Чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли для экономики страны, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков». Он отметил, что негативное влияние регулирования видно на примере европейских компаний: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, собственные конкурентоспособные решения не появляются.

Директор по цифровым технологиям «Ростелекома» Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. «Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», — говорит Хазеев, отмечая, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.

Представители «Яндекса», МТС и VK отказались от комментариев. РБК направил запрос в «Сбер».

Дополнение. Материал по теме от ПРАВО.ru

Авторство: 
Копия чужих материалов
Комментарий автора: 

Прошло всего несколько дней после материала Ведомостей "В Госдуме создана рабочая группа по регулированию искусственного интеллекта".

Возглавил группу вице-спикер нижней палаты Александр Бабаков («Справедливая Россия»). Вопрос регулирования ИИ «не должен никого пугать», заявил он «Ведомостям», отметив, что это «не та сфера, которая может развиваться чисто по рыночным законам» и ориентироваться «только на нормы прибыли». При подходе к этим темам нужно оценить много факторов, в том числе угрозы (в том числе этические), которые несут в себе новые трансграничные технологии. Кроме того, отметил Бабаков, есть вопросы, связанные с изучением насыщенности рынка и его развития в сочетании с рынком энергетики.

И вот - уже РБК где-то взяли копию готового законопроекта, и активно его комментируют.

Из смешного - "Парламенская газета" (внимание: Издание Федерального Собрания Российской Федерации!!) в своем материале на рассматриваемую тему ссылается .... на то же РБК! 

То, что вопрос правового регулирования ИИ назрел уже более чем - большинство понимают без дополнительных пояснений. И хотя Григоренко озвучивал иное - видать, по каким-то соображениям, передумал. 

Отсутствие официального законопроекта в публичном пространстве - видится скорее как некоторое опасение выложить в публичный доступ очередной набор ляпов, получить полную панаму негатива - и политически похоронить здравую тему. Так, в последнее время - бывало нередко. Соответственно, слив через РБК - дает возможность собрать конструктивные замечания, а негатив парировать на любом уровне, заявляя, что "вы не то читали, мы уже давно всё изменили". Как вариант.

Содержательно (из того, что обсуждает РБК) можно выделить формирование официальной терминологической базы (а то каждый у себя в голове свой собственный вариант определения ИИ имеет в виду), и первостепенную ориентацию на рисковость применения ИИ и ответственность за последствия (отсюда, в том числе - маркировка, классификация и т.п.). К сожалению, в качестве еще одного приоритета - выбрано направление "защиты правообладателей". Ну тут без детализации и понимания сути проекта - сложно однозначно понять, насколько это в плюс или в минус. Подождем официально опубликованного варианта.

В любом случае - прогресс в теме нормативно-правового регулирования необходим.

О текущем состоянии дел в этом вопросе - неплохо изложено в дополнении из ПРАВО.ru

Продолжаем наблюдать.

Комментарии

Аватар пользователя Telemax
Telemax(3 года 2 недели)

главное, чтобы вместе с водой не выплеснули и ребёнка.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Дык ребёнок уже не первый год по столице (и не только) катается... Без прав :-)

Аватар пользователя Верняк
Верняк(10 лет 6 месяцев)

Не очень понял что они там собрались регулировать.

Имитаторы интеллекта - это просто ПО. Т.е. инструмент. Любой урон нанесенный посредством такого ПО подпадает под уже имеющиеся правовые инструменты.

Или там какие то бюджеты светят и их хотят окучить?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Вот поясните, пожалуйста, в рамках имеющихся правовых инструментов - кто несет ответственность за ДТП, совершенного беспилотным такси от Яндекса?

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Яндекс и несёт. Как владелец источника ущерба. Естественно, если именно такси с автопилотом - источник ущерба.

Здесь ИИ вообще вторичен: если в рамках КоАП остались - пусть Яндекс доказывает, что он не виноват. ДТП - это 12 глава КоАП, там презумпция виновности применяется. Если до преступления дошло, например тяжкий вред здоровью - виновен и "с применением ИИ" как отягчающим.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Во-первых, вопрос был не вам.

Во-вторых, вы в очередной раз бред пишите. Ваши бредни больше не комментирую.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Во-первых, вопрос был публичен. Хотите приватный ответ - задайте вопрос приватно или произведите анальное огораживание.

Во-вторых, бредите именно вы: за ДТП с неисправным ТС в отсутствие водителя и произошедшим в следствие неисправности, отвечать будет владелец. Пусть даже владелец и не будет в некоторых случаях признан виновным.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Во-первых, вопрос задан в моём блоге. И это я решаю кто тут и что публикует. Не нравится - можете его покинуть.

Еще одна бредятина и хамство в тексте - приму меры. Вторых предупреждений у меня не бывает.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Мне всё нравится и всё устраивает. smile7.gif

Как я уже говорил, принять меры - ваше право. Но если вы думаете, что можно хамить безответно под прикрытием того, что блог ваш - лучше всего принимать меры сразу же после очередной тщетной попытки оскорбления.

Кстати, статья таки на пульсе, а ваш персональный блог в круг моих интересов не входит 

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Или там какие то бюджеты светят и их хотят окучить?

Сертификация, проверки плановые и по заявлениям граждан, а также повторные для контроля устранения недостатков.

А какая коррупционная ёмкость - пальчики оближешь!

Аватар пользователя Алекsандр
Алекsандр(5 лет 2 недели)

Участники рынка, эксперты и депутаты

 Ядрёная смесь, особенно эти участники.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

А кто по-вашему должен этим заниматься? 

Аватар пользователя andrei_leva
andrei_leva(11 лет 6 месяцев)

Я думал, это один человек

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Участники рынка, эксперты и депутаты

Где здесь хотя бы один человек? Там чуть более 100% проходят по графе AI (Abominable Intelligence) - ИИ (Изуверский Интеллект).

Аватар пользователя Нетак
Нетак(9 лет 3 месяца)

Человек?

Аватар пользователя petr7070
petr7070(13 лет 2 месяца)

Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).

Я сильно далек от авторских прав, но возникает вопрос, если создатели, например,  сайта нагенерировали картинок, звуков и др материалов, то кто кому что должен в течение 50 лет? И кто кому что передает при исполнении договора? И если модель ИИ, которая генерирует, не на платформе, а скачана пользователем на локальный компьютер и сгенерирован контент или картинки, тогда кто кому и что должен?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

В условиях недоступности оригинального текста - комментировать содержательно смысла нет от слова совсем. ИМХО.

Аватар пользователя Er0p
Er0p(10 лет 1 неделя)

Поменял прозрачность одного пикселя и оно твое. Работал...

Аватар пользователя Ivanovich
Ivanovich(13 лет 4 месяца)

Депутаты и ИИ ... интересная штуковина. Вот почему они не возбуждаются на искоренение триппера в стране, а вот ИИ им, якобы по уму. smile1.gif

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Ну, тут "у кого - что болит..."

Аватар пользователя AlekZ
AlekZ(5 лет 9 месяцев)

можно сразу  запретить гражданам общаться с (излишне) умными людьми или любыми другими источниками полезной или достоверной информации. Можно просто запретить общаться на любые интеллектуальные темы.


ЗЫ на общение с депутатами ГосДумы, прессу и профессиональных политиков запрет не распространяется по определению

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Это...  Вы вот сами поняли что написали?

Аватар пользователя AlekZ
AlekZ(5 лет 9 месяцев)

а вы понимаете? smile1.gif

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Вас? Увы - нет...

Аватар пользователя Artem_01
Artem_01(13 лет 1 месяц)

Вот конкретный пример. Мошенники оформили заявку за 20летнего человека на соцпенсии (0 трудовой стаж) в три банка почти на 1 млн.  В ВТБ и Сбере отказали. В альфе одобрили, при этом утверждается, что якобы процесс рассмотрения заявок полностью делает ИИ. И все,  дальше от альфы никто не одобряет и не имеет права решать за ИИ выдавать или нет. Просто приходишь в живую подтверждаешь, что это ты подавал заявку и кредит уже на тебе висит. С суммой платежа размером ровно в соцпенсию и сроком на 5 лет. Да, понятно, сам виноват, что отдел деньги мошенникам. Но следуй банк своим же заявленным правилам (до 21 не выдают потреб кредиты и мин. 3 мес. Трудового стажа), то и не было проблем. А тут и банк типа не причем, это все ИИ виноват. 

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Ну, тут оно - не совсем так вроде. Ибо ИИ в этом случае - имени Альфы, и проблемы - их. По идее...

Аватар пользователя CatOwner
CatOwner(7 лет 7 месяцев)

Имхо, нужна тщательная проработка вопросов ответственности разработчиков ИИ. Вообще, хорошо бы конкретизировать понятие разработчика системы ИИ. Там сильно размывается ответственность. Вот тот кто готовит обучающие выборки данных, он является разработчиком или нет? Если нет, то фактически это означает автоматический перевод любого ИИ с использованием сторонних датасетов в зону высокого риска. А если данные вообще со всего мира собирались?

Или вот еще вопрос - допустим, сделан автопилот, существенно снижающий среднюю вероятность аварии по сравнению с живым водителем. Но вот незадача, аварии таки происходят, и разработчик несет за нее ответственность материальную. И вот надоело ему это, он банкротится и изымает модель автопилота из использования, это будет хорошо для общества?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

А почему только разработчика? А эксплуатанта?

Аватар пользователя CatOwner
CatOwner(7 лет 7 месяцев)

Я бы вообще все свалил на государство. Ввести госприемку систем ИИ. В процессе сертификации определять риски использования, тестировать на унифицированных стендах, формировать требования к эксплуатации. Тут просто вопрос на кого списывать ошибки технологии (а они неизбежны в системах ИИ) - имхо ни на кого, если государство систему одобрило и в процессе эксплуатации не выявлено нарушений.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

У государство на это ни сил, ни средств, ни возможностей адекватных нет. И формировать оное - пока нет оснований. Разве что - в специфичных областях...

Это как средства связи - и средства криптосвязи. Жестко отслеживается только второе.

И второй момент: ИИ - штука вроде как - "саморазвивающаяся". А по сему - разовой приемкой ограничиться нельзя: мало ли во что она на шаге эксплуатации преобразится. Так что - надо эксплуатанта замазывать. По взрослому. Чтобы отвечал всегда, а не ссылался на "успешную приемку контролерами".

Аватар пользователя CatOwner
CatOwner(7 лет 7 месяцев)

Ну тогда пока просто запретить это дело, оставить только в военке и научных исследованиях. Собственно этот потенциально корявый закон к такому результату и приведет. Никто на себя серьезную ответственность брать не будет, имхо.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

И куда яндекс-такси-без-водителя девать? Списать и запретить? Ну, вроде как - не совсем правильно.

Как-то вменяемо надо регулировать. Придется (увы...)

Аватар пользователя Серёга
Серёга(8 лет 4 месяца)

У нас и так скоро запрещено будет больше, чем разрешено.

Чиновникам проще всего запретить. 

Аватар пользователя Naive plague
Naive plague(7 лет 7 месяцев)

Если человека замазывать по взрослому, то вменяемые эксплуатанты на это не подпишутся. 

И будет у нас тот же яндекс использовать тех же самых горных гомосапов, которые на момент эксплуатации еще не будут понимать, что они ездят с автопилотом ровно для того, чтобы сесть в случае ДТП вместо топов яндекса. Но после нескольких резонансных прецедентов даже самые дикие попуасы осознают смысл сделки и пойдут в отказ. 

Перспективы, прямо скажем, так себе. Ибо развития при подобном подходе ожидается в рамках капсистемы довольно мало, а коррупционная емкость госрегулировки рынка когнитивного ПО высокого риска огромна. 

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

А почему только разработчика? А эксплуатанта?

Точнее даже было бы: "а не эксплуатанта?" Для примера: разве Концерн Калашников будет виноват, что из разработанного и произведённого им охотничьего ружья убили человека?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

В реальности - разработчик тоже всегда несет ответственность. Должен.

В вашем примере - он (и именно он) должен гарантировать, что изделие (охотничье ружье) при надлежащем использовании - будет безопасным и для пользователя, и для окружающих.

А вот эксплуатант - уже должен обеспечить это самое надлежащее использование.

С оружием нормы прописать в чем-то проще, ибо там нет самомодернизации, да и вариантов использования не так, чтобы много. С ИИ будут сложности, ИМХО. Но - надо решать.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

В вашем примере - он (и именно он) должен гарантировать, что изделие (охотничье ружье) при надлежащем использовании - будет безопасным и для пользователя, и для окружающих.

Однако в случаае оружия вся ответственность возлагается именно на пользователя, а не производителя. Разумные ограничения на легальное гражданское оружие есть, но относятся исключительно к безопасности эксплуатации этого оружия. Все прочие ограничения, включая кримтребования - фактически про презумпцию склонности граждан к преступлениям.

нет самомодернизации, да и вариантов использования не так, чтобы много

Значение "самомодернизации" ИИ очень сильно преувеличена: в реальности нужен постоянный контроль соответствия состояния ИИ поставленным задачам. Контроль со стороны эксплуатанта, естественно. И ответственность эксплуатанта за результаты работы ИИ как раз и будет обеспечивать этот контроль с его стороны.

С вашего позволения, встречный вопрос: надо ли гражданину лицензировать локально развёрнутый экземпляр, скажем, DeepSeek, развёрнутый на его личных мощностях? А если он его использует для поиска противоречий в законодательстве богоспасаемого Отечества? А если "да, надо" - то как вы узнали, что он его развернул, именно на законодательстве РФ обучил и использует именно для этого? А самое главное - ну и что?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Однако в случаае оружия вся ответственность возлагается именно на пользователя, а не производителя. 

Мы как-будто не на одном языке общаемся. Что-то в моей фразе не понятно? Или кто-то может самостоятельно изготовить оружие - и не доказав его безопасность - продавать и применять? И если в момент выстрела оружие развалится и поранит пользователя - будет виноват он, а не производитель оружия и/или боеприпасов?

С вашего позволения, встречный вопрос: надо ли гражданину лицензировать локально развёрнутый экземпляр, скажем, DeepSeek, развёрнутый на его личных мощностях?

В какой момент мы с задачи маркировки перепрыгнули на лицензирование? Подмена понятий и темы детектед.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Что-то в моей фразе не понятно?

Ну да, не понятно как производитель оружия гарантирует его безопасность для окружающих "при надлежащем использовании". Естественно, в условиях изменяющегося "надлежащего использования", каковые мы наблюдаем как реальность, данную нам в ощущениях законодательстве.

Подмена понятий и темы детектед.

Никакой проблемы, просто не проговорил несколько шагов. Извините.

Производитель не может ничего сделать с использованием необученного ИИ для каких-то целей. Следовательно, обязанность маркировки должна быть возложена на эксплуатанта. Как обеспечить исполнение этой обязанности в случае эксплуатанта - частного лица? Естетственно, в тривиальном ограничении, что эксплуатируемый ИИ результаты в глобальную сеть непосредственно не публикует? По-видимому, лицензированием - других способов всё равно наши законопечатники не знают: запретительное решение - самое безопасное.

С этого момента можно начинать отвечать на поставленные ранее вопросы - хотя бы себе.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Как обеспечить исполнение этой обязанности в случае эксплуатанта - частного лица? 

Законодательно. Не?

Напомню. Была такая мода - звонки про минирование школ и т.п. Более-менее - сошла на нет. У них что - телефоны отобрали? 

Далее - действуем по аналогии: остаешься в правовом поле - нет вопросов и нет проблем; а коль замечен вне оного - ну, привет.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Была такая мода - звонки про минирование школ и т.п. Более-менее - сошла на нет. У них что - телефоны отобрали?

А я вернусь обратно к оружию. Правилами охоты запрещена стрельба по неясно видимой цели. Однако же не прекращается. С оружием только тем проще, что такие уроды чаще всего быстро находятся.

Далее - действуем по аналогии: остаешься в правовом поле - нет вопросов и нет проблем; а коль замечен вне оного - ну, привет.

"Замечен вне оного" в данном случае означает "выдал результат работы ИИ без маркировки". Опять тот же вопрос: как это установили? А самое главное - на основании чего это устанавливали? Будут ли такие проверки проводиться по каждому заявлению о подозрении в использовании реззультатов работы ИИ без маркировки? На какие деньги будут проводиться эти проверки? Как установить заведомую ложность сообщений о подозрении? Или будет как с бесхозными собаками: собака живёт во дворе частного дома, жрёт что дали хозяева дома, но свободно бегает по улице с биркой в ухе?

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

И что?

То, что будут нарушители закона - это, в принципе - аксиома. Всегда будут.

Как установили - тут вопрос не ко мне. По крайней мере - в текущих условиях. Думаю - методы можно найти и предложить. Подождём...

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

То, что будут нарушители закона - это, в принципе - аксиома. Всегда будут.

Если закон устроен так, чтобы было удобнее его нарушать - его будут нарушать, причём постоянно.

Думаю - методы можно найти и предложить.

Грусть-печаль-беда: в общем случае - нельзя. А частных случаев столько, что просто технически не получится: времени не хватит разработать частные методы.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Ну, вы вообще про право что слышали? Закон пишут ровно по одной причине: всегда есть кто-то, кому он неудобен. 

А методы - уже существуют. И это - вовсе не печаль. Но это - не предмет текущего обсуждения. По крайней мере - пока.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Закон пишут ровно по одной причине: всегда есть кто-то, кому он неудобен.

Да ладно? Неудобство закона для "кого-то" - причина законостворчества? А точно не решение проблемы? Имеющейся проблемы.

А методы - уже существуют.

Не раскроете хотя бы один рабочий метод опознания результатов применения ИИ? Естественно, речь об универсальном методе. Чтобы даже после обработки можно было сказать: это сделал не человек, а ИИ.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Ну, не будьте столь уже однопоточным в рассуждениях...

Если есть проблема, которую пытаются решить ограничениями - значит кому-то эти ограничения будут мешать. Л-логика...

Детальные методы не раскрою. Ибо - "не в коня корм". Да и не тема это материала. 

Универсальный метод - уже обозначил: цифровая подпись. Гуглите, как оно работает. Объяснять очевидное - нет ни времени, ни желания.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Детальные методы не раскрою. Ибо - "не в коня корм".

С русского на понятный такой ответ переводится как "я не знаю, но верю, что есть". Нет такого универсального метода кроме прямой инспекции программно-аппаратного комплекса. На каком основании будет проводиться такая инспекция?

Универсальный метод - уже обозначил: цифровая подпись. Гуглите, как оно работает. Объяснять очевидное - нет ни времени, ни желания.

Я знаю что такое цифровая подпись. Это вы упорно не хотите ответить на вопрос: как проверить этой цифровой подписью обработанный результат работы ИИ? Подсказка: цифровая подпись при обработке естественным образом прекращает быть цифровой подписью результата обработки.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Вы воруете мое время. Отвечаю в последний раз.

Подсказка: цифровая подпись при обработке естественным образом прекращает быть цифровой подписью результата обработки.

Последующая обработка материалов, изготовленных с применением ИИ - требует генерации цифровой подписи на полученный результат. Генерировать ее должен тот, кто обрабатывал эти материалы. 

Всё уже давно изобретено, печально, что вы этого ничего не знаете. 

Прошу - хватит воровать моё время и спамить всякие глупые вопросы: включайте либо голову - либо поиск в сети, на многие вопросы ответы легко доступны.

Аватар пользователя MikaP11o
MikaP11o(5 лет 3 месяца)

Вы воруете мое время.

Никак нет: опубликовать статью, равно как и отвечать на вопросы по теме - ваше добровольное решение. Впрочем, если вас держат в подвале - подмигните три раза!

Равно же вашим добровольным решением может быть не отвечать на неудобные вопросы и оставить их "как есть".

Последующая обработка материалов, изготовленных с применением ИИ - требует генерации цифровой подписи на полученный результат. Генерировать ее должен тот, кто обрабатывал эти материалы.

То есть человек, сделавший обработку результатов работы ИИ, должен маркировать результаты своей уже деятельности как результаты работы ИИ? С чего бы?

включайте либо голову

А вот и попытки оскорбления подоспели. Печально сие. А вот даже наименования универсального метода определения авторства ИИ так и не было приведено, только претензии на знание такого метода.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 11 месяцев)

Универсальный метод - уже обозначил: цифровая подпись. Гуглите, как оно работает. Объяснять очевидное - нет ни времени, ни желания.

Вы всё же - читайте ответы. Порой помогает. Тому, кто хочет понять.

Страницы