Правительство Испании во вторник (11 марта) одобрило законопроект, налагающий огромные штрафы на компании, которые используют контент, созданный искусственным интеллектом (ИИ), без надлежащей маркировки этого контента, в попытке ограничить использование так называемых «дипфейков».
Министр цифровой трансформации Оскар Лопес сообщил журналистам, что законопроект принимает положения Закона Европейского союза об искусственном интеллекте, который устанавливает строгие обязательства по обеспечению прозрачности для систем искусственного интеллекта, считающихся высокорисковыми.
«ИИ — очень мощный инструмент, который можно использовать для улучшения нашей жизни... или для распространения дезинформации и нападок на демократию», — сказал он.
Испания является одной из первых стран ЕС, внедривших правила блока, которые считаются более всеобъемлющими, чем система США, которая в значительной степени опирается на добровольное соблюдение и разрозненные государственные нормы.
Лопес добавил, что каждый подвержен атакам «дипфейков» — термин, обозначающий видео, фотографии или аудио, которые были отредактированы или сгенерированы с помощью алгоритмов искусственного интеллекта, но выдаются за настоящие.
Испанский законопроект, который должен быть одобрен нижней палатой парламента, классифицирует несоблюдение надлежащей маркировки контента, созданного с помощью ИИ, как «серьезное правонарушение», которое может повлечь за собой штрафы в размере до 35 миллионов евро (38,2 миллиона долларов США) или 7% от мирового годового оборота.
Обеспечение того, чтобы системы ИИ не наносили вреда обществу, стало приоритетом для регулирующих органов с тех пор, как в конце 2022 года компания OpenAI представила ChatGPT, который поразил пользователей, вовлекая их в общение, похожее на человеческое, и выполняя другие задачи.
Законопроект также запрещает другие практики, такие как использование подсознательных методов — звуков и изображений, которые не воспринимаются — для манипулирования уязвимыми группами. Лопес привел в пример чат-ботов, подстрекающих людей с зависимостью к азартным играм, или игрушки, побуждающие детей выполнять опасные задания.
Это также не позволит организациям классифицировать людей по их биометрическим данным с использованием ИИ, ранжировать их на основе поведения или личных качеств, чтобы предоставлять им доступ к льготам или оценивать риск совершения ими преступления.
Однако властям по-прежнему будет разрешено использовать биометрическое наблюдение в режиме реального времени в общественных местах по соображениям национальной безопасности.
Обеспечение соблюдения новых правил будет входить в компетенцию недавно созданного агентства по надзору за ИИ AESIA, за исключением особых случаев, связанных с конфиденциальностью данных, преступностью, выборами, кредитными рейтингами, страхованием или системами рынка капитала, которые будут контролироваться соответствующими надзорными органами.
Комментарии
На канале Крамника на днях выложили фильм про шахматы, склеенный из отредактированных кусков "Матрицы", где персонажи легко и непринуждённо говорят тем же голосом другие слова, а Михаил Таль говорит свою известную речь не на русском, а на английском языке, но при этом тем же голосом, с той же дикцией и т.п. Фильм сделал один анонимус, Крамник только разместил. То есть сейчас дипфейк не стоит ничего. Все аудиозаписи не стоят ничего. Видео, скорее всего, тоже.
Реально проблема более чем актуальна.
Вы приводите примеры "беззлобного использования". Но уже есть примеры и "звонков дочери, попавшей в аварию", и "видеосообщения от директора с указаниями перевести деньги" и т.п.
Как раз вопрос остается к нашим - чего тянут то? Коль год назад уже заявились.
То есть Вы думаете, что если наши тоже будут вводить обязательства маркировать ИИ-контент, мошенники в начале своего фейкового звонка будут послушно делать предупреждение "внимание, этот контент сгенерирован ИИ"?)))
Совершенно очевидно, это не решение. Единственное решение это поголовная чипизация, чтобы точно знать что, куда и чего 😉
не, думаю чутка иначе будет.
Оператор при прохождении контента через него - будет идентифицировать ИИ-контент и далее - служебным сообщением отправлять эту информацию получателю. Как сегодня - звонок на телефон, а на экране - уже сообщение от оператора: "предположительно мошенники ли телемаркетинг".
Работает.
Вход в интернет "по паспорту" разом решает все проблемы интернета. А "чипизацией" обывателя запугивают как раз чтобы эти проблемы не решались.
Ну, тут оно такое...
Интернет - он вроде как глобальный. То есть выйти в него можно и с территории 404, и из пиндостана, и с острова невезения, и из РФ. Кто в РФ паспорт проверит - понятно, уже оно и так неплохо проверяется (хотя есть что улучшать, безусловно). А на прочих территориях? А если за деньги?
В общем - пока не совсем реально это...
Угу, от слова "глобалисты", которые им рулят сегодня. Задача суверенных государств объединить свои интернеты и проверять паспорта в них по некой общепринятой системе.
Не, не от этого слова. Но - неважно.
Я вот вашу идею осознать пока не могу.
Пусть интернет - это некий корабль. Чтобы войти на который есть куча трапов. И каждая страна проверяет документы у входящих сама. Мы проверили, кого положено - пропустили, остальных - прогнали. А на соседнем трапе проверяют представители 404 страны. За 5 баксов - проходи кто хочешь.
Как оно нашим, находящимся на этом самом кораблике - поможет? То, что мы тщательно проверили и пустили только правильных. Не понимаю...
Идея в том, что "глобальность" интернета вовсе не приоритетная цель. Безопасность важнее. Поэтому те его части, в которых правила безопасности не соблюдаются, можно и
разбомбитьотключить.А вы вообще как работает сеть понимаете? Глобальность - это ее основа. И если отказаться - то оно на локальной территории будет работать намного хуже. И не только из-за дефицита информации. Но, в первую очередь - из-за малой связности. Увы...
Раз люди пишут слева направо, то ИИ пусть пишет справа на лева (у арабов наоборот), а в рисунках всегда рисует всех шестипалыми (четырехпалыми не пойдет, т.к. это может быть столяр или фрезеровщик).
В конце прошлого года был ряд публикаций о технологиях защиты/маркировки. Но по дальнейшему развитию - пока тишина.
С учетом того, что те или иные алгоритмы обработки изображений всё больше встраиваются внутрь фото/видеокамер, даже не говоря про фотошоп - помечать придётся ЛЮБОЕ фото/видео.
Ну, не совсем так. То, что встроено в фото-видеокамеры - оно уже оставляет EXIF с инфой, в принципе - аудируемой. А вот вторичная обработка (тот же фотошоп и т.п.) - да, придется. Это, в действительности - логично. Ибо если фейк сделал не ИИ, а белковый - потребителю фейка легче вроде как не становится. Так что - надо помечать и то, и другое...
А ещё фото и EXIF подписывать цифровой подписью... Но не взлетит.
Пачиму?
Там, где это нужно - там давно это сделано. Подписывать каждый кадр с видеопотока, например с видеокамер объектов критической инфраструктуры или перед отправкой на большой наружный экран - вполне себе типовое решение, давно сертифицированное, цена вопроса - порядка 100 у.е. за юнит.
А в каждой бытовой камере... Одной подписи ведь недостаточно. Нужна еще цепочка удостоверяющих центров и серверов целостности.
Так что пока я могу легко редактировать EXIF в нужную сторону.
Ну, тут оно такое... Если тотально внедрять - цена за юнит сильно упадет. Касательно УЦ - поднимут, сами производители железок. Целостность - на регуляторах, тоже реализуемо.
Касательно "править EXIF" - тоже можно усложнить процесс. Коль захотеть.
На мой взгляд - решаемо. Как скоро - ну тут хз. А разве кто-то безумно спешит?
Мороки много, а проку мало, если внедрят везде, то появятся объективы с дополнениями к реальности и всё насмарку.
Это лучшее что можно сделать и это надо было сделать ещё вчера. Пока интернеты не превратились в помойку.
Суть проблемы: если в сферу знаний ИИ попадает недостоверное утверждение. С учётом того, что нынче весь ручной копирайтинг никому не упал и тексты на сайтах генерятся ИИ же. Получаем что недостоверный результат многократно дублируется. И это затрудняет валидацию. Автоматическая становится невозможной, поскольку основанная на частотности она определит наиболее часто встречающийся ответ (а он некорректен, поскольку там мешок свежесгенеренных уже с ошибкой текстов)
Остаётся ручная - а как? Теперь обычный человек тоже так просто с этим не справится как раньше, потому что выдача по запросу в интернете уже содержит ошибочное утверждение. Нужен профильный специалист. А кто его оплатит, когда это случится? Ошибочное утверждение так и останется.
Маркировка текстов как сгенеренных позволит опускать подобные поделия в выдаче. возмодно, уже поздно - потому что останется только надеяться на добросовестность копирайтера, который проверит ложное утверждение. (Но он скорее всего не проверит, а выдача по запросу уже содержит три страницы текстов с ошибкой).
Опять же, как сделать так чтоб тексты сгенеренные ИИ помечались всегда, как доказать что конкретный текст - дело рук или чего там ИИ?
В общем по моему опа уже началась и неизбежна.
Ну, то, что оно уже началось - да.
Неизбежно? Ну, тоже да, ибо уже.
А вот стоит ли паниковать-бояться? Тут дело такое... Неоднозначное...
В любом случае - надо работать. И в правовой области, и в технологической. Важно - именно "работать", а не "обещать что-то сделать".
Так вижу.
Как бы объяснить. Вот помните раньше была БСЭ. Большая советская энциклопедия. Она содержала точные сведения, вы могли к ней обратиться. Статьи в ней писали специалисты, на эту информацию можно было положиться.
С появлением интернета получилось что ваша БСЭ содержит неточные сведения, процент неточности ну 10. Эту неточность ещё как то можно было вычленить, при желании тут же в интернетах. Найти в поиске достоверные ресурсы и свериться.
А в последние года процент этой неточности сильно возрос и теперь составляет 30. При этом вы не можете даже самостоятельно удостовериться в правильности утверждения. Плохо это или хорошо?
Вы сильно потеряли в точности сведений которые теоретически могли получить. При этом приобрели примерно ничего. На реализацию этой деградации потрачены тыщи человеко-часов и офигиллионы киловатт энергии. И продолжают расходоваться теперь уже на поддержку, с весьма смутными перспективами. И как раньше уже не будет.
Вы вот, насчет 30% - это крайне оптимистично. На мой взгляд.
Реально - верить нельзя ничему опубликованному без дополнительной проверки. Если проверка невозможна - значит надо помнить, что инфа может быть недостоверной, и предусматривать шаги на случай, если ее неправильность подтвердится. Увы.
В части ИИ - просто был период, когда фальсифицировать видеофиксацию было сложно - и вероятность недостоверности видеоматериалов была низкой. Народ привык. А сейчас цена фальсификации видео резко упала - и все нечистоплотные активно побежали пользоваться моментом.
Больше особо ничего и не поменялось. Но тенденция к дальнейшему снижению стоимости фальсификации наводит на мысль, что скоро все вообще станут этим пользоваться - и будет вообще полный швах. Так что пора уже как-то это в контролируемое русло загонять.
Сеть изначально формировалась как способ взаимодействия, обмена. Потом постепенно стала основным источником информации. И вот теперь проходит обратный путь, становясь способом обмена, обремененным бесконечными помойками недостоверных данных. Диалектика, однако...
Поздно. Уже превратились. Старые фото не отличишь от подделок. С фото убирали приобретения десятилетий, пропуская через редакторы. И только потом выкладывали.
Почалось !
Вот будут факты применения - скорее тогда...
Со штрафами - не заржавеет.
Харчеваться надо же , или нет ?
тут как в тексте ДДТ про помойку в интернете:
-свободу слова заменили свободой лжи...