Киберугроза 2.0: как технологии подмены личностей могут привести к Третьей мировой

Аватар пользователя kredo

Технологии Deepfake позволяют похитить внешность любого человека, а затем сделать его героем или, наоборот, подставить и разрушить репутацию.

 

Американские и европейские ученые совместно разработали и опубликовали в открытом доступе так называемый код Deepfake. Это программа, в которую можно загрузить видеозапись речи человека. Искусственный интеллект изучит его внешность, голос и мимику и смоделирует суперреалистичное видео, на котором тот же человек говорит, но совсем другие вещи.  

С одной стороны - теперь любой пользователь Сети может сделать, например, видеооткрытку, где любимая телезвезда поздравляет кого-то с днем рождения, а с другой - можно взять и сфабриковать, например, заявление президента ядерной державы о начале Третьей мировой войны.

«Я бы хотел и дальше уверять вас в том, что наша миссия - соединять людей. Но это не так. Мы просто хотим научиться предсказывать ваше поведение. Спектр научил меня, как манипулировать вами и собирать личную информацию о вас и ваших близких абсолютно бесплатно», - заявляет фальшивый Марк Цукерберг на просторах YouTube.

Если бы это был настоящий Цукерберг, то такое циничное откровение вызвало бы сначала шок и гнев в обществе, а затем, скорее всего, привело бы к падению акций компаний - империя бы пошатнулась. Facebook пришлось бы долго восстанавливать репутацию. Однако на самом деле это была не атака видеоклона, а всего лишь предупреждение от британского художника Bill Posters. Урок о возможностях цифровой пропаганды.

«Когда вокруг столько хейтеров, меня это вообще не волнует. Потому что трафик, который я получаю от них, обогатил меня. Превзойдя все мои ожидания», - признается ненастоящая Ким Кардашьян.

И это урок номер два - отличить видеофейк от настоящей модели сложно. Фраза «лучше один раз увидеть, чем сто раз услышать» больше не актуальна. Глазам теперь верить нельзя.

Новая реальность такова, что сделать косметическую видеопересадку внешности можно даже с помощью телефона, а представьте, что может сделать серьезная программа с помощью искусственного интеллекта.

Технологии Deepfake позволяют похитить внешность любого человека, а затем сделать его героем или, наоборот, подставить и разрушить репутацию. Нэнси Пелоси, спикер Палаты Представителей, стала одной из первых жертв новой цифровой реальности. «Доброжелатели» выставили ее политиком, склонной злоупотреблять спиртными напитками.

Deepfake не только замедлила скорость голоса Пелоси, но и синхронизировала движение мышц лица. Именно поэтому все выглядело органично - отличить подделку вряд ли смогла бы даже сама спикер. До выхода опровержения фальшивое видео уже успели посмотреть миллионы пользователей социальных сетей.

«Контент и новости тут же попадают в социальные сети. Это может сделать каждый. Все, что нужно - просто взять видео любого политика и затем вложить в его уста все, что угодно. Затем распространить, заявив, это видео было снято тайно», - объяснил доцент кафедры информатики в Университете Южной Калифорнии Хао Ли.

Скандал в Малайзии - как подтверждение. Журналисты получили странное видео от неизвестного человека - якобы в одной постели оказались министр Мохамед Али со своим помощником. Оба мужчины заявили, что это фейковое видео. Однако как доказать свою правоту в эпоху таких цифровых возможностей. Быстрее закончится политическая карьера, чем расследование.

«До сих пор подобные вещи использовали, в основном, для развлечений, шантажа, личной мести. Особенно женщинам, которые расстроили каких-то мужчин. Однако есть опасения, в том числе и у сообщества по вопросам национальной безопасности, что подобные видео также могут использовать для фальсификации определенных приказов или чтобы заставить людей сомневаться в командах, которые они получают. И в самом худшем варианте это может привести к началу конфликта», - считает политолог Ричард Вайц.

Сценарий может быть разный. Скажем, некий президент ядерной державы неожиданно выпускает обращение в Twitter - короткое видео. Условный текст: «Я принял решение нанести превентивный удар». Что будет дальше - паника, провокация, реальный ответный удар - не известно. Например, между Россией и США есть каналы связи, и подобный сценарий маловероятен, но все же опасность серьезного глобального конфликта теоретически существует.

«У нас есть опасения по поводу стран, у которых нет такой защитной коммуникационной системы. Я говорю о таких странах, как Индия, Пакистан, Северная Корея и так далее. Плюс другое опасение - можно сфабриковать, как сбивают дрон», - добавил Вайц.

«Угроза будет все больше и больше. Мы живем в глобальной деревне, в которой все друг с другом общаются. Однако для этой коммуникации необходимо обеспечить безопасность. И это должна быть глобальная безопасность, а не только национальная», - заявил президент Совета по кибербезопасности Ханс-Вильгельм Дюнн.

Выборы  - удобное время для появления подобных фальшивых видео. Это политическое оружие сильнее компромата. Ведь кандидатам придется доказывать, что вот этот человек на экране - лишь украденная личность. У него моя внешность, мой голос. Однако все ли избиратели поверят такому объяснению?

«Это может быть опасно. Если это будет использовано во время выборов. Ведь быстро невозможно проверить - это настоящий компромат или подделка», - сказал бывший агент ЦРУ Феликс Родригес.

Проверить фейк сложно, но все-таки пока еще можно - с помощью специальной технологии. Сотрудники калифорнийского университета разработали программу, которая может отличить оригинал от «самозванца». Например, где фальшивый Обама, а где - настоящий. Для этого система анализирует десятки видео с выступлениями бывшего президента Америки, изучает движение мышц лица - всю персональную геометрию.

«Вот эти синие точки - 68 позиций на лице. Зеленые лазерные линии отмечают, куда смотрит человек, когда он говорит. А эти синие коробки фиксируют движения головы. Таким образом, мы делаем трекинг. И так мы обрабатываем каждое видео. А затем мы анализируем, как разные части лица движутся вместе. Что, скажем, происходит, когда Обама открывает рот. В смысле, что происходит с его головой в этот момент», - объяснил научный сотрудник факультета компьютерных наук Калифорнийского университета в Беркли Шрути Агарвал.

Есть и полезные моменты в появлении новой технологии. Например, роли в кино могут вечно играть одни и те же любимые актеры, даже после своей смерти. Или же можно смотреть старые фильмы, «меняя» звезд. Скажем, если надоел Терминатор в исполнении Шварценеггера, то запускаем в картину Сталлоне.

Эксперты говорят, что через год или два распознать фальшивое видео не смогут даже профессионалы. Еще одна угроза - сам искусственный интеллект. Пока фейки делают люди, а что будет, когда их начнет создавать алгоритм по собственному желанию?

«Потенциально - негативные последствия в кибермире очень велики. И мы, люди, должны контролировать технологии. Однако что касается цифрового мира, то он отличается от всего остального. Цифровой мир может жить сам по себе. Это означает - искусственный интеллект, машинное обучение. В прошлом человек всегда держал руку на кнопке управления. А сейчас теоретически возможно, что именно машины будут держать ее под контролем. Что плохо для меня и для вас», - поделился расследователь, ведущий эксперт по киберпреступности Миша Гленни.

Киберугроза 2.0 неотвратима - новые технологии доступны всем. Это не ядерный клуб великих держав. Поэтому мировой кризис или даже конфликт может вызвать хакер-самоучка, проживающий, скажем, на острове Маврикий.

Евгений Ксензенко

Авторство: 
Копия чужих материалов
Комментарий автора: 

Здравствуй, дивный новый мир !)

Картинка с видео с "поддельным" Марком. Само видео есть в инсте.

Комментарии

Аватар пользователя дровосек
дровосек(11 лет 1 месяц)

Зачем этот deepfake если Рейган и так объявил о начале войны. laugh

Аватар пользователя просто чел
просто чел(4 года 10 месяцев)

Всё уже было. В 1960-х ЦРУ тиражировало порноролики с якобы президентом Индонезии...

Комментарий администрации:  
*** Отключен (агрессивная политота) ***
Аватар пользователя mrmypp
mrmypp(11 лет 2 месяца)

Прям "Generation П" Пелевина повеяло )

Аватар пользователя zebraptor
zebraptor(10 лет 7 месяцев)

Да этим уже давно развлекаются, ещё в 2016 по этой теме на Трубе выкладывали:

Аватар пользователя kredo
kredo(5 лет 7 месяцев)

Технологии совершенствуются. Народ реагирует, подтверждением - примеры в статье. А что будет дальше?

Есть, конечно, и такое https://hightech.fm/2019/06/22/deepfake   ,но все развивается))

Аватар пользователя Прокси Гражданин

Если бы это был настоящий Цукерберг, то такое циничное откровение вызвало бы сначала шок и гнев в обществе, а затем, скорее всего, привело бы к падению акций компаний - империя бы пошатнулась.

Гы, кое кто торгуется с кое кем в сша и козырь это падение акций инет пузырей типа пейсбука, который конечно же не торгует персональными данными и не манипулирует пропагандой фейк новостями

Комментарий администрации:  
*** Отключен (как прокси-мразь) ***
Аватар пользователя mmx
mmx(8 лет 6 месяцев)

Болтовня это все. Проблема то решается элементарно: в интернет надо пускать по паспорту. Когда у абсолютно любого сообщения будет имя, фамилия и адрес - никакие фейки станут невозможны, с новыми технологиями или со старыми.

Аватар пользователя Прокси Гражданин

Предложение по глупости сравнимо с "покупателям книг, газет и журналов нужно предъявить паспорт для сканирования и занесения в базу читающих". Когда речь идет о совсем наоборот фальсификации от книго-журнало издателей условно. И закон о фальсификации новостей по моему приняли недавно, вполне можно пользовать и против иностранных соцсетей с неполживыми блогерами.

Комментарий администрации:  
*** Отключен (как прокси-мразь) ***
Аватар пользователя mmx
mmx(8 лет 6 месяцев)

Чушь собачья. Покупателям газет и журналов, чтобы публично высказаться, всегда приходилось писать письмо в редакцию, с обратным адресом и ФИО. А вот анонимный интернет дал возможность любому идиоту вещать для миллионных аудиторий и пора это прекратить. Что кстати и происходит: суверенные правительства всего мира постепенно закручивают гайки. Не даром же пиндосы носятся со своим идиотским "спутниковым интернетом" единственная ценность которого в неподконтрольности законам государств над которыми его собираются развесить.

Аватар пользователя Прокси Гражданин

Проблема платных комментаторов решается просто адекватной администрацией и возможностью жалоб на неадекватов. В газеты и журналы еще могли писать анонимы. Паспортизация пользователей на любом говно сайте незаконна "о защите персональных данных" Чтобы собирать личные данные днужна как минимум регистрация юр лица чего у того же анонимного АШ нет и в помине нопример.

Комментарий администрации:  
*** Отключен (как прокси-мразь) ***
Аватар пользователя mmx
mmx(8 лет 6 месяцев)

Поэтому паспортизацией входа в интернет должно заниматься централизованно само государство. А всяким сайтам и сайтикам предоставлять уже готовую галочку: легальный это пользователь к ним лезет или аноним какой.

Аватар пользователя Pepenez
Pepenez(8 лет 7 месяцев)

На Авантюре есть вход через соцсети.  Что мешает прикрутить это на АШ? 

Аватар пользователя kredo
kredo(5 лет 7 месяцев)

как это относится к посту?

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

Представлены результаты разработок Имперского колледжа в Лондоне и исследовательского центра Samsung по искусственному интеллекту в Великобритании.

Их можно назвать технологией артикуляционной аудиовизуализации. Если проще: разработан алгоритм, создающий из портрета видеозапись, на которой человек с фото говорит или поет то, что записано в присоединенной аудиодорожке.

Аватар пользователя марионетка мордера

для выборов , будет реальный трэш...))))) а онлайн линию с терраном  , тоже можно подделать ???

Аватар пользователя kredo
kredo(5 лет 7 месяцев)

Слабовероятно) Стеб и так отменный, разве что, какой фейковый Ын позвонит

Аватар пользователя Arkebuz
Arkebuz(5 лет 5 месяцев)

Неужели перед выборами мир увидит Трампа, который на лужайке перед белым домом 

гадит на американский флаг?)))

Аватар пользователя Partisan
Partisan(12 лет 1 неделя)

Нет, Трамп будет на награждении в кремлеwink

Аватар пользователя Оригинальный куплетист

Настаёт время руководителей, которых никто не знает. Сбацать фейк не получится. А публичных персон будут собирать на мощностях Umbrella.

Со временем информационный фон потеряет всякий смысл, поскольку будет состоять из шизофренического бреда (немного осталось  )

Аватар пользователя verba
verba(9 лет 2 месяца)

Кроме почты на мэйл ру ни в каких соцсетях не регался. Но почему-то фейсбук и гугл привязали меня к чужому аккаунту на фейсбуке, имя как у меня, фамилия другая, и он моложе на 10 лет. wtf?  Короче имею на паре устройств доступ к чужому акку. И он не из моего города, вообще никак мне не знаком.

Комментарий администрации:  
*** Я - шовинист, фашист (с) ***
Аватар пользователя Обыватель
Обыватель(10 лет 4 недели)

Еще одна угроза - сам искусственный интеллект. Пока фейки делают люди, а что будет, когда их начнет создавать алгоритм по собственному желанию?

ИИ будет управлять планетой. Рано или поздно, но скорее рано, так и будет. И никакие гегемоны с ЯО ничего не смогут с этим сделать.

Все описано, хоть и в экстремально мягкой форме, в старой документалке "Матрица". Жалкие кожанные мешки с костями будут ишать на глобальный ИИ, и при этом думать, что именно они хозяева планеты и ближнего космоса.

Аватар пользователя Gray
Gray(9 лет 9 месяцев)

«Вот эти синие точки - 68 позиций на лице. Зеленые лазерные линии отмечают, куда смотрит человек, когда он говорит. А эти синие коробки фиксируют движения головы. Таким образом, мы делаем трекинг. И так мы обрабатываем каждое видео. А затем мы анализируем, как разные части лица движутся вместе.

Лол. И скормив вот эту подборку данных нейросети - можно будет сделать не-проверяемый фэйк.

Аватар пользователя Midshipman
Midshipman(5 лет 1 месяц)

ИИ физически не может сам там что-либо начать делать,  он действует строго по алгоритму,написанному программером, а так прога интересная, побаловаться надо дабы функционал понять 

Аватар пользователя verba
verba(9 лет 2 месяца)

До первого глюка - цикла? Например - "убить всех человеков!"

Сперва распознает цель, потом ии на основе нейросети учится у Гитлера, потом действует в стиле крепкого орешка-4

Комментарий администрации:  
*** Я - шовинист, фашист (с) ***
Аватар пользователя Midshipman
Midshipman(5 лет 1 месяц)

Вы с алгоритмикой видать совсем не знакомы... При глюке/непредвиденном случае ии уйдет в цикл - то есть будет бесконечно выполнять одно/несколько действий или же если у программера руки не из опы - то либо выключиться либо уйдет на перезагрузку либо восстановит заводские настройки. Мочить он будет только в том случае если ему это пропишут в программе, причем только человек может это прописать, сам ии до этого допетрить не сможет, так как для него это не существует в природе. Ах да, великая нейросеть - нейросеть это не ии,  от слова совсем, технологию нейросети хотели использовать для того чтобы, утрирую, забив гвоздь в процессор вашего компа он, комп, продолжал работать потеряв 10-20% своей производительности-это объяснение на пальцах так сказать 

Аватар пользователя С-700
С-700(4 года 11 месяцев)

Цифровой мир может жить сам по себе. Это означает - искусственный интеллект, машинное обучение. В прошлом человек всегда держал руку на кнопке управления. А сейчас теоретически возможно, что именно машины будут держать ее под контролем

Не сможет. Настоящий ИИ, в полном смысле этого слова - разум - еще и не изобретен и не сможет быть изобретен. То, что у вас в камере смартфона - это не тот самый настоящий ИИ/разум)) (вдруг кто не знал :D). Настоящими технологиями ИИ/разума будет обладать только сын Путина, но понятно что он хрен поделится этим со всеми остальными. Не потому что такой жадный, а потому что это опасно

Комментарий администрации:  
*** Отключен (уличен в розжиге) ***