Биометрия все чаще используется для идентификации россиян в различных сферах жизни: для получения банковских услуг, онлайн-сдачи сессии в вузах, удаленного заключения договоров связи и оплаты проезда на транспорте. Почему биометрические данные считаются "сверхчувствительными", почему нельзя доверять принятие окончательных решений искусственному интеллекту и почему важно сохранять бумажные копии документов, в интервью РИА Новости рассказала президент группы InfoWatch Наталья Касперская. Беседовали Евгения Власова и Дария Ермошина.
– Сейчас в России обсуждаются возможности все большего применения биометрии для идентификации людей, например, для получения госуслуг. В чем заключаются риски использования биометрических данных?
– Биометрические данные, в отличие от любых других, использующихся для идентификации, являются неотъемлемой частью человека, они у вас одни на всю жизнь. В отличие от используемых сейчас пароля, номера телефона и даже фамилии, вы не можете при утечке или компрометации данных сменить свое лицо, сетчатку, фигуру, отпечатки пальцев, форму ушей. То есть это сверхчувствительные, но при этом неизменные данные, которые достаточно украсть один раз навсегда.
Теперь задумаемся: чтобы человека идентифицировать, нужно эти данные где-то хранить. Где? Очевидно, в базе данных, как и все остальное.
А теперь давайте вспомним, сколько утечек из баз пользовательских данных было за прошлый год. Только в российском банковском сегменте таких случаев было более 200, а утекших записей – персональных и платежных данных – 486 миллионов штук. Количество утечек данных во всех сферах постоянно и неуклонно растет. И это – не технологическая проблема: большинство утечек происходит из-за человеческого фактора.
Апологеты биометрии уверяют, что базы данных будут как-то особенно защищены, будут внедрены криптографические системы. На самом деле нет никаких особых способов защищать биометрические данные – это обычные данные, которые хранятся в обычных базах данных. И работают с ними те же люди. Обычные сисадмины и айтишники, которые получают не очень высокие зарплаты, сами назначают права доступа – то есть могут настроить себе доступ любого уровня.
Здесь действует старый бухгалтерский принцип: если есть возможность злоупотреблений – нужно считать, что они уже имеют место.
И действительно, нелегальные услуги "пробива" людей по личным данным существуют давно, черный рынок данных – большой и бурно развивается. Злоумышленники очень энергичны и изобретательны, поэтому как только появляется новый вид цифрового контента, они тут же придумывают, как из этого контента извлечь прибыль. Будут базы биометрических данных – и из них будут утечки, кражи, продажа данных, нет никаких сомнений.
– Да и новые технологии бурно развиваются.
– Вот именно. Сейчас набирает обороты технология так называемой глубокой подделки – deep fake. В интернете вы можете найти массу роликов с заменой лиц звезд, политиков, известных людей. Но и обычный человек каждый день проходит под сотнями камер, его лицо, походка, голос попадают в десятки баз данных разного уровня и разных видов собственности, а из баз они утекают налево и направо. Тесты в этой сфере показывают удручающие результаты: например, в исследовании южнокорейских ученых системы биометрической аутентификации Microsoft Azure и Amazon в 68% и 78% случаев соответственно распознавали фальшивые лица, с очень высокой степенью уверенности.
Аудиофейки вообще сейчас просто идеальные, а авторизацию по голосу сейчас уже используют в реальных банковских приложениях. В настоящий момент не существует надежных технологий распознавания таких фейков.
Поэтому при внедрении биометрии главная опасность заключается в том, что пока неясно, как защитить и верифицировать эти данные. Граждане сдают отпечатки пальцев и фото лиц, их лица снимают без их ведома и согласия на улицах, на транспорте, в офисах и торговых центрах, а потом такую информацию может кто-то "слить", украсть, перехватить и использовать, например, в крупных сделках с недвижимостью, при управлении счетом в банке, при проходе на закрытые объекты и тому подобном.
Моя личная рекомендация: ни в коем случае не сдавать биометрические данные, не вестись на "удобство". Их практически с гарантией украдут, продадут, "сольют". Давайте нам сначала объяснят: как эти данные планируется защищать, в том числе от своих сотрудников. При этом мне лично непонятно, а зачем вообще нужно использование биометрии?
– Это должно упростить идентификацию пользователей.
– А зачем нужно ее упрощать? Потому что "удобно" и "круто"? Зачем разменивать безопасность на потворство лени? Неужели это так сложно – пароль набрать?
Кроме того, надо понимать, что система биометрической идентификации – это система искусственного интеллекта, у которой не бывает 100% качества. Ей всегда свойственны ошибки первого и второго рода: то есть она может распознать "неправильный" объект как правильный или не пропустить правильный объект. То есть всегда остается вероятность, что система вас не распознает или распознает вас как кого-то другого, на кого вы похожи.
Качество распознавания лиц сейчас достигает максимум 99% – обычно разработчики хвалятся показателями в районе 97-98%, при этом не объясняя, какого рода ошибки таятся в оставшихся 1-3%. А обывателю кажется, что 99% точности – это очень круто. Но что такое 99%, например, в Москве? В городе проживают или бывают днем примерно 16-18 миллионов человек, значит, с 180 тысячами лиц москвичей может произойти ошибка первого или второго рода – то есть они будут не распознаны или спутаны с кем-то еще. Если применять биометрию широко, то транзакций распознавания будут миллионы в день – на транспорте, в банках, на проходных и так далее, – то есть и ошибок будут сотни тысяч или миллионы. А нужны ли нам такие риски? Поэтому прежде, чем широко внедрять биометрию, мне кажется, нужно десять раз подумать.
– А в будущем возможна разработка систем защиты против deepfake?
– В будущем возможно все, но пока таких систем нет, хотя сейчас разработки в этой сфере ведутся очень активно. А тем временем "глубокий фейк" уже стал "кухонной технологией", когда сделать убедительный видеофейк, способный ввести в заблуждение массы зрителей, пробить систему авторизации банка или интернет-сервиса, может сделать на коленке любой студент с начальными навыками программирования.
– Вопрос про электронные услуги. Если мы окончательно перейдем на электронные версии документов, каким образом можно будет отличить подделку от оригинала?
– С электронными услугами тоже все довольно сложно. Мое глубокое убеждение: обязательно надо сохранять параллельную бумажную систему. Сколько бы лет ни прошло, нужно хранить бумагу, как раз на случай сбоев в электронной системе.
– Есть же резервные системы хранения данных?
– Резервные копии, конечно, делаются. Но, как вы правильно заметили, электронная подделка документов все равно возможна, например, в результате целенаправленного взлома. И более того, такая подделка проще и с ней легче замести следы: если документы подделывает айтишник с высокими правами доступа, то он и журналы своего доступа тоже подделает. Кроме того, все форматы и носители данных живут не более 15-20 лет, например, сейчас огромная проблема прочесть дискеты 1990-х годов. Ну и проблема отключения электричества в случае ЧП, катастроф, войн – никуда не девается.
Поэтому, на мой взгляд, нельзя делать электронную копию оригиналом. Бумажные носители нужно по-прежнему считать оригиналами и сохранять как базовый инструмент.
Конечно, для электронных документов должны быть многоуровневые системы защиты, перекрестные системы хранения, автоматическое резервирование; должны использоваться методы связанных списков, когда в документ включается его криптографический отпечаток – контрольная сумма, чтобы если в документе были произведены изменения, это было видно. Это все энтузиасты электронного документооборота нам обещают, конечно; но факторы риска – человеческий фактор, коррупция, постоянные утечки, ненадежность носителей и недолговечность форматов – остаются.
– Если говорить об искусственном интеллекте, на ваш взгляд, какие есть риски использования этой технологии с точки зрения этики, техники, права?
– Об этом можно рассуждать часами, я постараюсь коротко. Там много разных проблем. Первая – доверять ли решениям искусственного интеллекта и передавать ли ИИ право автономного принятия решений. Предположим, медицинская система ИИ вас продиагностировала, поставила диагноз, однако он оказался ошибочным. Кто виноват? Когда диагноз ставит "живой" врач, то вероятность ошибки тоже есть, но тогда есть ответственный субъект. А здесь что? Никто не виноват в вашей инвалидности, мы уже поставили новую версию?
Или, например, возьмем беспилотный транспорт. Одна ситуация, когда человека задавил живой водитель – это очень печальное событие, но здесь есть тот, кто понесет за это ответственность. И другое дело – беспилотник-убийца, а таких случаев, когда беспилотные автомобили сбивали людей, за последние три-четыре года уже больше 40. Кто несет при этом ответственность? Разработчик системы? Нет, он просто разработал систему. Эксплуатант системы? Тоже вряд ли, он лишь использует результат труда разработчика. То есть ответственного – нет, пока законодателям непонятно, что с этим делать. А деньгами – страховкой, как предлагают на Западе, вопросы жизни и смерти не решаются.
Вторая проблема: нужно ли наделять искусственный интеллект субъектностью, предоставлять ему какие-то права? Мне кажется, ответ на этот вопрос очевиден: конечно, нет. Искусственный интеллект – это робот, раб человека. И если мы предоставим ему хоть какие-то "права", мы не сможем справиться с возможными неприятными последствиями "расчеловечивания" человека.
Третье – умышленное нанесение вреда человеку с помощью ИИ. Должно быть прямо постулировано, что искусственный интеллект не должен вредить человеку, должен работать исключительно на благо человека. Нельзя использовать ИИ для дискриминации людей – по любым основаниям, дохода, возраста, расы, пола, здоровья и так далее – потому что по Конституции РФ мы все равны, если иное не установлено судом или законом.
Ну и есть проблема прозрачности ИИ: алгоритмы принятия решений и политики ИИ, заложенные в систему ИИ разработчиками, должны быть открыты и прозрачны. В этом году на панельной дискуссии на форуме "Армия-2021" высказывалась идея о том, что при любом взаимодействии с ИИ нужно ясно информировать пользователя об этом и все решения ИИ нужно маркировать "сделано искусственным интеллектом". Чтобы понимать, кем это решение было принято – человеком или машиной.
Технологии ИИ отличаются тем, что они обучаемы на данных, совершают миллионы операций и не дают объяснений того, как и почему решение принято. Обученная на данных нейронная сеть – это набор готовых фильтров, в которых нет информации о том, на каких данных делалось обучение, какие объекты и каким образом система обучена распознавать. Миллионы операций нейронной сети нельзя проверить вручную, невозможно понять, на основе чего принято то или иное решение. Сейчас в большинстве случаев даже разработчик не может этого объяснить и обосновать.
Это так называемая проблема "черного ящика" искусственного интеллекта, которая в свою очередь порождает проблему доверия к решениям ИИ и оспаривания их.
Сейчас решение ИИ в отношении людей, как правило, имеет статус финальности. Например: система скоринга клиентов в банке почему-то отказала заемщику в кредите, сочтя его недостаточно надежным. Как гражданину выйти из этой ситуации – непонятно, потому что непонятны причины принятия именно такого решения – и сейчас нет способа оспорить решение ИИ.
Далее, у него в бюро кредитных историй фактически появляется клеймо "подозрительный заемщик", ведь ему уже хотя бы раз отказали. И этого по сути также нельзя оспорить.
Подобных проблем много, поэтому конечное решение всегда должно оставаться за человеком, например, как это сейчас реализовано в ГИБДД – вам приходит извещение о нарушении правил дорожного движения, где сказано: "Я, капитан полиции такой-то, зафиксировал с камеры видеонаблюдения, что ваш автомобиль нарушил такие-то правила". И стоит подпись. Понятно, что это формальность – но как минимум здесь есть субъект права, которому вы что-то можете предъявить. И это правильный подход. А если искусственный интеллект будет принимать решение совершенно самостоятельно – это неправильно.
– Но в будущем ИИ будет использоваться все больше. Как вы к этому относитесь?
– Да, некоторые чиновники нас прямо загоняют в сторону цифровизации. Но они не до конца понимают, что помимо всяких прочих рисков есть следующий, структурный: в стране появится новая теневая власть, а именно, власть людей, создающих и использующих цифровые системы – айтишников, цифровых клерков, их начальников.
Приведу пример: предположим, город N разрабатывает систему распознавания лиц, которая должна "узнавать", скажем, 10 тысяч лиц для допуска, например, на важные объекты, а также не должна узнавать на улице 5000 других, "секретных" лиц – например, сотрудников спецслужб или высокого начальства. Вы думаете, разработчик устоит перед соблазном дать своему лицу в базе особый статус – разрешить себе допуск куда угодно или, наоборот, сделать себя "невидимкой"? А своего начальника? Коррупция и компрометация данных возникнет моментально – а обнаружить ее трудно, нужна очень высокая квалификация.
Или, например, система распознавания номеров автомобилей на шлагбаумах. Что помешает разработчику решить: "Добавлю-ка я свой номер авто в систему. Пусть все дворы открывают мне шлагбаумы, а что такого". Уже не говоря о шантаже на основе слежки: например, разработчик или оператор системы ИИ может собирать компрометирующие данные о своем начальстве и сослуживцах и, когда его захотят уволить, или он захочет повышения, он эту подноготную сможет использовать. Естественно, его начальник также будет использовать личные данные граждан и коллег в своей карьерной деятельности. Таких рисков – масса, потому что это же люди, а не просто технологии, в цифровой среде гарантированно будут возникать непредвиденные цифровизаторами мощные социальные эффекты. Вот этого цифровизаторы зачастую не хотят понимать.
Комментарии
Самое главное :"Моя личная рекомендация: ни в коем случае не сдавать биометрические данные, не вестись на "удобство". Их практически с гарантией украдут, продадут, "сольют"
Касперская умышлено тупит и делает рекламу семейным антивирусам и пр.продуктам работая на страхе толпы.
В биометрических системах и их базах данных не хранятся оригинальные данные в виде фотографии, голоса и пр. первичные данные, 'биометрический отпечаток' в специализированной системе это зашифрованный (хитрый алгоритм, хеши и пр.) текстовый/символьный набор данных, причем уникальный для каждого из поставщиков решений, клиенты которым продают коробку - не знают как устроен этот алгоритм, они обычные пользователи. У серьезных решений - защита данных на достойном уровне, доступ к этим данным имеют единицы админов и их мониторят и все действия логируют в крупных компаниях. В таком виде он хранится т.к. нужно обеспечить очень высокое быстродействие. Еще этот отпечаток меняется со временем т.к. человек стареет и вместе с ним изменяется его биология с биометрией, компании использующие биометрию постоянно обновляют профиль, а у украденной старой базы он скорее всего будет не совсем актуальный. Ну и в завершение, те кто ездил за границу в большинстве уже сдали свои отпечатки пальцев, при сдаче паспорта фотографировались, про социальные сети тут вообще сами все выложили (фото, видео, голос).
Но в принципе рекомендация разумная, так сказать с заделом на будущее.
Как имевший дело с, уверяю - хранятся. И визуализируются.
Ну это видать какой-то стартап уровень.
Я бы на месте Касперской бы немного пояснил свои рекомендации, если у человека много денег на счетах в банке, то ему категорически нельзя подключать биометрию, потому как большинство населения имбицилы и выкладывают в соц.сети столько всего, что на основании этих данных мошенники могут(обязательно попробуют) попробовать обмануть биометрию. Еще деньги нужно хранить на таких счетах, которые не позволяют в моменте через приложение их вывести или перевести во вне, в идеале только очный визит в банк к персональному менеджеру.
Мои и ваши персональные и медицинские данные могут принадлежать частнику с руководством в виде евреев, армян и прочих талибов
Такие вещи должны контролироваться только государством под охраной не хуже ядерной станции, а не каких то носатых цукербринов
Она, вообще то - жена Асманова.
С Касперским они "побили горшки". вы не знали? )))
он просто врёт
Сейчас придут спецы от цЫфровизаторов и доступно, "на пальцах разжуют", что Касперская агент Госдепа
она просто немного не разбирается в вопросе, так бывает. плохие решения по биометрике, которые она приводит, не повод всё обобщать. ну захотела девушка хайпануть вне профиля, так бывает. вон, даже на АШ спец по нефти решил стать вирусологом, так его даже обыватели пинают.
Ну тут не надо быть Касперской, что бы разбираться в вопросе:
Подпишитесь на профильные каналы и уже через неделю у вас не останется сомнений, что данные простого человека обязательно украдут и сольют (если ещё до сих пор не украли).
Как показала последняя история с Овальным даже телефоны, фамилии и перемещения сотрудников ФСБ это просто информация, которая стоит некоторых денег, которую другие сотрудники продадут посреднику, а у уже у посредника её может купить любой овальный, ну если у него есть деньги конечно.
Так что это как раз вы " немного не разбирается в вопросе, так бывает".
Скорее всего это Вы наивно думаете, что хорошо разбираетесь в вопросе. Про сливы, порчу и кражу данных, ненадежные носители, злодейских сотрудников с доступом к данным, deep–фейки-шмейки и т.д. - и так всё понятно, можно и не начинать по десятому кругу. Я же приведу парочку чуть менее известных примеров.
1. Полнолицевые маски высокой детализации, обманывающие системы распознавания лица, и позволяющие выдать себя за другого человека, вполне уже обыденность в определённых кругах.
2. Искуственный палец с нужным отпечатком, проходящий все тесты на температуру, влажность, проводимость и пульс, тоже реальность.
А историю про "обученный" медицинский искуственный интеллект, который "распознавал" заболевания на рентгеновских снимках не по самим снимкам, а по рамке вокруг снимка, напоминать?
Как-то "разрушители мифов" тестировали системы контроля доступа.
Ну конечно оборудование не ЦРУ и ФБР , простое коммерческое, но достаточно дорогое.
Больше всего приколола, вернее проколола, разрекламированная система доступа по отпечатку, которая типа проверяет что палец "живой"
"Разрушители" положили на сканер ксерокопию отпечатка пальца и придавили её сверху своим живым пальцем - тут "Сим-Сим" и открылся.
То, значит, был дрянной сканер отпечатков. Хорошие засекают и пульс, и температуру, и электропроводимость как минимум. Но и их обманывают.
бугага ... грефовцы пожаловали ... как знал
Всё правильно сказала.
Чисто цифровые технологии должны быть в цифровых интерфейсах цифровых устройств. А для живых людёв всё-таки нужны ещё и дополнительные нецифровые меры.
И снова баян)
https://aftershock.news/?q=node/1020870
Всего лишь отрывок (причем, фокус внимания - бумажным копиям). У меня полный текст.
Впрочем, похрен.
Кто-то успеет прочитать.
Нужно разрабатывать технологии хешей биометрии, как с цифро-буквенными паролями, сейчас в открытом виде их никто не хранит, хранятся хэши паролей, даже если хакер и украдет базу данных этих хэшей, проблем от этого не случится, так и с биометрией нужно, но технологий таких еще видимо нет.
Я, внутренний нарушитель в сговоре с ещё одним внутренним нарушителем заменю Ваши хеши. А если они защищены блокчейном, я их просто испорчу. На время конечно. Потом Вы их сумеете восстановить, если не помрёте от нервов, когда у Вас платёж по ипотеке не примут, интернет отключат, машину отберут,...
Все выйдем на майдан, все здесь власть, наконец все умрем, по ходу берестяные грамотки спасут Россию!
И папочку вашу бумажную в архиве зледеи могут заменить. Докажи потом тщу майору что не троцкист.
А хэши у нас теперь панацея? Распределенные вычисления и не такое переберут. Даже ели базу хэшировать целиком - перебор займет кучу времени, но профит будет максимальный.
Смотрите запись ниже
Навскидку, два сценария, при которых хеши никоим образом не помогут при наличии инсайдерского (или хакерского) доступа к базе на запись:
1. Считаем хеш от морды лица неугодного товарища, находим запись с этим хешем в базе, и помечаем её как злодейскую.
2. Считаем хеш от своей морды, находим запись с этим хешем в базе (или создаём новую), и помечаем её как привилегированную.
Далее. Биометрия по морде лица и по походке - это недетерминированная информация (в отличие от отпечатка пальца или от пароля). И она сама, и хеш от неё точно так же подвержены ошибкам и первого, и второго рода.
Хеш не признаётся ФСБ как гарантия истинности.
Хеш признаётся ФСБ как гарантия целостности. Имеется ввиду, что если исполняемый код имеет правильный хеш, то он либо истинный, либо это чухня с правильным хешем, которая работать не будет.
ВСЕГДА можно подогнать любой заданный хеш какому-нибудь набору битов. Проще говоря можно подменить блок данных блоком данных с заданным хешем. Пример - криптомонеты. их много, но они имеют заданный хеш.
Поэтому ФСБ признаёт хеш в отношении исполняемых кодов, но никогда не признает его в отношении содержимого баз данных. Там только правильное шифрование по правильным криптозаконам.
Ни разу не сомневался, как и ваши данные и то что вы в силовые ведомства конфиденциально передаёте утекает в США и прочие страны англошумер. Мыли прецеденты с моими собственными разработками в основном нанотехнологического характера, дронам в т.ч. двойного назначения.
Подходили и спрашивали вещи которых знало всего двое-трое. ФТИ это такая большая труба на Запад. Как и позднее во дворе дома или ночью на прогулке. Феерично.
Делайте втихаря сами и ни в коем разе не говорите чем занимаетесь. Также отслеживают, в т.ч. в РФ британцы, по спискам закупок в Сети. Все данные сливаются.
В случае чего может статься что будут калаши, если успеют выдать, против дронов за 10-100 долларов, способных вас убить.
В управлении всё дыряво и откровенная работа на врага. Игра в поддавки по дронам и главное - системам управления.
Ну так софт весь забугорный. Конечно сливать будет.
Да так же сливать будут, как и персональные данные, а доступ с неё поширше. Идиотизм на государственном уровне.
Странно. Вроде же грамотная тётка.
Защита данных, это не фунт изюма. Это довольно сложно. Но вполне даже возможно.
Во первых хеши. Когда хранятся не данные.
Во вторых версионирование, без возможности удаления совсем. Конечно, большенство стандартных баз данных не подходят.
Далее записи подписываются и или шифруются.
Далее, запрос данных просто по маске не возможен в принципе. Хочеш данные? Скажи Инн плюс фио.
Далее распределеные базы. У вас нет физически записи в таблице. Только часть. И подделать её можно, только вступив в сговор...
Вот скажите, а где базы с транзакция ми кредиток? А в них же по всему миру и пишется и читается информация...
люди просто не в курсе, мыслят категориями конца 90-х, всё давно изменилось.
Ага, изменилось. Всё стало намного-много продвинутее.
https://habr.com/ru/news/t/453802/
Одно но! По умолчанию квартиру электронной подписью не переоформить. Эта возможность открывается при личном посещении МФЦ
Вот! Это как раз согласуется со словами Натальи. Она и не призывает отказываться от технологий, но разумно предупреждает, что должен существовать и другой, классический, рубеж обороны. И что отказываться от него в угоду удобству или оптимизации никак нельзя.
В худшую сторону. Такого количества сливов, взломов, несанкционированных кредитов, подделок биометрии, отрисовки документов, краж, и т.д. как сейчас - не было ещё никогда.
Я так понимаю, что авизо в 90 мимо вас прошли? Или кражи в пентагоне?
Авизо в 90-е были явным сговором с уполномоченными кем надо в центробанковских кругах. Страна была в таком состоянии, что поделать. Сами по себе чеченские отрисовщики ни в жисть бы эту аферу не провернули. А против особо хитрой высокопоставленной "группы товарищей", помноженной на паралич страны на рубеже эпох, ни одна технология не выдюжит.
Но я-то говорил не про оптовые хищения у государства, наподобие авизо, а про нынешнюю цифровую бурю злоупотреблений против частных лиц.
PS. Кражи из Пентагона действительно прошли мимо. Что там было, расскажите вкратце.
Так и есть, если оперировать не абстрактными моделями идеального газа, а реальной практикой.
Всё это, конечно, и так понятно. Однако, несомненно хорошо, что наконец кто-то из приличного уровня экспертов проговорил внятно, доступно и по пунктам столь важные замечания. Аплодисменты Наталье.
PS. Хех, давным-давно, когда Инфовотч был раза в 3 моложе, чем сейчас, успешно прошёл у них собеседование, и ребята весьма понравились. Но работать в итоге не пошёл: тогдашняя их локация была в совершеннейшей попе мира, неудобнее трудно придумать :)
Безопасность в обмен на свободу.
А может ли быть безопасность без свободы?
Не знаю, устроена защита и хранение биометрических данных, но то, что она пишет про архивные копии это испанский стыд. Студента с такими представлениям о реальной жизни можно брать на работу только бесплатно, за опыт.
Ну она лукавит.
Нет никакой разницы,подтверждаете вы чтото паролем или лицом.
В случае биометрии просто храниться больше данных.
Единственная ключевая разница между обычными средствами и биометрии с точки зрения безопасности, заключается в максимально возможном количестве образцов которые могут быть скомпроментированы.
Как в песенке -один глаз выколю другой останется.Глаз-2,пальцев-10.
Касательно лица,там где это есть множество систем проверяющих,жив ли,пол,возраст,эмоции и тд, и все это сравнивается с данными в профиле.Там всё очень непросто.И за последние 7 лет, точность распознания выросла в 50 раз.
В рф из-за закона о данных ограничен только вроде один вид биометрии-поведенческая (данные у гугла).
Касательно хранения,сейчас с такими вещами все тоже непросто. Даже сложно,за последние пару лет очень многое изменилось.
Проблема с безопаностью, немного обострилась с ковидом. Домой к сотруднику не придешь же. Но это же вызвало создание механизмов защиты.
ЗЫ На самом деле с биометрическими данными все не совсем так как она говорит. Их шифруют, хранят отдельно и тд. Принципиально ничего нового,но вот все вместе.
И сейчас созданы доп механизмы доступа, например в чем то схожие с военными системами как на ядерных подлодках с ключами
А так всегда ломают конкретные системы.
Самое слабое место и первые подозреваемые-сотрудники.
По статье выше(ссылкой на историю с ключами)
Журналист провел пассивную и активную разведку, а дальше воспользовался социальной инженерией.
Сотрудники нарушили инструкции, и это происходило пару раз.
Нарушение инструкции и халатность, если у них там с этим не борютьсяи не контрлируют то это печально
Вообще счас сотрудники практически везде подписывают отрытые инструкции по кибербезопасности
И там везде практически написано что за нарушение их могут уволить
какая мелочь ...)))) вот если бы расстрелять...
Ох, какое чудовищное наказание!
пароль я могу поменять. лицо или голос сильно сложнее
Короче - пойду в банк, откажусь от электронных услуг... :)
вакцину все равно вколят
Что бе помер, а то налоги кто платить будет?
Неа, я пенсионер, попытаются вколоть, шоб пензию сэкономить, шоб сдох... :)
Только я живым не дамси... :)
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Страницы