Хакеры ломают системы распознавания лиц

Мечты фантастов прошлых поколений, похоже, окончательно сбылись: все чаще от госуправленцев и глав крупных технологических корпораций можно услышать, что будущее уже наступило.

Западные и отечественные фильмы начала тысячелетия приучили нас, что можно подделать документы человека, его фото, голос и даже отпечатки пальцев. Последним оплотом надежности оставалась идентификация человека по лицу. Сегодня эту технологию используют производители смартфонов, госорганы, банки и метрополитены. Технологию распознавания лиц нередко называют абсолютно безопасной, но мировые эксперты бьют тревогу: еще ни разу не случалось, чтобы хакеры не находили способа обмануть систему.

Денис (имя изменено) — завсегдатай одного из форумов даркнета для профессиональных «вилочников». Так в букмекерских конторах называют игроков, которые ловят «вилки» — несоответствия в коэффициентах на спортивные события на разных площадках, что позволяет им делать беспроигрышные ставки. Для поиска «вилок» используются специальные программы.

«Проблемой всегда было то, что конторы ловят “вилочников”, анализируя данные об их ставках, после чего блокируют их без объяснения причин. Зачастую даже не удается вывести выигрыш, — жалуется Денис. — Такие блокировки требуют регулярного создания новых личностей».

Раньше букмекеры идентифицировали нового пользователя по селфи с раскрытым паспортом в руках, но теперь практически все популярные в России конторы требуют видеоидентификации. Подделать паспорт — вполне решаемая для «вилочников» задача: заказать нарисованные документы, которые потребует букмекер, можно у специальных умельцев. Идентификация по видео всегда была для них проблемой. Теперь она, похоже, решена.

Во время звонка букмекера программа создает некритичные помехи в канале связи, которые скрывают использование дипфейка, а изображение, которое видит сотрудник компании, совпадает с фото на паспорте. Это стоит немалых денег, и пока услуга оказывается только среди своих, потому что требует частичного раскрытия цифровой личности: установки программы, создания удаленных подключений. Но перспективы — потрясающие, потому что букмекерские конторы либо пока не используют детекторы дипфейков, либо нам об этом ничего не известно

Это вот рассказал Денис, профессиональный «вилочник».

За фейковыми личностями, в которых технология превращает «вилочников» на время идентификации, стоят реальные люди, предполагает Денис: чтобы схема работала, нужно не только совпадение внешности на фотографии в паспорте и на видео, но и данные настоящих банковских карт. Эксперты по банковской безопасности давно поговаривают в непубличной обстановке, что практически во всех крупных компаниях финсектора существуют незалатанные черные дыры, дающие мошенникам доступ к персональным данным пользователей.

Искусственный интеллект, оживляющий изображения реально существующих людей, — одна из основных точек приложения усилий хакеров. Дипфейки — маски, созданные специальными программами, которые просто накладывают на реальное изображение чужое лицо. Несколько лет назад угловатость и комичность, с которой технология «оживляла» изображение, стала основой для нескольких интернет-мемов. Тогда Сильвестра Сталлоне заставили «исполнить» главную роль в «Один дома», а Арнольда Шварценеггера — все роли во «Властелине колец».

Но если те подделки детекторы дипфейков (специальные программы, которые раскручивают созданную иллюзию в обратную сторону, выявляя критические несоответствия между теми самыми 80 ключевыми точками) определяли почти в 100 процентах случаев, то теперь этот показатель стал ниже.

Американский режиссер Джордан Пил совместно с изданием BuzzFeed выпустил дипфейк-видео с участием бывшего президента США Барака Обамы. В ролике, созданном с помощью программы Fakeapp и графического редактора, нарисованный Обама объяснил, что современные технологии позволяют сделать так, что кто угодно может говорить на видео что угодно. Затем фейковый президент произнес несколько фраз, которые настоящий Обама никогда не сказал бы публично: например, назвал тогдашнего президента США Дональда Трампа абсолютным придурком. В конце Пил призвал зрителей быть более бдительными и внимательнее проверять источники информации, прежде чем им доверять.

«Системы, использующие распознавание по лицу, имеют в своем составе специальные механизмы Liveness Detection. Фактически они проверяют, что с системой “общается” живой пользователь, а не его фотография. Поэтому, когда злоумышленник пытается обмануть систему распознавания лиц, он, по сути, соревнуется с механизмами Liveness Detection. Степень их надежности зависит от конкретной биометрической системы. Но стоит отметить, что лидеры российского и международного рынка технологий распознавания лиц достаточно хорошо защищают свои системы от взлома», — уверен Алексей Кузьмин, руководитель группы биометрических технологий и систем аутентификации центра прикладных систем безопасности компании «Инфосистемы Джет».

Самые первые системы распознавания строились по эмпирическому принципу: они «думали», как человек. Например, начинали просто с определения того, есть ли на изображении хотя бы нос и глаза, исследуя характерные перепады по цветам. Так получалось понять, на что вообще «смотрит» программа. При этом желательно, чтобы рядом не было других лиц, а сам фон был равномерным и светлым, без кислотных цветов или фикусов причудливых форм. Технологически такие системы совсем просты в исполнении, но в современном мире, где на изображениях всегда много информационного шума, практически не применимы.

Более развитая вариация технологии, построенной на этом подходе, уже умела справляться с тем, что человек в кадре, к примеру, повернул голову. Но пестрое окружение все еще оставалось для нее проблемой.

После этого в системах распознавания лиц начали использовать шаблонный подход, при котором лица сверялись с заданными разработчиками стандартами. Получилось в итоге хуже, чем ожидалось: такие системы требовали громоздких вычислений и оказались слишком медленными на практике.

Современные алгоритмы по мере развития компьютерного зрения научились выявлять на лицах около 80 ключевых точек и строить линии между ними. Самые банальные варианты — расстояние между глазами или места закругления скул. Сейчас на это уходит всего несколько секунд, а полученный в итоге сложный набор данных конвертируется в уникальный код — цифровой отпечаток. И уже его можно сопоставлять с базой данных, неважно — клиентов банков или самых разыскиваемых преступников. Что самое важное, такие программы сначала долго обучаются на тестовых снимках и продолжают развиваться даже в боевых условиях.

Проблемы с этичностью

Первый успешный российский стартап от компании NTechLab, связанный с распознаванием лиц, поначалу пользовался бешеной популярностью. Правда, вскоре критики обнаружили примеры нецелевого использования технологии и другие проблемы с этичностью. И все равно — теперь именно он развернут в масштабах всей страны.

Проект FindFace начинался как сервис, помогающий найти пользователей «ВКонтакте» по их фотографиям. Всего через год после его запуска департамент американского Министерства торговли, отвечающий за развитие технологий, признал использованные в разработке биометрические алгоритмы лучшими в мире.

Детище компании NTechLab завоевывало противников с такой же скоростью, как и сторонников. Дыр с безопасностью в сервисе не обнаружили, однако оказалось, что в руках обычных пользователей эта технология может быть опасным инструментом. Пока FindFace тестировали на фестивале Alfa Future People и «пилотировали» на паре тысяч столичных камер уличного наблюдения, в Петербурге приложение использовали, чтобы найти аккаунты двоих подростков, устроивших пожар в парадной. До самосуда, правда, не дошло. Как и в нашумевшей в свое время истории, когда пользователи «Двача» охотились на реальные аккаунты российских порноактрис, а потом устраивали спам-атаки с самыми изощренными угрозами. Часто — не только самим актрисам, но и их родственникам и друзьям.

В итоге проект FindFace закрыли, а NTechLab начал активно сотрудничать с властями. Сегодня компания — крупнейший подрядчик государства, сотрудничающий со многими подобными компаниями по всему миру, в том числе и с теми, которые замечены в работе на спецслужбы.

ФБР и не снилось

Самым уязвимым местом систем аутентификации по лицам долгое время были сами базы. Даркнету известны тысячи сливов персональных данных пользователей, а хакерам не принципиально, что именно воровать: номера банковских карт или цифровые отпечатки лиц.

Считается, что самой большой подобной базой в мире обладает ФБР. Речь может идти примерно о 650 миллионах изображений граждан США, мигрантов и туристов, посещавших страну в последнее десятилетие.

Но самые лучшие базы, конечно, у социальных сетей. У каждой из них есть свои собственные алгоритмы для распознавания лиц. Простор для их применения — куда более широкий, чем у ФБР, ведь условный Facebook, в отличие от спецслужб, имеет в своем распоряжении не одно портретное фото для визы, а десятки или даже сотни снимков конкретного пользователя, выполненных с разных ракурсов и в разных состояниях.

«С точки зрения обеспечения безопасности распознаванию по лицу присущи те же свойства, что и всем биометрическим способам. Человеку сложно противостоять попыткам взлома, так как отпечатки пальцев или форма лица в принципе не могут быть приватными, и их практически невозможно изменить. В этом отличие биометрических данных от, например, паролей, которые должны быть строго конфиденциальными, и пользователь может при необходимости их сменить по собственной воле или требованию системы аутентификации», — констатирует Алексей Кузьмин.

«Хакеры помогут не скатиться в тоталитаризм»

Эти примеры показывают, что безоговорочно верить в безопасность систем распознавания лиц нельзя. Именно поэтому вызывал и продолжает вызывать определенный скептицизм проект Единой биометрической системы (ЕБС), запущенный в России в 2018 году. Сейчас к ней подключены все банки страны, но пока в базу передали свои сведения лишь 200 тысяч человек. Оператор системы — «Ростелеком», который настаивает на том, что весь процесс полностью безопасен. Публичных сведений об утечках из ЕБС действительно не было, а в даркнете пометки с источником происхождения на данные ставить не принято.

Первоначальный восторг по поводу безопасности видеоидентификации сменился в мире легкой настороженностью. В ЕС готовят поправки, запрещающие применять искусственный интеллект в системах видеонаблюдения; в США есть целые города, в которых запрещено распознавание лиц; в Великобритании такой запрет коснулся даже полиции одного из регионов Уэльса.

«Вероятнее всего, массовое внедрение распознавания лиц произойдет в таких странах, как Россия и Китай, где есть соответствующая поддержка государства. В США и Европе есть сдерживающие факторы на уровне законодательства, в частности, Европейского регламента по защите данных GDPR и схожих по смыслу документов ряда штатов США», — заключает Кузьмин из компании «Инфосистемы Джет».

Обратную сторону технологии можно увидеть на примере Китая. Поначалу над ней смеялись: система видеоидентификация запрещала выдавать бумагу в уличных туалетах тем, кто уже получал ее в последние девять минут. Теперь, когда в Китае создали и запустили систему оценки граждан, которая присваивает им социальный рейтинг, видеоидентификация стала частью пугающей антиутопии — совсем как в сериале «Черное зеркало».

«Скатиться в тоталитаризм России могут помешать как раз хакеры, — шутит в разговоре с «Лентой.ру» системный инженер российского представительства одной из крупнейших глобальных компаний по защите данных. — Здесь более вероятен сценарий США, где только во второй половине 2020 года было отмечено 80 тысяч попыток обмануть госорганы на этапе видеоидентификации с помощью дипфейков. Эта цифра настолько велика, что становится понятно: дипфейки служат уже не только киберпреступникам, они пошли в народ».

Распознавание Шредингера

Эксперты кредитной компании Experian PLC выводят на повестку дня новую угрозу: хакеры уже не просто подделывают чужие лица, а создают новые цифровые личности. Их никогда не существовало, но у них могут быть все идентификационные документы, счета в банках и даже пенсионные накопления. Очевидные сферы применения таких подделок — терроризм и финансовые махинации.

В 2021 году китайские медиа описывали истории двух жителей Шанхая, которые создали фиктивную компанию для продажи кожаных сумок и отправляли поддельные налоговые счета крупным «клиентам». Систему распознавания лиц, внедренную у китайских налоговиков и использующуюся для верификации счетов-фактур, удалось обмануть как раз такими новыми дипфейками. Ущерб составил 76,2 миллиона долларов, преступников удалось поймать.

Источник материала
Настоящий материал самостоятельно опубликован в нашем сообществе пользователем Proper на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

Дочитал до конца? Жми кнопку!

Вам может понравиться...

7 Комментарий
старые
новые
Встроенные Обратные Связи
Все комментарии
Gena
Gena
2 лет назад

Сломать можно всё. В споре брони и снаряда так и нет победителя.

Ⱬ- ⱤØ฿₳Đ〄
Ⱬ- ⱤØ฿₳Đ〄
для  Gena
2 лет назад

Да. Вот что раньше появилось, гарилька или рюмька?

Gena
Gena
для  Ⱬ- ⱤØ฿₳Đ〄
2 лет назад

Цтокан и сэм-о-гон!

Тимо-фей
Тимо-фей
для  Gena
2 лет назад

Пьяная вишня.

Gena
Gena
для  Тимо-фей
2 лет назад

Трезвый ирландец.

Gena
Gena
для  Gena
2 лет назад

Или непьющий финн.

FUnCKy
FUnCKy
для  Gena
2 лет назад

Што за звери такие. Краснокнижные?

Чтобы добавить комментарий, надо залогиниться.