Обманчивые двойники: как дипфейки стали причиной мошенничества на 200 миллионов гонконгских долларов

Обманчивые двойники: как дипфейки стали причиной мошенничества на 200 миллионов гонконгских долларов

13 февраля 2024 г.

Помните веселый дипфейк Дональда Трампа, циркулирующий в Интернете? Хотя технология, лежащая в ее основе, вызывает удивление, ее потенциальный вред скрывается прямо под поверхностью.

В Гонконге веселье быстро угасло, когда мошенники использовали дипфейки, чтобы организовать ограбление на миллион долларов, в результате чего транснациональная компания пошатнулась и подняла серьезные вопросы о будущем доверия в эпоху цифровых технологий.

Человеческий глаз, когда-то считавшийся надежным судьей реальности, столкнулся с огромной проблемой: дипфейками. Но что такое дипфейк? В этой статье мы погрузимся в царство дипфейков, где реальность не такая, какой кажется. Приготовьтесь познакомиться с технологией дипфейков и узнать, как с ее помощью удалось осуществить мошенничество стоимостью в сотни миллионов.

Начнем!

Что такое дипфейки

Дипфейки – это разновидность искусственного интеллекта, используемая для создания убедительных поддельных изображений, аудио и видео. По сути, технология используется для преобразования или замены контента существующего источника. Например, дипфейк может сделать фотографию или видео и заменить на нем человека другим.

Кроме того, технология позволяет создавать совершенно оригинальный контент, в котором кто-то делает или говорит то, чего он никогда не делал.

Вам, должно быть, интересно, как это возможно. Что ж, дипфейки создаются с использованием технологии искусственного интеллекта, называемой глубоким обучением. Проще говоря, глубокое обучение — это тип машинного обучения, который позволяет компьютерам изучать и распознавать сложные закономерности.

Анализируя видео, изображения и аудио, компьютер изучает их закономерности и может имитировать их. Чем больше данных компьютер должен проанализировать и изучить, тем точнее он сможет их имитировать.

Влияние генеративно-состязательных сетей на дипфейки

Как будто глубокого обучения было недостаточно, в 2014 году мы стали свидетелями появления GAN, которые полностью произвели революцию в дипфейках. Можете ли вы представить себе технологию, состоящую из двух компонентов: один генерирует поддельное изображение, а другой определяет, является ли то же самое сгенерированное изображение реальным или поддельным?

Генератор учится делать дипфейки более реалистичными, а дискриминатор учится лучше выявлять фейки. Этот мощный и потенциально опасный инструмент не только способен быстрее создавать дипфейки, но и делает их более убедительными.

Теперь вы понимаете, с какой опасностью мы сталкиваемся, когда дело касается дипфейков.

Афера в Гонконге

Когда ребенок создает фейковое видео, на котором бабушка читает его любимые песни, вся семья видит в этом веселье. Мы также склонны игнорировать очевидные опасности, скрывающиеся за этим. Ситуация становится намного серьезнее, когда целенаправленное мошенничество с дипфейками приводит к потере миллионов долларов. Именно это произошло недавно в Гонконге.

Настройка

То, что началось как обычный рабочий видеозвонок сотрудника транснациональной компании, превратилось в одно из крупнейших киберпреступлений недавнего прошлого. Итак, как же всё это было осуществлено с помощью дипфейков? Давайте выясним.

Мошенники начали с обмена текстовыми сообщениями с выбранным сотрудником. В индивидуальном сообщении утверждалось, что он был финансовым директором филиала той же компании в Великобритании. Жертву попросили принять участие в официальной рабочей встрече под названием "Зашифрованная торговая встреча", в которой приняли участие еще четыре-шесть человек.

Учитывая тот факт, что сообщение и приглашение на «зашифрованную» встречу выглядели профессиональными, у жертвы не было реальных оснований подозревать всю ситуацию.

Другая причина, по которой эта конкретная попытка мошенничества не была обнаружена, заключалась в участии нескольких лиц.

По словам исполняющего обязанности старшего суперинтенданта Бюро по борьбе с кибербезопасностью и технологическими преступлениями барона Чан Шунь-цина, все мошенничества, совершавшиеся в недавнем прошлом, осуществлялись посредством видеоконференций один на один. Следовательно, встреча по видеозвонку с несколькими людьми была неожиданной и, следовательно, вряд ли могла быть расценена как мошенничество.

Здесь мы видим, на что были готовы пойти мошенники, чтобы осуществить эту изощренную кибератаку.

Разработка и реализация дипфейков

В видеовстрече должны были участвовать от четырех до шести человек. Создание правдоподобных дипфейков длительной встречи, включая точные голоса и язык тела, должно быть, было сложной задачей. Однако мошенники не только смогли этого добиться, но и сделали это успешно.

Дипфейки начинаются с данных в виде изображений, видео и аудио. Злоумышленники смогли получить эту информацию в Интернете. Любые видео и аудио с объектами выдачи себя за другое лицо, публично найденные в Интернете, были загружены и подвергнуты тщательному процессу глубокого обучения.

После тщательной изощренной работы методом проб и ошибок мошенникам удалось успешно имитировать как голоса, так и черты лица вовлеченных людей.

Как только это было сделано, мошенники заранее записали дипфейковые видео, чтобы им не приходилось взаимодействовать с жертвой. Мошенники, выдавая себя за руководителей высшего звена, запугивали жертву, чтобы он не прервал их генеральный план.

При этом мошенники не оставили незакрытыми ни одного места. Они даже позаботились о том, чтобы создать фальшивых персонажей, напоминающих сотрудников финансового отдела штаб-квартиры Великобритании.

Результат

Когда жертва прибыла на зашифрованную видеовстречу, организованную финансовым директором, она столкнулась с заранее записанными дипфейковыми видеороликами нескольких человек. Жертву попросили лишь кратко представиться, и ей не предоставили никакой другой возможности взаимодействовать на протяжении всего разговора.

В ходе встречи финансовый директор дал потерпевшему обширные инструкции относительно инвестиций. Наконец настал момент, когда финансовый директор приказал жертве перевести средства на банковские счета.

У потерпевшего не было оснований что-либо подозревать, поскольку все лица говорили убедительно и выглядели именно так, как им положено. Как только жертву убедили продолжить транзакцию запрошенной суммы, конференц-связь внезапно прервалась. Бедная жертва понятия не имела, что собирается совершить ошибку, которая будет стоить его работодателям сотни миллионов долларов.

На следующей неделе жертва совершила 15 транзакций на пять различных банковских счетов в соответствии с инструкциями финансового директора. После перевода общей суммы 200 миллионов гонконгских долларов жертва связалась с штаб-квартирой в Великобритании и узнала, что все это было обманом и мошенничеством.

Это было одно из многих киберпреступлений, совершенных в Гонконге за последний год, общий размер ущерба составил 3 миллиарда гонконгских долларов.

Обнаружение дипфейков: стратегии и профилактические меры

Если бы правоохранительные органы получали пятак за каждый раз, когда они сталкивались с фальшивыми доказательствами, они, вероятно, могли бы финансировать свое собственное агентство по установлению истины. Следовательно, они имеют хорошие возможности для борьбы с дипфейками и подобными угрозами.

Однако постоянное развитие технологий искусственного интеллекта сделало обнаружение дипфейков более сложным, чем когда-либо прежде. Учитывая это, вот несколько лучших способов обнаружения синтетического контента и профилактические меры, которые мы можем принять против угроз такого рода.

Обнаружение вручную

Хотите верьте, хотите нет, но какими бы изощренными ни были дипфейки, их все равно можно обнаружить невооруженным глазом, если знать, на что обращать внимание. Дипфейковое изображение, видео или аудио неизбежно будет иметь некоторую несогласованность; именно это вам и следует стремиться обнаружить.

Однако это можно сделать только для ограниченного числа файлов. Вы не будете просматривать тысячу разных файлов. Для освоения этой техники также требуется соответствующая подготовка. Начнем с того, что есть определенные ключевые особенности, которые можно обнаружить при внимательном рассмотрении изображения. Например:

* Размытие краев лица на изображении или видео

* Лица на видео не моргают или почти не моргают

* Световые блики в глазах

* Несоответствия в волосах или образце вен, а также шрамы на лице или теле.

* Фоновые несоответствия

Однако этот процесс еще больше усложняется вашим восприятием видео или аудио; решите ли вы искать эти несоответствия в файле, полностью зависит от вас, поэтому могут возникнуть ошибки.

Автоматическое обнаружение

Чтобы избежать неминуемого риска человеческой ошибки, должна быть система, которая может автоматически обнаруживать дипфейки для любых файлов. Однако такая система вряд ли будет на 100% точной. Тем не менее, благодаря постоянному совершенствованию передовых технологий можно создать систему, обеспечивающую все более точные результаты.

Вот некоторые примеры инструментов обнаружения:

  • Биологические сигналы. Поиск недостатков и естественных изменений цвета кожи или черт лица.

* Несоответствия фонемы и висемы: Поиск несоответствий в динамике рта, виземы.

* Движения лица. Поиск недостатков в движениях лица и головы.

Основные выводы

Учитывая новые тенденции в области кибербезопасности, дипфейки — это фальшивая реальность, которая представляет большую угрозу для нашей личной, социальной и финансовой жизни. Незнание того, является ли видео, изображение или аудио реальным или фальшивым, может иметь катастрофические последствия, как это было в случае с мошенничеством в Гонконге.

Однако при использовании правильных методов обнаружения как частные лица, так и транснациональные компании могут определить подлинность файла со значительной точностью.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE