Глубокие фейки могут обмануть систему распознавания лиц на криптовалютных биржах

12 октября 2024 г.

Генеративные ИИ-дипфейки могут распространять дезинформацию или манипулировать изображениями реальных людей в сомнительных целях. Они также могут помочь злоумышленникам пройти двухфакторную аутентификацию, согласно исследовательскому отчету от 9 октября от Cato Networks’ CTRL Threat Research.

ИИ создает видеоролики, на которых поддельные люди смотрят в камеру

Злоумышленник, описанный CTRL Threat Research — известный под псевдонимом ProKYC — использует deepfakes для подделки правительственных удостоверений личности и обмана систем распознавания лиц. Злоумышленник продает инструмент в даркнете начинающим мошенникам, чья конечная цель — проникнуть на криптовалютные биржи.

Некоторые биржи требуют от потенциального владельца аккаунта предоставить правительственное удостоверение личности и появиться в прямом эфире на видео. С помощью генеративного ИИ злоумышленник легко создает реалистичное изображение лица человека. Затем инструмент Deepfake ProKYC вставляет эту фотографию в поддельные водительские права или паспорт.

Тесты распознавания лиц на криптобиржах требуют краткого доказательства того, что человек находится перед камерой. Инструмент deepfake подделывает камеру и создает созданное ИИ изображение человека, смотрящего влево и вправо.

SEE: Meta — новейший гигант в области искусственного интеллекта, создающий инструменты для фотореалистичного видео.

Затем злоумышленник создает учетную запись на криптовалютной бирже, используя личность сгенерированного несуществующего человека. Оттуда он может использовать учетную запись для отмывания незаконно полученных денег или совершения других форм мошенничества. Этот тип атаки, известный как New Account Fraud, привел к убыткам в размере 5,3 млрд долларов в 2023 году, по данным Javelin Research и AARP.

Продажа способов взлома сетей — не новость: схемы «программы-вымогатели как услуга» позволяют начинающим злоумышленникам покупать себе доступ к системам.

Как предотвратить мошенничество с новыми аккаунтами

Главный стратег по безопасности компании Cato Research Этай Маор дал организациям несколько советов по предотвращению создания поддельных аккаунтов с использованием ИИ:

    Компании должны сканировать видео, созданные с помощью ИИ, на наличие общих черт, таких как очень высокое качество видео — ИИ может создавать изображения с большей четкостью, чем те, которые обычно захватываются стандартной веб-камерой. Смотрите или сканируйте видео, созданные с помощью ИИ, на наличие сбоев, особенно неровностей вокруг глаз и губ. Собирайте данные об угрозах по всей вашей организации в целом.

Может быть сложно найти баланс между слишком большим или слишком малым контролем, написал Маор в исследовательском отчете Cato Research. «Как упоминалось выше, создание систем биометрической аутентификации, которые являются сверхограничительными, может привести к множеству ложноположительных оповещений», — написал он. «С другой стороны, слабый контроль может привести к мошенничеству».

Подпишитесь на рассылку Cybersecurity Insider Укрепите защиту ИТ-безопасности вашей организации, оставаясь в курсе последних новостей, решений и передового опыта в области кибербезопасности. Рассылка каждый понедельник, вторник и четверг Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на рассылку Cybersecurity Insider Укрепите защиту ИТ-безопасности вашей организации, оставаясь в курсе последних новостей, решений и передового опыта в области кибербезопасности. Рассылка каждый понедельник, вторник и четверг Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE