Мошеннические атаки Deepfake поражают все больше и больше компаний

Мошеннические атаки Deepfake поражают все больше и больше компаний

24 февраля 2023 г.

Попытки мошенничества и кибератаки с использованием технологии дипфейков участились, говорится в новом исследовании, добавив, что настало время для продуктов и услуг, которые помогут организациям защитить себя от этих передовых кража личных данных.

Это данные экспертов по проверке личности ID R&D, которые утверждают, что почти половина (42%) организаций уже сталкивались с дипфейковыми атаками. При этом 37% уже сталкивались с инъекционными атаками — инцидентами, когда злоумышленники обходят камеру или иным образом внедряют цифровой контент в поток данных. Другими словами, в некоторых сценариях технология дипфейка может помочь обойти биометрическую аутентификацию.

Более половины (51%) мошенничество с использованием чат-ботов представляет собой «реальную угрозу».

Подделать растущую проблему

По понятным причинам все это беспокоит бизнес, говорят исследователи. Девять из десяти (91%) организаций и их клиентов заявили, что обеспокоены мошенничеством с использованием дипфейков, а 84% выразили аналогичные опасения в отношении инъекционных атак.

Ссылаясь на отчет Gartner, ID R&D заявила, что мы можем ожидать, что 20% успешных атак с захватом учетных записей в этом году будут использовать технологию дипфейков.

Deepfake — это технология на основе искусственного интеллекта, с помощью которой пользователи могут создавать убедительные видеоролики с людьми. Отправляя на платформу различные видео и другой контент, инструмент затем может генерировать уникальное видео, в котором лицо, выдающее себя за другого, говорит и делает то, чего на самом деле никогда не делало.

Самое первое его приложение было вредоносным, поскольку люди использовали его для добавления реалистичных лиц знаменитостей в видеоконтент для взрослых.

Другие приложения были больше ориентированы на развлечения, поскольку люди начали создавать поддельные видеоролики, в которых Дональд Трамп говорит всевозможные вещи (большинство из которых он, вероятно, сказал бы в любом случае), среди прочего.

Во время развлечения , видео стали отличным примером того, насколько опасной и вредоносной может быть технология дипфейков и насколько важно иметь решение, которое может отличить дипфейк от подлинного видео.

Разработка ID R&D решение под названием ID LIve Face Plus для этого. Хорошо это работает или нет, еще предстоит выяснить.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE