5 мошенничеств с дипфейками, которые угрожают предприятиям
20 июля 2023 г.Новый отчет Forrester предостерегает предприятия быть в поисках пяти мошеннических подделок, которые могут нанести ущерб. Мошенничество с дипфейками — это мошенничество, манипулирование ценами на акции, репутация и бренд, опыт сотрудников и HR, а также усиление.
Deepfake — это возможность, использующая технологию искусственного интеллекта для создания синтетического видео- и аудиоконтента, который можно использовать для выдачи себя за кого-то, сообщил TechRepublic автор отчета Джефф Поллард, вице-президент и главный аналитик Forrester.
По словам Полларда, разница между дипфейком и генеративным ИИ заключается в том, что в последнем вы вводите запрос, чтобы задать вопрос, и он вероятностно возвращает ответ. Deepfake «… использует искусственный интеллект… но он предназначен для создания видео- или аудиоконтента, а не письменных ответов или ответов, которые возвращает большая языковая модель».
Мошенничество с дипфейками, нацеленное на предприятия
Это пять мошенничеств с дипфейками, подробно описанных Forrester.
Мошенничество
По словам Forrester, технологии Deepfake могут клонировать лица и голоса, и эти методы используются для аутентификации и авторизации действий.
«Использование технологии дипфейков для клонирования и выдачи себя за человека приведет к мошенническим финансовым транзакциям, жертвами которых станут отдельные лица, но это также произойдет на предприятии», — отмечается в отчете.
Одним из примеров мошенничества может быть выдача себя за старшего руководителя для авторизации электронных переводов преступникам.
«Этот сценарий уже существует сегодня, и вскоре его частота будет увеличиваться», — предостерегает отчет.
Поллард назвал это наиболее распространенным типом дипфейка, «…потому что у него кратчайший путь к монетизации».
Манипулирование ценами на акции
События, заслуживающие освещения в печати, могут вызвать колебания цен на акции, например, когда известный руководитель уходит из публичной компании. В отчете Forrester говорится, что дипфейк объявления такого типа может привести к краткосрочному падению цен на акции, и это может иметь волновой эффект, влияющий на оплату труда сотрудников и способность компании получать финансирование.
Репутация и бренд
Очень легко создать ложную публикацию в социальных сетях о «…известном руководителе, который использует оскорбительные выражения, оскорбляет клиентов, обвиняет партнеров и выдумывает информацию о ваших продуктах или услугах», — сказал Поллард. Этот сценарий создает кошмар для советов директоров и отделов по связям с общественностью, и в отчете отмечается, что «… сегодня слишком легко искусственно создать этот сценарий».
Это может нанести ущерб бренду компании, сказал Поллард, добавив, что «…это, честно говоря, почти невозможно предотвратить».
Опыт сотрудников и HR
Еще один «проклятый» сценарий — когда один сотрудник создает дипфейк с использованием неконсенсуального порнографического контента, используя образ другого сотрудника и распространяя его. Это может нанести ущерб психическому здоровью этого сотрудника и поставить под угрозу его карьеру и «…почти наверняка приведет к судебному разбирательству», говорится в отчете.
По словам Полларда, мотивация заключается в том, что кто-то думает, что это смешно, или хочет отомстить. Это мошенничество больше всего пугает компании, потому что оно «…самое опасное или пагубное в долгосрочной перспективе, потому что его труднее всего предотвратить», — сказал он. «Это противоречит любому общепринятому поведению сотрудников».
усиление
Дипфейки можно использовать для распространения другого дипфейкового контента. Forrester сравнил это с ботами, которые распространяют контент: «…но вместо того, чтобы давать этим ботам имена пользователей и истории сообщений, мы даем им лица и эмоции», — говорится в отчете. Эти дипфейки также могут быть использованы для создания реакции на оригинальный дипфейк, который был разработан, чтобы нанести ущерб бренду компании, чтобы его потенциально увидела более широкая аудитория.
Лучшая защита организаций от дипфейков
Поллард повторил, что вы не можете предотвратить дипфейки, которые можно легко создать, например, загрузив подкаст, а затем клонировав голос человека, чтобы заставить его сказать то, чего он на самом деле не говорил.
«Есть пошаговые инструкции, чтобы любой мог сделать это (возможность клонировать голос человека) технически», — отметил он. Но одно из средств защиты от этого «… не говорить и не делать ужасных вещей».
Кроме того, если компания зарекомендовала себя как заслуживающая доверия, аутентичная, надежная и прозрачная, «… людям будет трудно поверить, что вы вдруг настолько ужасны, насколько это может показаться на видео», — сказал он. «Но если у вас есть послужной список того, что вы не заботитесь о конфиденциальности, нетрудно снять видео о том, как руководитель…» говорит что-то разрушительное.
Поллард добавил, что существуют инструменты, которые обеспечивают целостность, проверку и отслеживаемость, чтобы указать, что что-то не является синтетическим, например FakeCatcher от Intel. «Он смотрит на… кровоток в пикселях на видео, чтобы выяснить, о чем кто-то думал, когда это было записано».
Но Поллард с пессимизмом отозвался об инструментах обнаружения, заявив, что они «… развиваются, а затем злоумышленники их обходят, и тогда им приходится снова развиваться. Это давняя история с кибербезопасностью».
Он подчеркнул, что дипфейки никуда не денутся, поэтому организациям необходимо заранее подумать о возможности того, что они могут стать мишенью. По его словам, будут происходить дипфейки.
«Не делайте первый раз, когда вы думаете об этом, когда это произойдет. Вы хотите отрепетировать это и понять это, чтобы точно знать, что делать, когда это произойдет», — сказал он. «Неважно, правда ли это — важно, достаточно ли в это верят, чтобы я мог поделиться этим».
И последнее напоминание от Полларда: «Это интернет. Все живет вечно».
Оригинал