Глава Microsoft предупреждает, что вскоре могут появиться новые угрозы дипфейков

Глава Microsoft предупреждает, что вскоре могут появиться новые угрозы дипфейков

28 сентября 2022 г.

Что касается глубоких подделок, то, что мы видели пока это только вершина айсберга. В ближайшем будущем мы не будем уверены, является ли человек, с которым мы разговариваем по видеозвонку, настоящим или самозванцем, и у мошенников не возникнет проблем с созданием целой хронологии поддельных видео для подтверждения своих утверждений или заставить людей поверить в легитимность предложения или кампании.

Эти душераздирающие предсказания исходят от Эрика Хорвица, главного научного сотрудника Microsoft, в новой исследовательской статье под названием «На горизонте: интерактивные и композиционные дипфейки».

Deepfakes — это, по сути, видео с фотошопом. Используя искусственный интеллект (ИИ) и машинное обучение (МО), злоумышленник может создать видео, на котором человек говорит то, чего никогда не говорил. Теперь, по словам Хорвица, мошенники готовы выйти на новый уровень. Как и следовало ожидать, интерактивные дипфейки — это видео в реальном времени, с которыми могут взаимодействовать пользователи, которые на самом деле являются совершенно поддельными.

История синтеза

Композиционные дипфейки, с другой стороны, описываются как «наборы дипфейков», предназначенные для интеграции во времени с «наблюдаемыми, ожидаемыми и сконструированными мировыми событиями для создания убедительных синтетических историй».

«Синтетические истории можно создавать вручную, но однажды они могут быть основаны на методах состязательного генеративного объяснения (AGE)», — добавляет Хорвиц.

Он также говорит, что в ближайшем будущем будет практически невозможно отличить поддельные видео и поддельный контент от аутентичного: «В отсутствие мер по смягчению последствий интерактивные и композиционные дипфейки угрожают приблизить нас к постэпистемический мир, где факты нельзя отличить от вымысла».

Отсутствие мер по смягчению последствий связано с тем, что злоумышленники могут противопоставлять искусственный интеллект инструментам анализа и разрабатывать поддельный контент, способный обмануть даже самые передовые системы обнаружения.

«Поскольку этот процесс лежит в основе дипфейков, ни методы распознавания образов, ни люди не смогут надежно распознать дипфейки», — отмечает Хорвиц.

Итак, в следующий раз, когда член семьи позвонит из-за границы, чтобы попросить деньги для оплаты аренды, убедитесь, что это не мошенник выдавать себя за своих близких.

.

Через: VentureBeat


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE