Глава Microsoft предупреждает, что вскоре могут появиться новые угрозы дипфейков
28 сентября 2022 г.Что касается глубоких подделок, то, что мы видели пока это только вершина айсберга. В ближайшем будущем мы не будем уверены, является ли человек, с которым мы разговариваем по видеозвонку, настоящим или самозванцем, и у мошенников не возникнет проблем с созданием целой хронологии поддельных видео для подтверждения своих утверждений или заставить людей поверить в легитимность предложения или кампании.
Эти душераздирающие предсказания исходят от Эрика Хорвица, главного научного сотрудника Microsoft, в новой исследовательской статье под названием «На горизонте: интерактивные и композиционные дипфейки».
Deepfakes — это, по сути, видео с фотошопом. Используя искусственный интеллект (ИИ) и машинное обучение (МО), злоумышленник может создать видео, на котором человек говорит то, чего никогда не говорил. Теперь, по словам Хорвица, мошенники готовы выйти на новый уровень. Как и следовало ожидать, интерактивные дипфейки — это видео в реальном времени, с которыми могут взаимодействовать пользователи, которые на самом деле являются совершенно поддельными.
История синтеза
Композиционные дипфейки, с другой стороны, описываются как «наборы дипфейков», предназначенные для интеграции во времени с «наблюдаемыми, ожидаемыми и сконструированными мировыми событиями для создания убедительных синтетических историй».
«Синтетические истории можно создавать вручную, но однажды они могут быть основаны на методах состязательного генеративного объяснения (AGE)», — добавляет Хорвиц.
Он также говорит, что в ближайшем будущем будет практически невозможно отличить поддельные видео и поддельный контент от аутентичного: «В отсутствие мер по смягчению последствий интерактивные и композиционные дипфейки угрожают приблизить нас к постэпистемический мир, где факты нельзя отличить от вымысла».
Отсутствие мер по смягчению последствий связано с тем, что злоумышленники могут противопоставлять искусственный интеллект инструментам анализа и разрабатывать поддельный контент, способный обмануть даже самые передовые системы обнаружения.
«Поскольку этот процесс лежит в основе дипфейков, ни методы распознавания образов, ни люди не смогут надежно распознать дипфейки», — отмечает Хорвиц.
Итак, в следующий раз, когда член семьи позвонит из-за границы, чтобы попросить деньги для оплаты аренды, убедитесь, что это не мошенник выдавать себя за своих близких.
- Познакомьтесь с лучшими брандмауэрами
Через: VentureBeat
Оригинал