Поддельные врачи тикток (и другие мошенничества с глубоким здоровьем)

Поддельные врачи тикток (и другие мошенничества с глубоким здоровьем)

5 июля 2025 г.

Хотя мошенничество со здоровьем и вводящая в заблуждение информация не являются чем -то новым, цифровая эволюция и рост искусственного интеллекта (ИИ) вызвали серьезную обеспокоенность среди медицинского сообщества и пользователей онлайн -онлайн.

Сегодняшние технологии позволяют плохим игрокам манипулировать видео и изображениями авторитетных медицинских работников, заставляя их одобрять поддельные продукты или требуют личной медицинской информации. Это явление стало еще более распространенным в Tiktok и аналогичных платформах социальных сетей, где люди испытывают трудности с расшифровкой дезинформации.

Что такое DeepFakes? Как они используются в мошенничестве со здоровьем

DeepFakes использует ИИ для создания реалистичных представлений о людях в синтетических средах. Это относительно недорогой и простой процесс, и вводит в заблуждениеОт 25% до 50% пользователейкоторые часто не могут определить, являются ли видео подлинными.

Хакеры собирают как можно больше информации о человеке и обучают свою модель ИИ, чтобы узнать, как они выглядят, разговаривают и двигаются. Затем инструмент создает, казалось бы, точный аудиоклип, видео или их изображение. Недавно финансовая компания из Гонконга влюбилась в глубокий обман,Проводка 25 миллионов долларов для мошенниковПолучив убедительное имитационное видео с финансовым директором.

В 2024 году диабет Виктория в Австралиивыпустил пресс -релизО циркуляции Deepfake Videos для продвижения диабетических добавок. Мошенники использовали технологию ИИ, чтобы манипулировать экспертами из Бекерского сердца и диабетического института в Мельбурне без их согласия или одобрения.

В частности, Tiktok Shop стала горячей точкой для DeepFake Doctors, чтобы заставить пользователей покупать мошенническую уточнение продуктов для здоровья. Согласно Media Matters, популярные учетные записи Tiktok имеютначисленные более 10 миллионов просмотровИспользуя сгенерированные изображения настоящих медицинских экспертов для продажи своих товаров.

Изучая ситуацию, средства массовой информации обнаружили, что все продукты возникли из Китая и следили за тем же видео-форматом продукта, который используется наряду с одобрением Deepfake Doctor, одобряющим его.

Почему мошенничество с глубоким здоровьем имеет значение

Глубобы являются частью более широкой проблемы кибербезопасности и безопасности, связанных с фишингом, вредоносными программами и стратегиями социальной инженерии. Контент подвергает людям риску влюбиться в мошенничество с деньгами, потенциально вредные продукты для здоровья и чудо -лечение, разрушая авторитет уважаемых и надежных медицинских экспертов.

Индустрия здравоохранения уже является одним из лучших целей кибербезопасности, особенно с ростом медицинских устройств и других носимых технологий. Фактически,46 больниц испытали атаки вымогателейВ 2023 году, по сравнению с 25 годом ранее. Нарушения повлияли на 141 больница, предотвращая доступ к компьютерным системам и данным пациентов.

Мошенничество в области здравоохранения DeepFake увеличивает риск кражи данных, когда люди делятся своей личной медицинской информацией. На таких платформах, как Tiktok, фальшивые врачи могут собирать платеж за фиктивные продукты и услуги, побуждая пользователей следовать опасным или фальшивым медицинским консультациям. Эти инциденты дополнительно разрушают общественное доверие к профессионалам и объектам.

Красные флаги и тактика глубоководного доктора

Обнаружение фальшивого врача Tiktok или другого мошенничества с глубоким здоровьем, поскольку технология генерации AI. По данным медиа -лаборатории Массачусетского института технологий, пользователи должны искать следующие, чтобы обнаружить подделки:

  • Кожа, чтоВыглядит слишком гладко или морщине- Хакеры часто сосредотачиваются на трансформациях лица
  • Непоследовательное освещение и тени
  • Синтетические волосы, включая усы, бакенбарды и бороды
  • Поддельные родинки или веснушки
  • Плохо синхронизированные движения губ против аудио

Ультрачистый звук иФоны, которые не сдвигаютсяТакже укажите подделку. И наоборот, в реальном видео вы можете услышать дыхание или щебетание птиц на заднем плане, в то время как камеры могут слегка дрожать.

Мошенники могут создавать мошеннические учетные данные или запустить вирусные проблемы, чтобы привлечь внимание пользователей и интерес. Они могут использовать доверие людей, выдавая себя за медицинский орган или развивая чувство срочности при покупке продукта здравоохранения. Другие могут включать в себя медицинский жаргон или белые лабораторные пальто, чтобы контент выглядел фактическим.

Красные флаги, как правило, включают не поддающуюся информации или учетные данные при проверке на рецензируемые исследования. Аналогичным образом, аккаунты с комментариями с ограниченными возможностями, маркетинговой тактикой высокого давления и минимальным цифровым следствием являются четким предупреждающим знаком.

Защита от Deepfake Health Muss

Защита от Deepfake Health мошенничества становится все более сложной, поскольку технология становится все более сложной. Всегда лучше связаться с человеком, одобряющим продукт для здоровья или услугу, чтобы определить его легитимность. Оставить комментарий под постом относительно его подлинности - это еще один способ взаимодействия с учетной записью и другими пользователями, которые могут задаться вопросом, является ли это реальным.

Крайне важно сообщить, предположительно поддельные продукты и счета, распространяющие дезинформацию, и поощрение других делать то же самое улучшает коллективные усилия по снижению риска.

Использование инструментов обратного изображения и видео помогает определить исходный источник контента, в то время как детекторы DeepFake могут идентифицировать манипуляции. Это может включать в себя видео -аутентикатор Microsoft, которыйобеспечивает оценку доверия в реальном временипока играет видео. Он также обнаруживает серо -серого или исчезает, которые люди не могут легко узнавать невооруженным глазом.

Платформы социальных сетей также используют обнаружение искусственного интеллекта, помещение сгенерированного контента, развертывание систем отчетности пользователей и установление партнерских отношений с проверкой фактов. Процесс не идеален, хотя. В 2024 году Meta объявилаНовый подход к маркировке контента, сгенерированного ИИ,по всему Facebook и Instagram при обнаружении инструментов оценки искусственного интеллекта. Однако техника не всегда действительна ипереживаемая критика со стороны пользователейкоторые утверждают, что их содержание реально.

В конечном счете, пользователи могут наилучшим образом защитить себя, проведя комплексные исследования и обратившись к надежным экспертам или организациям для аутентификации продуктов и услуг здоровья.

Оставаться бдительным в эпоху синтетических средств массовой информации

Врачи Deepfake, вероятно, будут продолжать доминировать в цифровом ландшафте, несмотря на разработку инструментов обнаружения искусственного интеллекта. Повышенные риски кибербезопасности также делают синтетические среды в здравоохранении еще более непосредственным. Следовательно, пользователи должны оставаться бдительными и практиковать должную осмотрительность, чтобы избежать мошенничества.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE