Путеводитель избирателя по дезинформации о выборах, созданной ИИ
26 июля 2023 г.Мы живем в то время, когда технологии, основанные на искусственном интеллекте, начинают приобретать реальные, осязаемые формы, и наши человеческие когнитивные способности могут проявляться во многих отношениях, о которых мы даже не догадываемся.
Несколько СМИ и эксперты в области цифровых технологий выразили обеспокоенность по поводу предстоящих выборов в США в 2024 году (традиционно очень человеческое дело) и постоянного потока информации и дезинформации, вызванной генеративным искусственным интеллектом. Мы видели, как недавние выборы во многих странах происходили в тандеме с формированием быстрорастущих групп пользователей на платформах социальных сетей, где дезинформация может распространяться со скоростью лесного пожара.
Эти группы быстро обмениваются информацией из сомнительных источников и сомнительных фигур, ложной или неправильно контекстуализированной информацией от иностранных агентов или организаций, а также дезинформацией с откровенно поддельных новостных сайтов. В недалеком прошлом мы были свидетелями распространения теорий заговора и попыток дискредитировать результаты выборов на основе заявлений, которые оказались ложными.
Предстоящая президентская гонка в США в 2024 году, похоже, присоединится к серии в этом отношении благодаря простоте создания контента в нашу нынешнюю эпоху контента с помощью искусственного интеллекта.
Сенсация дезинформации
Об этом же заявили эксперты в этой области; Контент, созданный ИИ, который выглядит и звучит по-человечески, уже насыщает все виды контента. Это добавляет работы, необходимой для сортировки и обработки огромного количества информации и данных в Интернете, в зависимости от того, сколько или как мало пользователь готов читать и понимать в первую очередь.
Такое мнение выразил Бен Уинтерс, старший юрисконсульт Электронного информационного центра конфиденциальности, некоммерческой исследовательской организации в области конфиденциальности. «Это не окажет положительного влияния на информационную экосистему», — говорит он, и это будет продолжать снижать доверие пользователей к контенту, который они находят в Интернете.
Манипуляции с изображениями и другие специально созданные медиа — явление не новое: в нашей повседневной жизни часто встречаются фотошоп-фотографии, имитация электронных писем и автоматические звонки. Одна огромная проблема с этими и другими новыми формами дезинформации заключается в том, насколько проще стало создавать такой контент.
Легкость лжи
Мало того, благодаря ИИ стало проще нацеливаться как на определенные группы, так и даже на конкретных людей. С помощью правильных инструментов теперь можно гораздо эффективнее создавать специализированный контент.
Если вы следили за историями разработки и публичного дебюта инструментов искусственного интеллекта, таких как разработанные OpenAI, вы уже знаете, что программное обеспечение с помощью искусственного интеллекта может создавать звук на основе уже существующего голосового ввода, составлять довольно убедительный текст во всех типах. тонов и стилей, и генерировать изображения почти всего, что вы попросите. Нетрудно представить, что эти способности используются для создания политически мотивированного контента всех видов.
Вам нужно хотя бы немного технической грамотности, чтобы работать с такими инструментами, но в остальном любое целенаправленное пропагандистское желание — это команда ИИ. Хотя инструменты обнаружения ИИ уже существуют и продолжают развиваться, они продемонстрировали заметную эффективность. смешанная эффективность.
Как отмечает Мекела Пандитаратне, советник программы демократии в Центре правосудия Бреннана Юридической школы Нью-Йоркского университета, во всем этом есть еще один недостаток: такие инструменты, как модели больших языков (LLM), такие как ChatGPT и Google Bard, обучаются на огромном количестве онлайн-данных. Для общественного понимания не существует процесса, позволяющего отбирать и проверять точность какой-либо части информации, поэтому сюда добавляются дезинформация и ложные утверждения.

Борьба с ботами
Некоторые страны также предприняли некоторые ответные усилия, чтобы начать принимать законы, которые пытаются начать решать подобные проблемы, и технологические компании, управляющие этими услугами, приняли некоторые защитные меры.
Однако достаточно ли? Я, вероятно, не одинок в своих колебаниях, чтобы забыть о своих опасениях по этому поводу, особенно с учетом того, что в следующем году во многих странах предстоят крупные выборы.
Один из таких случаев, вызывающих особую озабоченность, на который обратил внимание Пандитаратне, связан с созданием и использованием множества материалов для бомбардировки людей, чтобы отбить у них охоту голосовать. Как я упоминал выше, с этой целью можно автоматизировать большое количество аутентично звучащего материала, и это может убедить кого-то, что он не может (или просто не должен) голосовать.
Тем не менее, реагирование все еще может быть не таким уж эффективным. Хотя это лучше, чем вообще не обращать на это внимания, наши воспоминания и внимание непостоянны. Даже если мы видим информацию, которая может быть более правильной или точной, после того, как у нас сложится первоначальное впечатление и мнение, нашему мозгу может быть трудно ее принять. «Воздействие первоначальной дезинформации трудно преодолеть, как только это происходит», — говорится Ченхао Тан, доцент кафедры компьютерных наук Чикагского университета.
Что мы можем с этим сделать?
Контент, созданный инструментами ИИ, уже получил вирусное распространение в социальных сетях, и Американская ассоциация политических консультантов предупредила об «угрозе для демократии», которую представляют средства с помощью ИИ, такие как дипфейк-видео. Видео и изображения, созданные искусственным интеллектом, имеют уже освобожден от кандидата в президенты от Республиканской партии Рона ДеСантиса и от Республиканского национального комитета.
Даррелл Уэст из Центра технологических инноваций, аналитического центра в Вашингтоне, округ Колумбия, ожидает увеличения количества видео, аудио и изображений, созданных искусственным интеллектом, чтобы представить политических оппонентов в плохом свете. Он выразил обеспокоенность тем, что избиратели могут «принимать такие заявления за чистую монету» и принимать решения о голосовании на основе ложной информации.

Итак, теперь, когда я загрузил вашу тарелку гибелью и мраком (извините), что нам делать? Что ж, Уэст рекомендует вам приложить дополнительные усилия, чтобы проконсультироваться с различными источниками средств массовой информации и перепроверить правдивость заявлений, особенно смелых, решительных заявлений. Он рекомендует вам «изучить источник и убедиться, что он является заслуживающим доверия источником информации».
В конце концов, как всегда: последний бастион против дезинформации — это всегда вы, читатель, избиратель. Хотя инструменты искусственного интеллекта упростили создание ложных сведений, в конечном итоге мы должны убедиться, что то, что мы читаем, является фактом, а не вымыслом. Имейте это в виду, когда в следующий раз будете смотреть политическую рекламу — вам понадобится всего минута, чтобы провести собственное онлайн-исследование.
Оригинал