Может ли криптография C2PA стать ключом к борьбе с дезинформацией, создаваемой искусственным интеллектом?

Может ли криптография C2PA стать ключом к борьбе с дезинформацией, создаваемой искусственным интеллектом?

4 августа 2023 г.
Adobe, Arm, Intel, Microsoft и Truepic поддерживают C2PA, альтернативу нанесению водяных знаков на контент, созданный искусственным интеллектом.

Поскольку генеративный ИИ распространяется по всему корпоративному программному обеспечению, стандарты его использования все еще создаются как на правительственном, так и на организационном уровне. Одним из таких стандартов является сертификация контента генеративного ИИ, известная как C2PA.

C2PA существует уже два года, но в последнее время он привлек к себе внимание, поскольку генеративный ИИ становится все более распространенным. Членство в организации, стоящей за C2PA, удвоилось за последние шесть месяцев.

Перейти к:

    Что такое C2PA? Как можно пометить AI-контент? Важность водяных знаков для предотвращения злонамеренного использования ИИ

Что такое C2PA?

Спецификация C2PA — это интернет-протокол с открытым исходным кодом, который описывает, как добавлять заявления о происхождении, также известные как утверждения, к фрагменту контента. Заявления о происхождении могут отображаться в виде кнопок, по которым зрители могут щелкнуть, чтобы увидеть, был ли медиафайл частично или полностью создан с помощью ИИ.

Проще говоря, данные о происхождении криптографически связаны с частью носителя, а это означает, что любое изменение любого из них приведет к предупреждению алгоритма о том, что носитель больше не может быть аутентифицирован. Вы можете узнать больше о том, как работает эта криптография, прочитав технические спецификации C2PA.

Этот протокол был создан Коалицией за происхождение и подлинность контента, также известной как C2PA. Adobe, Arm, Intel, Microsoft и Truepic поддерживают C2PA, который представляет собой совместный проект, объединяющий инициативу Content Authenticity Initiative и Project Origin.

Content Authenticity Initiative — это организация, основанная Adobe для поощрения предоставления информации о происхождении и контексте для цифровых медиа. Project Origin, созданный Microsoft и BBC, представляет собой стандартизированный подход к технологии цифрового происхождения, чтобы гарантировать, что информация — особенно новостные СМИ — имеет доказуемый источник и не была подделана.

Вместе группы, составляющие C2PA, стремятся остановить распространение дезинформации, особенно контента, созданного искусственным интеллектом, который может быть ошибочно принят за подлинные фотографии и видео.

Как можно пометить AI-контент?

В июле 2023 года правительство США и ведущие компании, занимающиеся искусственным интеллектом, выпустили добровольное соглашение о раскрытии информации о том, когда контент создается с помощью генеративного искусственного интеллекта. Стандарт C2PA является одним из возможных способов выполнить это требование. Водяные знаки и обнаружение ИИ — два других отличительных метода, которые могут помечать изображения, созданные компьютером. В январе 2023 года OpenAI представила для этой цели свой собственный классификатор ИИ, но затем закрыла его в июле «… из-за его низкой точности».

Тем временем Google пытается предоставлять услуги водяных знаков наряду со своим собственным ИИ. По словам технологического гиганта в мае 2023 года, PaLM 2 LLM, размещенный в Google Cloud, сможет маркировать изображения, созданные машиной.

ПОСМОТРЕТЬ: Облачные контакт-центры набирают популярность на волне популярности генеративного ИИ. (ТехРеспублика)

Сейчас на рынке есть несколько продуктов для обнаружения генеративного ИИ. Многие из них, такие как Writefull GPT Detector, созданы организациями, которые также предоставляют инструменты для генеративного письма на основе ИИ. Они работают так же, как и сами ИИ. GPTZero, который рекламирует себя как детектор содержания ИИ для образования, описывается как «классификатор», который использует то же распознавание образов, что и генеративные предварительно обученные модели преобразователя, которые он обнаруживает.

Важность водяных знаков для предотвращения злонамеренного использования ИИ

Бизнес-лидеры должны поощрять своих сотрудников следить за контентом, созданным ИИ, который может быть помечен или не помечен как таковой, чтобы поощрять надлежащую атрибуцию и достоверную информацию. Также важно, чтобы созданный искусственным интеллектом контент, созданный внутри организации, был помечен соответствующим образом.

Доктор Алессандра Сала, старший директор по искусственному интеллекту и науке о данных в Shutterstock, заявила в пресс-релизе: «Присоединение к CAI и принятие базового стандарта C2PA является естественным шагом в наших постоянных усилиях по защите нашего сообщества художников и наших пользователей путем поддержки разработка систем и инфраструктуры, которые обеспечивают большую прозрачность и помогают нашим пользователям легче определить, что является творением художника, а что искусством, созданным или модифицированным искусственным интеллектом».

И все это сводится к тому, чтобы люди не использовали эту технологию для распространения дезинформации.

«Поскольку эта технология будет широко внедряться, люди будут ожидать, что информация Content Credentials будет прикреплена к большинству контента, который они видят в Интернете», — сказал Энди Парсонс, старший директор инициативы Content Authenticity в Adobe. «Таким образом, если к изображению не прикреплена информация об учетных данных контента, вы можете применить дополнительную проверку при принятии решения о доверии к нему и распространении его».

Атрибуция контента также помогает художникам сохранять право собственности на свои работы.

Для предприятий обнаружение контента, созданного ИИ, и маркировка собственного контента, когда это уместно, могут повысить доверие и избежать неправильной атрибуции. Плагиат, в конце концов, идет в обе стороны. Художники и писатели, использующие генеративный ИИ для плагиата, должны быть обнаружены. В то же время художники и писатели, создающие оригинальные работы, должны быть уверены, что их работа не появится в чужом проекте, созданном с помощью ИИ.

Для команд графического дизайна и независимых художников Adobe работает над тегом «Не обучать» на своих панелях происхождения контента в Photoshop и контенте Adobe Firefly, чтобы гарантировать, что оригинальное искусство не используется для обучения ИИ.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE