Adobe добавляет Firefly и учетные данные для контента в программу Bug Bounty

2 мая 2024 г.

Исследователи безопасности в программе Adobe bug bounty теперь могут получать вознаграждение за обнаружение уязвимостей в Adobe Firefly и Content Credentials. Охота за ошибками будет открыта для участников частной программы Adobe по вознаграждению за ошибки, начиная с 1 мая.

Участники общедоступной программы Adobe по борьбе с ошибками получат право работать с Adobe Firefly и Content Credentials во второй половине 2024 года, а заявки на частную программу открыты.

Оба вознаграждения за обнаружение ошибок проводятся на платформе HackerOne, которая открыта для исследователей безопасности со всего мира.

Хакеры могут заработать от 100 до 10 000 долларов, в зависимости от типа и серьезности уязвимости.

«Мы не только просто устраняем уязвимости, о которых нам сообщают, но также используем программу вознаграждения за ошибки и некоторые сигналы и тенденции, которые мы получаем от нее, в качестве своего рода петли обратной связи с нашими внутренними командами безопасности». сказал менеджер группы реагирования на инциденты безопасности продуктов Adobe Дэниел Вентура в интервью TechRepublic. «Чтобы мы все могли учиться вместе и в целом улучшить наши способности».

Вентура отметил, что, хотя технология генеративного искусственного интеллекта является относительно новой, исследователи в области безопасности быстро освоили способы поиска ошибок в ней. Adobe заключила партнерские отношения с HackerOne и Bug Bounty Village, хакерской конференцией, организованной Беном Садегипуром, также известным как NahamSec, чтобы предоставить исследователям безопасности возможность узнать больше об охоте за ошибками в генеративном искусственном интеллекте.

«Возможно, самая большая проблема заключается в том, что многие исследователи, как и организации, догоняют скорость, предлагая новые услуги и активы», — сказал Вентура.

Adobe Firefly представляет уникальные задачи по поиску ошибок

Adobe Firefly — это семейство генеративных моделей искусственного интеллекта, предназначенных для создания изображений в Photoshop и других продуктах Adobe. Adobe призывает исследователей в области безопасности протестировать Firefly на предмет распространенных уязвимостей в генеративном искусственном интеллекте. В частности, Adobe указывает исследователям на десятку лучших приложений для больших языковых моделей OWASP, в которой отмечается, что приложения LLM особенно уязвимы к быстрым внедрениям, утечке данных, неадекватной изолированной программной среде и несанкционированному выполнению кода.

СМОТРИТЕ: В нашем руководстве приведены советы и рекомендации по наиболее эффективному использованию Adobe Photoshop. (Техреспублика)

Учетные данные контента предоставляют важную информацию о происхождении.

Content Credentials добавляет безопасные метаданные, водяные знаки и отпечатки пальцев к произведениям искусственного интеллекта, созданным в Adobe Firefly, Photoshop, Lightroom или других программах. Учетные данные контента прикрепляются к изображениям с информацией о создании изображений и любом редактировании, которое могло быть выполнено с ними.

Важно, чтобы учетные данные контента работали хорошо, чтобы обеспечить правильную атрибуцию произведений искусства и предотвратить распространение вводящих в заблуждение изображений. В частности, Adobe хочет запретить возможные способы прикрепления ложных учетных данных контента.

Цель — помочь авторам, которые могут использовать учетные данные контента в своей работе, и более широкому сообществу исследователей безопасности, поделившись информацией о том, какие уязвимости могут иметь учетные данные контента.

«Навыки и опыт исследователей безопасности играют решающую роль в повышении безопасности и теперь могут помочь в борьбе с распространением дезинформации», — сказала Дана Рао, исполнительный вице-президент, главный юрисконсульт и главный директор по доверительному управлению Adobe, в заявлении для прессы. «Мы стремимся работать с более широкой отраслью, чтобы помочь улучшить реализацию наших учетных данных контента в Adobe Firefly и других флагманских продуктах, чтобы выдвинуть важные проблемы на передний план и стимулировать разработку ответственных решений искусственного интеллекта».

Adobe открывает Зал славы исследователей безопасности

Чтобы добавить к денежным вознаграждениям право хвастаться, Adobe открыла Зал славы исследователей безопасности для исследователей безопасности, которые оказывают исключительное влияние в программе вознаграждения за обнаружение ошибок. Исследователи, набравшие наибольшее количество баллов за квартал, подав действительные заявки на участие в программе вознаграждения за обнаружение ошибок, могут получить товары Adobe или бесплатную 12-месячную подписку на Adobe Creative Cloud Suite, а их имена будут отображаться в зале славы.

«В целом, мы надеемся, что эта инициатива поможет получить более полезный опыт для участвующих исследователей», — написал Вентура в своем блоге.

Другие программы вознаграждения за ошибки ИИ

Охота за ошибками в ИИ за последний год расширилась с появлением продуктов и услуг генеративного ИИ. В октябре 2023 года Google добавила некоторые уязвимости генеративного ИИ в свою программу вознаграждения за ошибки. У OpenAI есть программа вознаграждения за ошибки для своих моделей ИИ. Microsoft предлагает до 15 000 долларов за поиск ошибок в Copilot.

Эта статья была обновлена, чтобы лучше отражать принцип работы учетных данных контента.

Подпишитесь на информационный бюллетень Cybersecurity Insider Укрепите защиту ИТ-безопасности вашей организации, следя за последними новостями, решениями и передовыми практиками в области кибербезопасности. Доставка по вторникам и четвергам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на информационный бюллетень Cybersecurity Insider Укрепите защиту ИТ-безопасности вашей организации, следя за последними новостями, решениями и передовыми практиками в области кибербезопасности. Доставка по вторникам и четвергам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE