OpenAI, Google и другие компании согласовали список из восьми гарантий безопасности ИИ в Белом доме

OpenAI, Google и другие компании согласовали список из восьми гарантий безопасности ИИ в Белом доме

25 июля 2023 г.
Гарантии включают водяные знаки, отчеты о возможностях и рисках, инвестиции в меры безопасности для предотвращения предвзятости и многое другое.

Некоторые из крупнейших компаний в области генеративного ИИ, работающие в США, планируют наносить водяные знаки на свой контент, говорится в информационном бюллетене Белого дома, опубликованном в пятницу, 21 июля.

Это следует за мартовским заявлением об опасениях Белого дома по поводу неправомерного использования ИИ. Кроме того, соглашение заключено в то время, когда регулирующие органы разрабатывают процедуры для управления влиянием генеративного искусственного интеллекта на технологии и способы взаимодействия людей с ним с тех пор, как ChatGPT выложил ИИ-контент в поле зрения общественности в ноябре 2022 года.

Перейти к:

    Каковы восемь обязательств по обеспечению безопасности ИИ? Государственное регулирование ИИ может отпугнуть злоумышленников

Каковы восемь обязательств по обеспечению безопасности ИИ?

Восемь обязательств по обеспечению безопасности ИИ включают:

    Внутреннее и внешнее тестирование безопасности систем ИИ перед их выпуском. Обмен информацией в отрасли и с правительствами, гражданским обществом и академическими кругами по управлению рисками ИИ. Инвестиции в кибербезопасность и защиту от внутренних угроз, в частности, для защиты весов моделей, которые влияют на предвзятость и концепции, которые модель ИИ связывает вместе. Поощрение обнаружения уязвимостей в их системах искусственного интеллекта третьими сторонами и сообщения о них. Публично сообщать обо всех возможностях, ограничениях и областях надлежащего и ненадлежащего использования систем ИИ. Приоритизация исследований предвзятости и конфиденциальности. Помощь в использовании ИИ в полезных целях, таких как исследование рака. Разработка надежных технических механизмов для водяных знаков.

Обязательство по водяным знакам включает в себя компании, занимающиеся генеративным искусственным интеллектом, разрабатывающие способ пометить текст, аудио или визуальный контент как созданный машиной; он будет применяться к любому общедоступному генеративному контенту ИИ, созданному после того, как система водяных знаков будет заблокирована. Поскольку система водяных знаков еще не создана, пройдет некоторое время, прежде чем стандартный способ определить, создан ли контент ИИ, станет общедоступным.

ПОСМОТРЕТЬ: Набор для найма: инженер-подсказчик (TechRepublic Premium)

Государственное регулирование ИИ может отпугнуть злоумышленников

Бывший глобальный вице-президент Microsoft Azure и нынешний директор по закупкам Cognite Мо Танабиан поддерживает государственное регулирование генеративного ИИ. В разговоре с TechRepublic он сравнил нынешнюю эпоху генеративного ИИ с ростом социальных сетей, включая возможные недостатки, такие как скандал с конфиденциальностью данных Cambridge Analytica и другую дезинформацию во время выборов 2016 года.

«У злоумышленников есть много возможностей воспользоваться преимуществами [генеративного ИИ], использовать его и использовать не по назначению, и они это делают. Поэтому я думаю, что у правительств должны быть какие-то водяные знаки, какой-то элемент корня доверия, который им нужно создать и определить», — сказал Танабян.

«Например, телефоны должны уметь определять, используют ли злоумышленники сгенерированные ИИ голоса для оставления мошеннических голосовых сообщений», — сказал он.

«Технически мы не в невыгодном положении. Мы знаем, как [обнаруживать контент, созданный ИИ]», — сказал Танабян. «Ключевым моментом является требование к отрасли и введение этих правил, чтобы возникло доверие к тому, что мы можем аутентифицировать этот контент, созданный ИИ».


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE