Страны G7 приняли добровольный кодекс поведения в сфере ИИ

3 ноября 2023 г.
Кодекс поведения содержит рекомендации по регулированию ИИ в странах «Большой семерки» и включает вопросы кибербезопасности и международные стандарты.

Страны «Большой семерки» создали добровольный кодекс поведения в области ИИ, опубликованный 30 октября, касающийся использования передового искусственного интеллекта. Кодекс поведения фокусируется на базовых моделях и генеративном искусственном интеллекте, но не ограничивается ими.

Для сравнения, странами G7 являются Великобритания, Канада, Франция, Германия, Италия, Япония и США, а также Европейский Союз.

Перейти к:

    Каков кодекс поведения ИИ в «Большой семерке»? Что говорится в кодексе поведения ИИ G7? Что кодекс поведения ИИ G7 означает для бизнеса? Каким будет следующий шаг после принятия Кодекса поведения ИИ G7? Другие международные правила и рекомендации по использованию ИИ.

Каков кодекс поведения ИИ в «Большой семерке»?

Кодекс поведения в области искусственного интеллекта «Большой семерки», более конкретно называемый «Международный кодекс поведения Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта», представляет собой подход, основанный на оценке рисков, который направлен на «продвижение безопасного, надежного и заслуживающего доверия искусственного интеллекта во всем мире и предоставит добровольное руководство для действия организаций, разрабатывающих самые передовые системы искусственного интеллекта».

Кодекс поведения является частью Хиросимского процесса искусственного интеллекта, который представляет собой серию анализов, руководящих указаний и принципов сотрудничества на основе проектов между странами «Большой семерки».

Что говорится в кодексе поведения ИИ G7?

11 руководящих принципов кодекса поведения ИИ «Большой семерки», цитируемых непосредственно из отчета:

    Принимайте соответствующие меры на протяжении всего процесса разработки передовых систем ИИ, в том числе до и на протяжении всего их развертывания и размещения на рынке, для выявления, оценки и снижения рисков на протяжении всего жизненного цикла ИИ. Выявляйте и устраняйте уязвимости, а также, при необходимости, инциденты и модели неправильного использования после развертывания, включая размещение на рынке. Публично сообщать о возможностях, ограничениях и областях передового ИИ-систем, а также об областях их надлежащего и ненадлежащего использования, чтобы обеспечить достаточную прозрачность и тем самым способствовать повышению подотчетности. Работайте над ответственным обменом информацией и отчетностью об инцидентах между организациями, разрабатывающими передовые системы искусственного интеллекта, в том числе с промышленностью, правительствами, гражданским обществом и научными кругами. Разрабатывайте, внедряйте и раскрывайте политики управления ИИ и управления рисками, основанные на подходе, основанном на оценке рисков, включая политики конфиденциальности и меры по смягчению последствий. Инвестируйте и внедряйте надежные средства контроля безопасности, включая физическую безопасность, кибербезопасность и защиту от внутренних угроз на протяжении всего жизненного цикла ИИ. Разработайте и внедрите надежные механизмы аутентификации и происхождения контента, где это технически возможно, такие как водяные знаки или другие методы, позволяющие пользователям идентифицировать контент, созданный ИИ. Приоритезируйте исследования по снижению социальных рисков, рисков безопасности и безопасности, а также отдайте приоритет инвестициям в эффективные меры по смягчению последствий. Уделяйте приоритетное внимание разработке передовых систем искусственного интеллекта для решения крупнейших мировых проблем, в частности, но не ограничиваясь климатическим кризисом, глобальным здравоохранением и образованием. Продвигать разработку и, при необходимости, принятие международных технических стандартов. Внедрить соответствующие меры по вводу данных и защите персональных данных и интеллектуальной собственности.

Что кодекс поведения ИИ G7 означает для бизнеса?

В идеале структура «Большой семерки» поможет обеспечить предприятиям простой и четко определенный путь соблюдения любых правил, с которыми они могут столкнуться в сфере использования ИИ. Кроме того, кодекс поведения обеспечивает практическую основу того, как организации могут подходить к использованию и созданию базовых моделей и других продуктов или приложений искусственного интеллекта для международного распространения. Кодекс поведения также дает бизнес-руководителям и сотрудникам более четкое понимание того, как выглядит этическое использование ИИ, и они могут использовать ИИ для создания позитивных изменений в мире.

Хотя этот документ предоставляет полезную информацию и рекомендации для стран «Большой семерки» и организаций, которые решили его использовать, кодекс поведения AI является добровольным и необязательным.

Каким будет следующий шаг после принятия Кодекса поведения ИИ G7?

Согласно заявлению Белого дома, следующим шагом для членов «Большой семерки» станет создание Комплексной политики Хиросимского процесса искусственного интеллекта к концу 2023 года. Согласно Хиросимскому процессу, G7 планирует в будущем «внедрить инструменты и механизмы мониторинга, которые помогут организациям нести ответственность за реализацию этих действий».

ПОСМОТРЕТЬ: Организациям, желающим внедрить политику этики ИИ, следует ознакомиться с загрузкой TechRepublic Premium.

«Мы (лидеры G7) считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, защищенные и заслуживающие доверия системы искусственного интеллекта проектируются, разрабатываются, развертываются и используются для максимизации преимуществ технологии при одновременном смягчении последствий. свои риски ради общего блага во всем мире», — говорится в заявлении Белого дома.

Другие международные правила и рекомендации по использованию ИИ.

Закон ЕС об искусственном интеллекте – это предлагаемый закон, который в настоящее время обсуждается в Парламенте Европейского Союза; Впервые он был представлен в апреле 2023 года, а в июне 2023 года в него были внесены поправки. Закон об ИИ создаст систему классификации, в соответствии с которой системы ИИ будут регулироваться в соответствии с возможными рисками. Организации, которые не соблюдают обязательства Закона, включая запреты, правильную классификацию или прозрачность, будут подвергнуты штрафам. Закон об искусственном интеллекте еще не принят.

26 октября премьер-министр Великобритании Риши Сунак объявил о планах создания Института безопасности ИИ, который будет оценивать риски, связанные с ИИ, и будет включать вклад нескольких стран, включая Китай.

Президент США Джо Байден 30 октября опубликовал указ, подробно описывающий руководящие принципы разработки и безопасности искусственного интеллекта.

1 и 2 ноября 2023 года Великобритания провела саммит по безопасности ИИ. На саммите Великобритания, США и Китай подписали декларацию, в которой говорится, что они будут работать вместе над разработкой и внедрением ИИ таким образом, чтобы он был «ориентирован на человека и заслуживал доверия». и ответственный». Репортаж TechRepublic об этом саммите можно найти здесь.

Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE