
Компании, занимающиеся искусственным интеллектом, добровольно обязуются повысить безопасность и прозрачность, но могут игнорировать обещания, если захотят.
21 июля 2023 г.Сегодня администрация Байдена объявила, что она взяла на себя добровольные обязательства перед ведущими фирмами, занимающимися искусственным интеллектом, по управлению рисками, связанными с искусственным интеллектом.
Семь компаний, Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI, согласились улучшить безопасность, защищенность и прозрачность своих систем, в том числе разрешить проверку своих моделей сторонними экспертами.
«Компании, разрабатывающие эти новые технологии, несут ответственность за обеспечение безопасности своих продуктов», — говорится в заявлении Белого дома. TechRadar сказал. «Чтобы максимально использовать потенциал ИИ, администрация Байдена-Харриса поощряет эту отрасль поддерживать самые высокие стандарты, чтобы гарантировать, что инновации не будут осуществляться за счет прав и безопасности американцев».
Семь компаний сразу же согласились с несколькими конкретными проблемами, связанными с внедрением ИИ.
Во-первых, компании взяли на себя обязательство проводить внутреннее и внешнее тестирование безопасности своих систем ИИ перед тем, как они будут выпущены для широкой публики, а также обмениваться информацией с соответствующими игроками отрасли, правительствами, академическими кругами и общественностью, чтобы помочь управлять рисками ИИ.
Компании также обязуются инвестировать в кибербезопасность и средства контроля внутренних угроз, чтобы «защитить проприетарные и невыпущенные веса моделей», которые имеют решающее значение для работы моделей данных, лежащих в основе генеративного ИИ. Они также договорились содействовать проведению сторонних расследований и сообщать о любых пробелах в безопасности в системах.
Компании также договорились о мерах по повышению общественного доверия к своим системам, в том числе о разработке способа, позволяющего людям знать, когда они видят созданный ИИ контент, например водяных знаков или других мер. Компании также будут уделять первоочередное внимание исследованиям социальных рисков, которые представляют модели ИИ, включая расовые и другие формы предвзятости, которые могут привести к дискриминации, а также «защиту конфиденциальности».
Но из объявления ясно, что это по-прежнему строго добровольные меры со стороны участвующих компаний, и что, хотя некоторые из них могут выполнить свои обязательства, в настоящее время это должны сделать сами компании.
Возможно, появятся новые правила ИИ
Добровольные обязательства не могут заменить фактические обязательные к исполнению правила, которые предусматривают реальные последствия нарушений, которые не включены в сегодняшнее соглашение, но источник, близкий к этому вопросу, сообщил TechRadar, что новые правила ИИ не просто обсуждаются, а активно соблюдаются.
«Мы, безусловно, немного координируем свои действия с Конгрессом по ИИ, в целом», — сказали они. «Я думаю, мы знаем, что законодательство будет иметь решающее значение для установления правового и нормативного режима, обеспечивающего безопасность этих технологий».
Источник также сообщил, что в ближайшее время будут приняты исполнительные меры в отношении ИИ, хотя они не смогли уточнить, что именно это повлечет за собой.
«Я думаю, что основное внимание здесь уделяется тому, что делают компании», — сказали они. "Но я думаю, будет справедливо сказать, что это следующий шаг в нашем процессе. Это добровольное обязательство, [но] мы собираемся принять исполнительные меры и разработать исполнительные меры сейчас, когда вы увидите больше роли правительства".
Оригинал