Правительство Великобритании представляет инструмент самооценки, который поможет предприятиям управлять использованием ИИ
8 ноября 2024 г.Правительство Великобритании запустило бесплатный инструмент самооценки, чтобы помочь предприятиям ответственно управлять использованием искусственного интеллекта.
Опросник предназначен для использования любой организацией, которая разрабатывает, предоставляет или использует услуги, использующие ИИ в рамках своих стандартных операций, но в первую очередь он предназначен для небольших компаний или стартапов. Результаты сообщат лицам, принимающим решения, о сильных и слабых сторонах их систем управления ИИ.
Как использовать Основы управления ИИ
Теперь доступная самооценка является одной из трех частей так называемого инструмента «AI Management Essentials». Другие две части включают в себя рейтинговую систему, которая дает обзор того, насколько хорошо бизнес управляет своим ИИ, а также набор пунктов действий и рекомендаций для организаций, которые следует рассмотреть. Ни один из них еще не был выпущен.
AIME основан на стандарте ISO/IEC 42001, структуре NIST и Законе ЕС об искусственном интеллекте. Вопросы для самооценки охватывают то, как компания использует ИИ, управляет своими рисками и является ли она прозрачной для заинтересованных сторон.
SEE: Задержка внедрения ИИ в Великобритании на пять лет может обойтись экономике в 150+ миллиардов фунтов стерлингов, говорится в отчете Microsoft
«Этот инструмент предназначен не для оценки самих продуктов или услуг ИИ, а скорее для оценки организационных процессов, которые обеспечивают ответственную разработку и использование этих продуктов», — говорится в отчете Департамента науки, инноваций и технологий.
При проведении самооценки следует получить мнения сотрудников, обладающих техническими и обширными деловыми знаниями, например, технического директора или инженера-программиста, а также менеджера по персоналу.
Правительство хочет включить самооценку в свою политику и рамки закупок, чтобы внедрить гарантии в частный сектор. Оно также хотело бы сделать ее доступной для покупателей из государственного сектора, чтобы помочь им принимать более обоснованные решения относительно ИИ.
6 ноября правительство открыло консультацию, приглашая предприятия предоставить обратную связь по самооценке, и результаты будут использованы для ее уточнения. Рейтинговая и рекомендательная части инструмента AIME будут опубликованы после окончания консультации 29 января 2025 года.
Самооценка — одна из многих запланированных государственных инициатив по обеспечению безопасности ИИ.
В документе, опубликованном на этой неделе, правительство заявило, что AIME станет одним из многих ресурсов, доступных на «платформе обеспечения ИИ», которую оно стремится разработать. Они помогут компаниям проводить оценки воздействия или проверять данные ИИ на предмет предвзятости.
Правительство также создает Терминологический инструмент для ответственного ИИ, чтобы определить и стандартизировать ключевые термины обеспечения ИИ для улучшения коммуникации и трансграничной торговли, особенно с США.
«Со временем мы создадим набор доступных инструментов, которые позволят внедрить базовую передовую практику для ответственной разработки и внедрения ИИ», — пишут авторы.
Правительство заявляет, что рынок обеспечения безопасности ИИ в Великобритании, сектор, который предоставляет инструменты для разработки или использования безопасности ИИ и в настоящее время включает 524 компании, увеличит экономику более чем на 6,5 млрд фунтов стерлингов в течение следующего десятилетия. Этот рост можно частично объяснить повышением общественного доверия к технологии.
В отчете также говорится, что правительство будет сотрудничать с Институтом безопасности ИИ, созданным бывшим премьер-министром Риши Сунаком на Саммите по безопасности ИИ в ноябре 2023 года, для продвижения обеспечения ИИ в стране. Оно также выделит финансирование на расширение программы грантов системной безопасности, которая в настоящее время располагает до 200 000 фунтов стерлингов для инициатив, которые развивают экосистему обеспечения ИИ.
Юридически обязательное законодательство о безопасности ИИ появится в следующем году
Тем временем Питер Кайл, технический секретарь Великобритании, на саммите Financial Times «Будущее ИИ» в среду пообещал сделать добровольное соглашение о тестировании безопасности ИИ юридически обязательным, внедрив законопроект об ИИ в следующем году.
На ноябрьском саммите по безопасности ИИ компании ИИ, включая OpenAI, Google DeepMind и Anthropic, добровольно согласились разрешить правительствам тестировать безопасность своих последних моделей ИИ перед их публичным выпуском. Впервые сообщалось, что Кайл озвучил свои планы по законодательному закреплению добровольных соглашений перед руководителями известных компаний ИИ на встрече в июле.
СМОТРИТЕ: OpenAI и Anthropic подписывают соглашения с Институтом безопасности искусственного интеллекта США, передавая модели Frontier для тестирования
Он также сказал, что законопроект об ИИ будет сосредоточен на крупных моделях фундамента в стиле ChatGPT, созданных несколькими компаниями, и превратит Институт безопасности ИИ из директората DSIT в «государственный орган, работающий на принципах вытянутой руки». По данным FT, Кайл повторил эти моменты на саммите на этой неделе, подчеркнув, что он хочет предоставить Институту «независимость, чтобы он мог действовать в полной мере в интересах граждан Великобритании».
Кроме того, он пообещал инвестировать в передовые вычислительные мощности для поддержки разработки передовых моделей искусственного интеллекта в Великобритании в ответ на критику по поводу отмены правительством в августе финансирования в размере 800 миллионов фунтов стерлингов для суперкомпьютера Эдинбургского университета.
СМОТРЕТЬ: Правительство Великобритании объявляет о выделении 32 млн фунтов стерлингов на проекты в области искусственного интеллекта после прекращения финансирования суперкомпьютеров
Кайл заявил, что, хотя правительство не может инвестировать 100 миллиардов фунтов стерлингов в одиночку, оно будет сотрудничать с частными инвесторами, чтобы обеспечить необходимое финансирование будущих инициатив.
Год в законодательстве Великобритании о безопасности искусственного интеллекта
За последний год было опубликовано множество законодательных актов, обязывающих Великобританию ответственно подходить к разработке и использованию ИИ.
30 октября 2023 года страны «Большой семерки», включая Великобританию, создали добровольный кодекс поведения в области ИИ, включающий 11 принципов, которые «способствуют развитию безопасного, надежного и заслуживающего доверия ИИ во всем мире».
Саммит по безопасности ИИ, на котором 28 стран взяли на себя обязательство обеспечить безопасную и ответственную разработку и развертывание, стартовал всего пару дней спустя. Позже в ноябре Национальный центр кибербезопасности Великобритании, Агентство кибербезопасности и безопасности инфраструктуры США и международные агентства из 16 других стран выпустили руководящие принципы по обеспечению безопасности при разработке новых моделей ИИ.
СМОТРИТЕ: Саммит по безопасности ИИ в Великобритании: мировые державы принимают «знаменательное» обязательство по безопасности ИИ
В марте страны G7 подписали еще одно соглашение, обязуясь исследовать, как ИИ может улучшить государственные услуги и стимулировать экономический рост. Соглашение также охватывало совместную разработку инструментария ИИ, чтобы гарантировать, что используемые модели безопасны и надежны. В следующем месяце тогдашнее консервативное правительство согласилось работать с США над разработкой тестов для передовых моделей ИИ, подписав Меморандум о взаимопонимании.
В мае правительство выпустило Inspect — бесплатную платформу тестирования с открытым исходным кодом, которая оценивает безопасность новых моделей ИИ, оценивая их основные знания, способность рассуждать и автономные возможности. Оно также стало соорганизатором еще одного саммита по безопасности ИИ в Сеуле, на котором Великобритания согласилась сотрудничать с мировыми странами в вопросах мер безопасности ИИ и объявила о выделении грантов на исследования по защите общества от его рисков в размере до 8,5 млн фунтов стерлингов.
Затем, в сентябре, Великобритания подписала первый в мире международный договор по ИИ вместе с ЕС, США и семью другими странами, обязывая их принять или поддерживать меры, гарантирующие, что использование ИИ будет соответствовать правам человека, демократии и закону.
И это еще не все; с помощью инструмента и отчета AIME правительство объявило о новом партнерстве по безопасности ИИ с Сингапуром через Меморандум о сотрудничестве. Оно также будет представлено на первой встрече международных институтов безопасности ИИ в Сан-Франциско в конце этого месяца.
Председатель Института безопасности ИИ Ян Хогарт сказал: «Эффективный подход к безопасности ИИ требует глобального сотрудничества. Вот почему мы уделяем такое внимание Международной сети институтов безопасности ИИ, одновременно укрепляя наши собственные исследовательские партнерства».
Однако США еще больше отошли от сотрудничества в области ИИ, приняв недавнюю директиву, ограничивающую обмен технологиями ИИ и требующую защиты от иностранного доступа к ресурсам ИИ.
Оригинал