Великобритания и США договорились о сотрудничестве в разработке тестов безопасности для моделей искусственного интеллекта
6 апреля 2024 г.Правительство Великобритании официально согласилось работать с США над разработкой тестов для передовых моделей искусственного интеллекта. Меморандум о взаимопонимании, который не является юридически обязывающим соглашением, был подписан 1 апреля 2024 года министром технологий Великобритании Мишель Донелан и министром торговли США Джиной Раймондо (рис. A).
Рисунок А
Обе страны теперь будут «согласовывать свои научные подходы» и работать вместе, чтобы «ускорить и быстро повторить надежные наборы оценок для моделей, систем и агентов ИИ». Это действие предпринимается для выполнения обязательств, взятых на первом глобальном саммите по безопасности ИИ в ноябре прошлого года, где правительства со всего мира признали свою роль в тестировании безопасности следующего поколения моделей ИИ.
Какие инициативы в области искусственного интеллекта были согласованы Великобританией и США?
В Меморандуме о взаимопонимании Великобритания и США договорились о том, как они будут выстраивать общий подход к тестированию безопасности ИИ и делиться своими разработками друг с другом. В частности, это будет включать в себя:
- Разработка общего процесса оценки безопасности моделей ИИ.
Проведение хотя бы одного совместного тестирования общедоступной модели.
Сотрудничество в технических исследованиях безопасности ИИ, как для расширения коллективных знаний о моделях ИИ, так и для обеспечения согласованности любых новых политик.
Обмен персоналом между соответствующими институтами.
Обмен информацией обо всех мероприятиях, проводимых в соответствующих институтах.
Работа с правительствами других стран над разработкой стандартов ИИ, включая безопасность.
«Благодаря нашему сотрудничеству наши институты смогут лучше понять системы искусственного интеллекта, проводить более надежные оценки и давать более строгие рекомендации», — заявил госсекретарь Раймондо в своем заявлении.
СМОТРИТЕ: Узнайте, как использовать искусственный интеллект для вашего бизнеса (Академия TechRepublic)
Меморандум о взаимопонимании в первую очередь касается продвижения вперед планов, разработанных Институтами безопасности ИИ в Великобритании и США. Исследовательский центр Великобритании был открыт на Саммите по безопасности ИИ с тремя основными целями: оценка существующих систем ИИ, проведение фундаментальных исследований безопасности ИИ и обмен информацией с другими национальными и международными субъектами. Такие компании, как OpenAI, Meta и Microsoft, согласились провести независимую проверку своих последних моделей генеративного ИИ в британском AISI.
Аналогичным образом, AISI США, официально учрежденный NIST в феврале 2024 года, был создан для работы над приоритетными действиями, изложенными в Исполнительном указе AI, изданном в октябре 2023 года; эти действия включают разработку стандартов безопасности и защищенности систем искусственного интеллекта. AISI в США поддерживается Консорциумом Института безопасности искусственного интеллекта, в состав которого входят Meta, OpenAI, NVIDIA, Google, Amazon и Microsoft.
Приведет ли это к регулированию компаний, занимающихся искусственным интеллектом?
Хотя ни AISI Великобритании, ни США не являются регулирующими органами, результаты их совместных исследований, вероятно, повлияют на будущие изменения в политике. По заявлению правительства Великобритании, его AISI «предоставит фундаментальную информацию о нашем режиме управления», а учреждение в США «разработает техническое руководство, которое будет использоваться регулирующими органами».
Европейский Союз, возможно, все еще на шаг впереди, поскольку 13 марта 2024 года был принят его знаковый Закон об искусственном интеллекте. В законодательстве излагаются меры, призванные обеспечить безопасное и этичное использование искусственного интеллекта, а также другие правила, касающиеся искусственного интеллекта для распознавания лиц и прозрачности. .
SEE: Большинство специалистов по кибербезопасности ожидают, что ИИ повлияет на их работу
Большинство крупных технологических игроков, включая OpenAI, Google, Microsoft и Anthropic, базируются в США, где в настоящее время не существует жестких правил, которые могли бы ограничить их деятельность в области ИИ. Октябрьский EO действительно содержит рекомендации по использованию и регулированию ИИ, и с момента его подписания были предприняты положительные шаги; однако это законодательство не является законом. Структура управления рисками ИИ, утвержденная NIST в январе 2023 года, также является добровольной.
Фактически, эти крупные технологические компании в основном отвечают за саморегулирование, и в прошлом году они запустили Frontier Model Forum, чтобы установить свои собственные «ограждения» для снижения риска ИИ.
Что думают эксперты по искусственному интеллекту и юристам о тестировании на безопасность?
Регулирование ИИ должно быть приоритетом
Создание AISI Великобритании не было повсеместно популярным способом удержать бразды правления ИИ в стране. В феврале исполнительный директор Faculty AI — компании, сотрудничающей с институтом, — заявил, что разработка надежных стандартов может быть более разумным использованием государственных ресурсов вместо попыток проверить каждую модель искусственного интеллекта.
«Я думаю, что важно, чтобы он устанавливал стандарты для всего мира, а не пытался делать все сам», — сказал Марк Уорнер The Guardian.
Аналогичной точки зрения придерживаются эксперты в области технологического права, когда речь заходит о Меморандуме о взаимопонимании на этой неделе. «В идеале усилия стран было бы гораздо лучше направить на разработку жестких правил, а не на исследования», — сказал TechRepublic по электронной почте Арон Соломон, юридический аналитик и директор по стратегии агентства юридического маркетинга Amplify.
«Но проблема вот в чем: немногие законодатели — я бы сказал, особенно в Конгрессе США — имеют хоть сколько-нибудь глубину понимания ИИ, чтобы регулировать его.
Соломон добавил: «Нам следует уйти, а не вступать в период необходимого глубокого изучения, когда законодатели действительно сосредоточивают свое коллективное внимание на том, как работает ИИ и как он будет использоваться в будущем. Но, как показал недавний разгром в США, когда законодатели пытаются объявить TikTok вне закона, они, как группа, не разбираются в технологиях, поэтому у них нет хороших возможностей для разумного их регулирования.
«Это ставит нас в трудное положение, в котором мы находимся сегодня. ИИ развивается гораздо быстрее, чем регулирующие органы могут регулировать. Но отсрочка регулирования в пользу чего-либо еще на данном этапе — это отсрочка неизбежного».
Действительно, поскольку возможности моделей ИИ постоянно меняются и расширяются, тесты безопасности, проводимые двумя институтами, должны будут делать то же самое. «Некоторые злоумышленники могут попытаться обойти тесты или неправильно использовать возможности ИИ двойного назначения», — сообщил TechRepublic по электронной почте Кристоф Цемпер, главный исполнительный директор платформы оперативного управления AIPRM. К двойному использованию относятся технологии, которые могут использоваться как в мирных, так и во враждебных целях.
Цемпер сказал: «Хотя тестирование может выявить проблемы с технической безопасностью, оно не заменяет необходимость в руководящих принципах по вопросам этики, политики и управления… В идеале правительства двух стран будут рассматривать тестирование как начальный этап в продолжающемся совместном процессе».
SEE: Согласно исследованию Национального центра кибербезопасности, генеративный искусственный интеллект может увеличить глобальную угрозу программ-вымогателей.
Для эффективного регулирования ИИ необходимы исследования
По мнению доктора Кьелла Карлссона, хотя добровольных руководящих принципов может оказаться недостаточно, чтобы спровоцировать какие-либо реальные изменения в деятельности технологических гигантов, жесткое законодательство может задушить прогресс в области искусственного интеллекта, если его не принять должным образом.
Бывший аналитик ML/AI и нынешний руководитель отдела стратегии Domino Data Lab рассказал TechRepublic в электронном письме: «Сегодня существуют области, связанные с ИИ, где вред является реальной и растущей угрозой. Это такие области, как мошенничество и киберпреступность, где регулирование обычно существует, но неэффективно.
«К сожалению, немногие из предлагаемых правил ИИ, такие как Закон ЕС об ИИ, предназначены для эффективной борьбы с этими угрозами, поскольку они в основном ориентированы на коммерческие предложения ИИ, которые преступники не используют. Таким образом, многие из этих мер регулирования нанесут ущерб инновациям и увеличат затраты, мало что делая для повышения фактической безопасности».
Поэтому многие эксперты считают, что определение приоритетов исследований и сотрудничества более эффективно, чем поспешное введение правил в Великобритании и США.
Доктор Карлссон сказал: «Регулирование работает, когда речь идет о предотвращении установленного вреда от известных случаев использования. Однако сегодня большинство вариантов использования ИИ еще не раскрыты, и почти весь вред является гипотетическим. Напротив, существует невероятная потребность в исследованиях того, как эффективно тестировать, снижать риски и обеспечивать безопасность моделей ИИ.
«Таким образом, создание и финансирование этих новых институтов безопасности ИИ, а также усилия по международному сотрудничеству являются отличными общественными инвестициями не только для обеспечения безопасности, но и для повышения конкурентоспособности фирм в США и Великобритании».
Оригинал