OpenAI и Anthropic подписывают соглашения с Институтом безопасности искусственного интеллекта США, передавая модели Frontier для тестирования
31 августа 2024 г.OpenAI и Anthropic подписали соглашения с правительством США, предлагая свои передовые модели ИИ для тестирования и исследований безопасности. В четверг NIST объявил, что Институт безопасности ИИ США получит доступ к технологиям «до и после их публичного выпуска».
Благодаря соответствующим Меморандумам о взаимопонимании (не имеющим юридической силы соглашениям), подписанным двумя гигантами в области искусственного интеллекта, AISI может оценивать возможности своих моделей, а также выявлять и минимизировать любые риски для безопасности.
AISI, официально созданная NIST в феврале 2024 года, фокусируется на приоритетных действиях, изложенных в Исполнительном указе AI о безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта, выпущенном в октябре 2023 года. Эти действия включают разработку стандартов безопасности и защиты систем AI. Группу поддерживает Консорциум AI Safety Institute, членами которого являются Meta, OpenAI, NVIDIA, Google, Amazon и Microsoft.
Элизабет Келли, директор AISI, заявила в пресс-релизе: «Безопасность имеет решающее значение для подпитки прорывных технологических инноваций. С этими соглашениями мы с нетерпением ждем начала нашего технического сотрудничества с Anthropic и OpenAI для продвижения науки безопасности ИИ.
«Эти соглашения — только начало, но они представляют собой важную веху в нашей работе по содействию ответственному управлению будущим ИИ».
SEE: Определение генеративного ИИ: как это работает, преимущества и опасности
Джек Кларк, соучредитель и руководитель отдела политики Anthropic, сообщил TechRepublic по электронной почте: «Безопасный, заслуживающий доверия ИИ имеет решающее значение для положительного влияния технологии. Наше сотрудничество с Институтом безопасности ИИ США использует их обширный опыт для тщательного тестирования наших моделей перед их широким внедрением.
«Это укрепляет нашу способность выявлять и смягчать риски, способствуя ответственной разработке ИИ. Мы гордимся тем, что вносим свой вклад в эту важную работу, устанавливая новые стандарты для безопасного и надежного ИИ».
Джейсон Квон, директор по стратегии OpenAI, сообщил TechRepublic по электронной почте: «Мы решительно поддерживаем миссию Института безопасности искусственного интеллекта США и с нетерпением ждем совместной работы по информированию о передовых методах и стандартах безопасности для моделей искусственного интеллекта.
«Мы считаем, что институт призван сыграть решающую роль в определении лидерства США в ответственной разработке искусственного интеллекта, и надеемся, что наша совместная работа создаст основу, на которой остальной мир сможет строить дальнейшие разработки».
AISI будет сотрудничать с Британским институтом безопасности искусственного интеллекта
AISI также планирует сотрудничать с Институтом безопасности ИИ Великобритании при предоставлении обратной связи по вопросам безопасности для OpenAI и Anthropic. В апреле две страны официально согласились работать вместе над разработкой тестов безопасности для моделей ИИ.
Это соглашение было принято в целях выполнения обязательств, принятых на первом глобальном саммите по безопасности ИИ в ноябре прошлого года, где правительства со всего мира приняли на себя ответственность за тестирование безопасности следующего поколения моделей ИИ.
После заявления, сделанного в четверг, Джек Кларк, соучредитель и руководитель отдела политики компании Anthropic, написал в X: «Стороннее тестирование — действительно важная часть экосистемы ИИ, и удивительно видеть, как правительства создают институты безопасности для содействия этому процессу.
«Эта работа с AISI США будет основываться на более ранней работе, которую мы проделали в этом году, когда мы сотрудничали с AISI Великобритании с целью проведения предварительного тестирования Sonnet 3.5».
Claude 3.5 Sonnet — новейшая модель искусственного интеллекта компании Anthropic, выпущенная в июне.
После выпуска ChatGPT компании ИИ и регулирующие органы столкнулись из-за необходимости строгих правил ИИ, причем первые настаивали на мерах защиты от таких рисков, как дезинформация, а вторые утверждали, что чрезмерно строгие правила могут подавить инновации. Ведущие игроки Кремниевой долины выступали за добровольную структуру, которая позволила бы правительству контролировать их технологии ИИ, а не за строгие нормативные требования.
Подход США на национальном уровне был более дружественным к отрасли, фокусируясь на добровольных рекомендациях и сотрудничестве с технологическими компаниями, как видно из таких инициатив с легким прикосновением, как Билль о правах ИИ и Исполнительный указ ИИ. Напротив, ЕС пошел по более строгому пути регулирования с Законом об ИИ, установив правовые требования к прозрачности и управлению рисками.
Несколько расходясь с национальной точкой зрения на регулирование ИИ, в среду Ассамблея штата Калифорния приняла Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта, также известный как SB-1047 или Закон Калифорнии об ИИ. На следующий день он был одобрен Сенатом штата, и теперь его должен одобрить только губернатор Гэвин Ньюсом, прежде чем он вступит в силу.
Компании-приверженцы Кремниевой долины OpenAI, Meta и Google направили письма законодателям Калифорнии, в которых выразили свою обеспокоенность по поводу законопроекта SB-1047 и подчеркнули необходимость более осторожного подхода, чтобы не препятствовать развитию технологий искусственного интеллекта.
СМОТРИТЕ: OpenAI, Microsoft и Adobe поддерживают законопроект Калифорнии о водяных знаках ИИ
После объявления в четверг о соглашении его компании с AISI США, Сэм Альтман, генеральный директор OpenAI, написал на X, что он считает «важным, чтобы это произошло на национальном уровне», сделав хитрую подколку в адрес калифорнийского SB-1047. Нарушение законодательства на уровне штата повлечет за собой штрафы, в отличие от добровольного Меморандума о взаимопонимании.
Тем временем Британский институт безопасности искусственного интеллекта сталкивается с финансовыми трудностями
После перехода руководства от консерваторов к лейбористам в начале июля правительство Великобритании внесло ряд заметных изменений в свой подход к ИИ.
По данным источников Reuters, компания отменила офис, который планировалось открыть в Сан-Франциско этим летом, и который должен был укрепить отношения между Великобританией и титанами ИИ из Bay Area. Сообщается также, что министр технологий Питер Кайл уволил старшего политического советника и соучредителя британского AISI Нитаршана Раджкумара.
СМОТРЕТЬ: Правительство Великобритании объявляет о выделении 32 млн фунтов стерлингов на проекты в области искусственного интеллекта после прекращения финансирования суперкомпьютеров
Источники Reuters добавили, что Кайл планирует сократить прямые инвестиции правительства в отрасль. Действительно, в начале этого месяца правительство отложило финансирование на сумму 1,3 млрд фунтов стерлингов, которое было выделено на ИИ и технологические инновации.
В июле канцлер Рэйчел Ривз заявила, что государственные расходы могут превысить бюджет на 22 млрд фунтов стерлингов, и немедленно объявила о сокращении на 5,5 млрд фунтов стерлингов, в том числе в Фонде инвестиционных возможностей, который поддерживал проекты в цифровом и технологическом секторах.
За несколько дней до выступления канцлера лейбористы назначили технологического предпринимателя Мэтта Клиффорда для разработки «Плана действий по возможностям ИИ», который определит, как ИИ может быть наилучшим образом использован на национальном уровне для повышения эффективности и сокращения расходов. Его рекомендации должны быть опубликованы в сентябре.
По данным источников Reuters, на прошлой неделе Клиффорд встретился с десятью представителями известных венчурных компаний, чтобы обсудить этот план, в том числе то, как правительство может внедрить ИИ для улучшения государственных услуг, поддержать компании, отделившиеся от университетов, и упростить для стартапов процесс найма сотрудников на международном уровне.
Однако за кулисами обстановка отнюдь не спокойная, поскольку один из участников сообщил агентству Reuters, что они «подчеркивают, что у них всего месяц, чтобы пересмотреть результаты проверки».
Оригинал