OpenAI, Microsoft, Google и Anthropic запускают форум Frontier Model для продвижения безопасного ИИ
29 июля 2023 г.OpenAI, Google, Microsoft и Anthropic объявили о создании форума Frontier Model Forum. С помощью этой инициативы группа стремится содействовать разработке безопасных и ответственных моделей искусственного интеллекта путем выявления передового опыта и широкого обмена информацией в таких областях, как кибербезопасность.
Перейти к:
- Какова цель Frontier Model Forum?
Каковы основные цели Frontier Model Forum?
Каковы критерии членства в Frontier Model Forum?
Сотрудничество и критика практики и регулирования ИИ
Другие инициативы по безопасности ИИ
Какова цель Frontier Model Forum?
Цель форума Frontier Model Forum состоит в том, чтобы компании-участники предоставляли технические и операционные рекомендации для разработки общедоступной библиотеки решений для поддержки лучших отраслевых практик и стандартов. Стимулом для форума послужила необходимость установить «соответствующие ограждения… для снижения риска» по мере роста использования ИИ, говорится в заявлении компаний-участников.
Кроме того, на форуме говорится, что он «создаст надежные и безопасные механизмы для обмена информацией между компаниями, правительствами и соответствующими заинтересованными сторонами в отношении безопасности и рисков ИИ». Форум будет следовать передовым методам ответственного раскрытия информации в таких областях, как кибербезопасность.
ПОСМОТРЕТЬ: Microsoft Inspire 2023: Основные моменты и главные новости (TechRepublic)
Каковы основные цели Frontier Model Forum?
Форум определил четыре основные цели:
1. Продвижение исследований безопасности ИИ для содействия ответственной разработке передовых моделей, минимизации рисков и обеспечения независимых стандартизированных оценок возможностей и безопасности.
2. Выявление передового опыта ответственной разработки и развертывания передовых моделей, помогая общественности понять природу, возможности, ограничения и влияние технологии.
3. Сотрудничество с политиками, учеными, гражданским обществом и компаниями для обмена знаниями о рисках доверия и безопасности.
4. Поддержка усилий по разработке приложений, которые могут помочь решить самые большие проблемы общества, такие как смягчение последствий изменения климата и адаптация к ним, раннее выявление и профилактика рака, а также борьба с киберугрозами.
СМОТРЕТЬ: OpenAI нанимает исследователей для борьбы со «сверхинтеллектуальным» ИИ (TechRepublic)
Каковы критерии членства в Frontier Model Forum?
Чтобы стать участником форума, организации должны соответствовать ряду критериев:
- Они разрабатывают и внедряют предопределенные пограничные модели.
Они демонстрируют твердую приверженность безопасности пограничной модели.
Они демонстрируют готовность продвигать работу форума, поддерживая инициативы и участвуя в них.
Члены-учредители отметили в заявлениях в объявлении, что ИИ способен изменить общество, поэтому им надлежит обеспечить это ответственно посредством надзора и управления.
«Очень важно, чтобы компании, работающие с искусственным интеллектом, — особенно те, которые работают над самыми мощными моделями, — выстраивали общие позиции и продвигали продуманные и адаптируемые методы обеспечения безопасности, чтобы мощные инструменты искусственного интеллекта приносили максимально возможную пользу», — сказала Анна Маканджу, вице-президент по глобальным связям в OpenAI. По ее словам, повышение безопасности ИИ — это «неотложная работа», и форум «имеет хорошие возможности» для принятия быстрых мер.
«Компании, разрабатывающие технологию искусственного интеллекта, несут ответственность за то, чтобы она была безопасной, защищенной и оставалась под контролем человека», — сказал Брэд Смит, вице-председатель и президент Microsoft. «Эта инициатива является жизненно важным шагом для объединения технологического сектора в целях ответственного продвижения ИИ и решения проблем на благо всего человечества».
ПОСМОТРЕТЬ: Набор для найма: инженер-подсказчик (TechRepublic Premium)
Консультативный совет Frontier Model Forum
Будет создан консультативный совет для надзора за стратегиями и приоритетами, в который войдут представители разного происхождения. Компании-учредители также создадут устав, управление и финансирование с рабочей группой и исполнительным советом, чтобы возглавить эти усилия.
Совет будет сотрудничать с «гражданским обществом и правительствами» в разработке форума и обсуждении способов совместной работы.
Сотрудничество и критика практики и регулирования ИИ
Объявление Frontier Model Forum было сделано менее чем через неделю после того, как OpenAI, Google, Microsoft, Anthropic, Meta, Amazon и Inflection согласились со списком из восьми гарантий безопасности ИИ, составленным Белым домом. Эти недавние действия особенно интересны в свете недавних мер, принятых некоторыми из этих компаний в отношении практики и правил ИИ.
Например, в июне журнал Time сообщил, что OpenAI лоббировала ЕС. чтобы смягчить регулирование ИИ. Кроме того, формирование форума происходит через несколько месяцев после того, как Microsoft уволила свою команду по этике и обществу в рамках более крупного раунда увольнений, поставив под сомнение ее приверженность ответственным практикам ИИ.
«Упразднение команды вызывает опасения по поводу того, намерена ли Microsoft интегрировать свои принципы ИИ с дизайном продукта, поскольку организация стремится масштабировать эти инструменты ИИ и сделать их доступными для своих клиентов в своем наборе продуктов и услуг», — написал Рич Хейн в статья CMSWire за март 2023 г.
Другие инициативы по безопасности ИИ
Это не единственная инициатива, направленная на содействие развитию ответственных и безопасных моделей ИИ. В июне PepsiCo объявила, что начнет сотрудничество со Стэнфордским институтом искусственного интеллекта, ориентированного на человека, чтобы «обеспечить ответственное внедрение ИИ и положительное влияние на отдельного пользователя, а также на более широкое сообщество».
Вычислительный колледж им. Шварцмана при Массачусетском технологическом институте учредил Форум по политике в области ИИ, который представляет собой глобальную попытку сформулировать «конкретные рекомендации для правительств и компаний по решению возникающих проблем» ИИ, таких как конфиденциальность, справедливость, предвзятость, прозрачность и подотчетность.
Лаборатория безопасного ИИ Университета Карнеги-Меллона была создана для «разработки надежных, объяснимых, проверяемых и пригодных для всех методов искусственного интеллекта для последующих приложений».
Оригинал