OpenAI, Microsoft, Google и Anthropic запускают форум Frontier Model для продвижения безопасного ИИ

OpenAI, Microsoft, Google и Anthropic запускают форум Frontier Model для продвижения безопасного ИИ

29 июля 2023 г.
Цель форума — установить «ограждения» для снижения риска ИИ. Узнайте о четырех основных целях группы, а также о критериях членства.

OpenAI, Google, Microsoft и Anthropic объявили о создании форума Frontier Model Forum. С помощью этой инициативы группа стремится содействовать разработке безопасных и ответственных моделей искусственного интеллекта путем выявления передового опыта и широкого обмена информацией в таких областях, как кибербезопасность.

Перейти к:

    Какова цель Frontier Model Forum? Каковы основные цели Frontier Model Forum? Каковы критерии членства в Frontier Model Forum? Сотрудничество и критика практики и регулирования ИИ Другие инициативы по безопасности ИИ

Какова цель Frontier Model Forum?

Цель форума Frontier Model Forum состоит в том, чтобы компании-участники предоставляли технические и операционные рекомендации для разработки общедоступной библиотеки решений для поддержки лучших отраслевых практик и стандартов. Стимулом для форума послужила необходимость установить «соответствующие ограждения… для снижения риска» по мере роста использования ИИ, говорится в заявлении компаний-участников.

Кроме того, на форуме говорится, что он «создаст надежные и безопасные механизмы для обмена информацией между компаниями, правительствами и соответствующими заинтересованными сторонами в отношении безопасности и рисков ИИ». Форум будет следовать передовым методам ответственного раскрытия информации в таких областях, как кибербезопасность.

ПОСМОТРЕТЬ: Microsoft Inspire 2023: Основные моменты и главные новости (TechRepublic)

Каковы основные цели Frontier Model Forum?

Форум определил четыре основные цели:

1. Продвижение исследований безопасности ИИ для содействия ответственной разработке передовых моделей, минимизации рисков и обеспечения независимых стандартизированных оценок возможностей и безопасности.

2. Выявление передового опыта ответственной разработки и развертывания передовых моделей, помогая общественности понять природу, возможности, ограничения и влияние технологии.

3. Сотрудничество с политиками, учеными, гражданским обществом и компаниями для обмена знаниями о рисках доверия и безопасности.

4. Поддержка усилий по разработке приложений, которые могут помочь решить самые большие проблемы общества, такие как смягчение последствий изменения климата и адаптация к ним, раннее выявление и профилактика рака, а также борьба с киберугрозами.

СМОТРЕТЬ: OpenAI нанимает исследователей для борьбы со «сверхинтеллектуальным» ИИ (TechRepublic)

Каковы критерии членства в Frontier Model Forum?

Чтобы стать участником форума, организации должны соответствовать ряду критериев:

    Они разрабатывают и внедряют предопределенные пограничные модели. Они демонстрируют твердую приверженность безопасности пограничной модели. Они демонстрируют готовность продвигать работу форума, поддерживая инициативы и участвуя в них.

Члены-учредители отметили в заявлениях в объявлении, что ИИ способен изменить общество, поэтому им надлежит обеспечить это ответственно посредством надзора и управления.

«Очень важно, чтобы компании, работающие с искусственным интеллектом, — особенно те, которые работают над самыми мощными моделями, — выстраивали общие позиции и продвигали продуманные и адаптируемые методы обеспечения безопасности, чтобы мощные инструменты искусственного интеллекта приносили максимально возможную пользу», — сказала Анна Маканджу, вице-президент по глобальным связям в OpenAI. По ее словам, повышение безопасности ИИ — это «неотложная работа», и форум «имеет хорошие возможности» для принятия быстрых мер.

«Компании, разрабатывающие технологию искусственного интеллекта, несут ответственность за то, чтобы она была безопасной, защищенной и оставалась под контролем человека», — сказал Брэд Смит, вице-председатель и президент Microsoft. «Эта инициатива является жизненно важным шагом для объединения технологического сектора в целях ответственного продвижения ИИ и решения проблем на благо всего человечества».

ПОСМОТРЕТЬ: Набор для найма: инженер-подсказчик (TechRepublic Premium)

Консультативный совет Frontier Model Forum

Будет создан консультативный совет для надзора за стратегиями и приоритетами, в который войдут представители разного происхождения. Компании-учредители также создадут устав, управление и финансирование с рабочей группой и исполнительным советом, чтобы возглавить эти усилия.

Совет будет сотрудничать с «гражданским обществом и правительствами» в разработке форума и обсуждении способов совместной работы.

Сотрудничество и критика практики и регулирования ИИ

Объявление Frontier Model Forum было сделано менее чем через неделю после того, как OpenAI, Google, Microsoft, Anthropic, Meta, Amazon и Inflection согласились со списком из восьми гарантий безопасности ИИ, составленным Белым домом. Эти недавние действия особенно интересны в свете недавних мер, принятых некоторыми из этих компаний в отношении практики и правил ИИ.

Например, в июне журнал Time сообщил, что OpenAI лоббировала ЕС. чтобы смягчить регулирование ИИ. Кроме того, формирование форума происходит через несколько месяцев после того, как Microsoft уволила свою команду по этике и обществу в рамках более крупного раунда увольнений, поставив под сомнение ее приверженность ответственным практикам ИИ.

«Упразднение команды вызывает опасения по поводу того, намерена ли Microsoft интегрировать свои принципы ИИ с дизайном продукта, поскольку организация стремится масштабировать эти инструменты ИИ и сделать их доступными для своих клиентов в своем наборе продуктов и услуг», — написал Рич Хейн в статья CMSWire за март 2023 г.

Другие инициативы по безопасности ИИ

Это не единственная инициатива, направленная на содействие развитию ответственных и безопасных моделей ИИ. В июне PepsiCo объявила, что начнет сотрудничество со Стэнфордским институтом искусственного интеллекта, ориентированного на человека, чтобы «обеспечить ответственное внедрение ИИ и положительное влияние на отдельного пользователя, а также на более широкое сообщество».

Вычислительный колледж им. Шварцмана при Массачусетском технологическом институте учредил Форум по политике в области ИИ, который представляет собой глобальную попытку сформулировать «конкретные рекомендации для правительств и компаний по решению возникающих проблем» ИИ, таких как конфиденциальность, справедливость, предвзятость, прозрачность и подотчетность.

Лаборатория безопасного ИИ Университета Карнеги-Меллона была создана для «разработки надежных, объяснимых, проверяемых и пригодных для всех методов искусственного интеллекта для последующих приложений».


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE