Британский институт безопасности искусственного интеллекта запускает платформу тестирования с открытым исходным кодом

17 мая 2024 г.

Британский институт безопасности ИИ выпустил бесплатную платформу тестирования с открытым исходным кодом, которая оценивает безопасность новых моделей ИИ. Набор инструментов, получивший название Inspect, должен обеспечить «последовательный подход» к созданию безопасных приложений искусственного интеллекта по всему миру.

Inspect — это первая платформа для тестирования безопасности искусственного интеллекта, созданная государственной организацией и доступная для свободного доступа общественности. В конечном итоге это ускорит разработку безопасных моделей искусственного интеллекта и эффективность тестирования безопасности.

Как использовать библиотеку программного обеспечения Inspect

Библиотека программного обеспечения Inspect, запущенная 10 мая, может использоваться для стандартизированной оценки безопасности функций модели ИИ, включая ее основные знания, способность рассуждать и автономные возможности. Inspect выставляет оценку на основе своих выводов, показывая, насколько безопасна модель и насколько эффективна была оценка.

Поскольку исходный код Inspect открыт, глобальное сообщество тестировщиков ИИ, включая предприятия, исследовательские центры и правительства, может интегрировать его со своими моделями и быстрее и проще получать важную информацию о безопасности.

СМОТРЕТЬ: 5 главных тенденций в области искусственного интеллекта, за которыми стоит следить в 2024 году

Председатель Института безопасности искусственного интеллекта Ян Хогарт сказал, что команда Inspect была вдохновлена ​​ведущими разработчиками искусственного интеллекта с открытым исходным кодом на создание строительного блока для «общего, доступного подхода к оценкам».

В пресс-релизе он сказал: «Мы надеемся, что глобальное сообщество ИИ будет использовать Inspect не только для проведения собственных испытаний на безопасность моделей, но и для помощи в адаптации и развитии платформы с открытым исходным кодом, чтобы мы могли производить высококачественные оценки по всему миру». доска."

Госсекретарь по науке, инновациям и технологиям Мишель Донелан добавила, что безопасный искусственный интеллект улучшит различные сектора в Великобритании, от «нашей Национальной службы здравоохранения до нашей транспортной сети».

AISI вместе с экспертной группой «Инкубатор искусственного интеллекта» и офисом премьер-министра Риши Сунака также набирает таланты в области ИИ для тестирования и разработки новых инструментов безопасности ИИ с открытым исходным кодом.

Проверка: что нужно знать разработчикам

Руководство по использованию набора инструментов Inspect в его базовой форме можно найти на GitHub правительства Великобритании. Однако программное обеспечение поставляется с лицензией MIT, которая позволяет его копировать, изменять, объединять, публиковать, распространять, продавать и сублицензировать; это означает, что любой может изменить или добавить в сценарий новые методы тестирования с помощью сторонних пакетов Python, чтобы улучшить его возможности.

Разработчикам, желающим использовать Inspect, сначала необходимо установить его и убедиться, что у них есть доступ к модели искусственного интеллекта. Затем они могут создать сценарий оценки с использованием платформы Inspect и запустить его на выбранной ими модели.

Inspect оценивает безопасность моделей ИИ, используя три основных компонента:

    Наборы данных с примерами сценариев тестирования для оценки, включая подсказки и целевые результаты. Решатели, которые выполняют тестовые сценарии с помощью подсказки. Счетчики, которые анализируют результаты решателей и генерируют оценку.

Доступ к исходному коду можно получить через репозиторий GitHub правительства Великобритании.

Что говорят об Inspect эксперты

Общая реакция на объявление Великобритании о создании Inspect была положительной. Генеральный директор сообщества AI-платформы Hugging Face Клеман Деланг написал на X, что он заинтересован в создании «публичной таблицы лидеров с результатами оценок» различных моделей. Такая таблица лидеров могла бы одновременно продемонстрировать самые безопасные ИИ и побудить разработчиков использовать Inspect, чтобы их модели могли ранжироваться.

Linux Foundation Europe также сообщил, что открытый исходный код Inspect «идеально соответствует нашему призыву к большему количеству инноваций с открытым исходным кодом в государственном секторе». Дебора Раджи, научный сотрудник Mozilla и специалист по этике ИИ, назвала это «свидетельством силы государственных инвестиций в инструменты с открытым исходным кодом для подотчетности ИИ» в отношении X.

Великобритания движется к более безопасному искусственному интеллекту

Британский AISI был запущен на Саммите по безопасности ИИ в ноябре 2023 года с тремя основными целями: оценка существующих систем ИИ, проведение фундаментальных исследований в области безопасности ИИ и обмен информацией с другими национальными и международными субъектами. Вскоре после саммита Национальный центр кибербезопасности Великобритании совместно с 17 другими международными агентствами опубликовал рекомендации по безопасности систем искусственного интеллекта.

В условиях стремительного развития технологий искусственного интеллекта, произошедшего за последние два года, существует острая необходимость установить и обеспечить соблюдение надежных стандартов безопасности искусственного интеллекта для предотвращения таких проблем, как предвзятость, галлюцинации, нарушение конфиденциальности, нарушение прав интеллектуальной собственности и преднамеренное неправильное использование, которые могут иметь более широкие социальные и экономические последствия. .

СМОТРИТЕ: Определение генеративного искусственного интеллекта: как он работает, преимущества и опасности

В октябре 2023 года страны «Большой семерки», включая Великобританию, опубликовали Кодекс поведения в области искусственного интеллекта «Хиросима», который представляет собой подход, основанный на риске, который направлен на «продвижение безопасного, надежного и заслуживающего доверия искусственного интеллекта во всем мире и предоставит добровольное руководство для действий организаций». разработку самых передовых систем искусственного интеллекта».

В марте этого года страны «Большой семерки» подписали соглашение, обязующееся изучить, как искусственный интеллект может улучшить государственные услуги и стимулировать экономический рост. Также обсуждалась совместная разработка набора инструментов ИИ для информирования политиков и обеспечения безопасности и надежности ИИ, используемого службами государственного сектора.

В следующем месяце правительство Великобритании официально согласилось работать с США над разработкой тестов для передовых моделей искусственного интеллекта. Обе страны согласились «согласовать свои научные подходы» и работать вместе, чтобы «ускорить и быстро повторить надежные наборы оценок для моделей, систем и агентов ИИ».

Это действие было предпринято для выполнения обязательств, взятых на первом глобальном саммите по безопасности ИИ, на котором правительства всего мира признали свою роль в тестировании безопасности моделей ИИ следующего поколения.

Подпишитесь на информационный бюллетень TechRepublic UK Следите за важными технологическими новостями недели, обязательными к прочтению публикациями и дискуссиями, которые будут интересны ИТ-специалистам, работающим в Великобритании и Европе. Доставка по средам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на информационный бюллетень TechRepublic UK Следите за важными технологическими новостями недели, обязательными к прочтению публикациями и дискуссиями, которые будут интересны ИТ-специалистам, работающим в Великобритании и Европе. Доставка по средам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE