Британский саммит по безопасности ИИ: мировые державы дают «знаковое» обещание обеспечить безопасность ИИ
3 ноября 2023 г.Представители 28 стран и технологических компаний собрались в историческом месте Блетчли-Парк в Великобритании на Саммит по безопасности искусственного интеллекта, который состоялся 1-2 ноября 2023 года.
Первый день саммита завершился подписанием «знаковой» декларации Блетчли о безопасности ИИ, которая обязывает 28 стран-участниц, включая Великобританию, США и Китай, совместно управлять и снижать риски, связанные с искусственным интеллектом, обеспечивая при этом безопасное и ответственное развитие и развертывание.
Во второй и последний день саммита правительства и ведущие организации, занимающиеся искусственным интеллектом, согласовали новый план безопасного тестирования передовых технологий искусственного интеллекта, который включает участие правительства в тестировании моделей до и после развертывания.
Перейти к:
- Что такое Саммит по безопасности ИИ?
Кто присутствовал на саммите по безопасности ИИ?
Что такое Декларация Блетчли о безопасности ИИ?
Как правительства будут тестировать новые модели ИИ?
Как эксперты реагируют на AI Safety Summit?
Почему безопасность ИИ важна?
Как Великобритания инвестировала в искусственный интеллект?
Что такое Саммит по безопасности ИИ?
Саммит по безопасности ИИ — это крупная конференция, которая пройдет 1 и 2 ноября 2023 года в Бакингемшире, Великобритания. Она объединила международные правительства, технологические компании и научные круги, чтобы рассмотреть риски ИИ «на переднем крае развития» и обсудить, как эти риски могут быть устранены. смягчены совместными глобальными усилиями.
В первый день Саммита по безопасности ИИ состоялась серия выступлений лидеров бизнеса и ученых, направленных на содействие более глубокому пониманию передового ИИ. Это включало ряд обсуждений за круглым столом с «ключевыми разработчиками», включая OpenAI, Anthropic и британскую компанию Google DeepMind, в которых основное внимание уделялось тому, как можно определить пороговые значения риска, эффективные оценки безопасности и надежные механизмы управления и подотчетности.
СМОТРИ: Шпаргалка ChatGPT: полное руководство на 2023 год (TechRepublic)
В первый день саммита также состоялось виртуальное обращение короля Карла III, который назвал ИИ одним из «величайших технологических прорывов человечества» и подчеркнул потенциал этой технологии в преобразовании здравоохранения и различных других аспектов жизни. Британский монарх призвал к надежной международной координации и сотрудничеству, чтобы искусственный интеллект оставался безопасной и полезной технологией.
Кто присутствовал на саммите по безопасности ИИ?
Среди участников саммита по безопасности ИИ были представители Института Алана Тьюринга, Стэнфордского университета, Организации экономического сотрудничества и развития и Института Ады Лавлейс, а также такие технологические компании, как Google, Microsoft, IBM, Meta и AWS. таких лидеров, как глава SpaceX Илон Маск. На встрече также присутствовала вице-президент США Камала Харрис.
Что такое Декларация Блетчли о безопасности ИИ?
В Декларации Блетчли говорится, что разработчики передовых и потенциально опасных технологий искусственного интеллекта несут значительную ответственность за обеспечение безопасности своих систем посредством строгих протоколов тестирования и мер безопасности для предотвращения неправильного использования и несчастных случаев.
В нем также подчеркивается необходимость найти общую основу для понимания рисков ИИ и развития международного исследовательского партнерства в области безопасности ИИ, признавая при этом, что «существует потенциал серьезного, даже катастрофического вреда, как преднамеренного, так и непреднамеренного, вытекающего из наиболее значительных возможностей этих моделей ИИ». ».
Премьер-министр Великобритании Риши Сунак назвал подписание декларации «знаковым достижением, благодаря которому величайшие мировые державы в области ИИ пришли к согласию относительно срочности понимания рисков, связанных с ИИ».
В письменном заявлении Сунак сказал: «Под руководством Великобритании более двадцати пяти стран на Саммите по безопасности ИИ заявили о своей общей ответственности за устранение рисков ИИ и развитие жизненно важного международного сотрудничества в области передовой безопасности и исследований ИИ.
«Великобритания снова лидирует в мире на этом новом технологическом фронте, начав этот диалог, в ходе которого мы будем работать вместе, чтобы сделать ИИ безопасным и реализовать все его преимущества для будущих поколений». (Правительство Великобритании назвало передовые системы искусственного интеллекта, которые могут представлять пока неизвестные риски для общества, «передовым ИИ».)
Реакция экспертов на декларацию Блетчли
Хотя правительство Великобритании неоднократно подчеркивало важность декларации, некоторые аналитики были настроены более скептически.
Марта Беннетт, вице-президент и главный аналитик Forrester, предположила, что подписание соглашения было скорее символическим, чем содержательным, отметив, что подписавшие стороны «не согласились бы с текстом Декларации Блетчли, если бы она содержала какие-либо значимые детали о том, как следует регулировать ИИ». ».
Беннетт сообщил TechRepublic по электронной почте: «Эта декларация не окажет никакого реального влияния на регулирование ИИ. Во-первых, в ЕС уже находится в разработке Закон об искусственном интеллекте, в США президент Байден 30 октября издал Указ об искусственном интеллекте, а 30 октября были опубликованы Международные руководящие принципы G7 и Международный кодекс поведения для искусственного интеллекта. все они содержат больше содержания, чем Декларация Блетчли».
Однако Беннетт сказал, что тот факт, что декларация не окажет прямого влияния на политику, не обязательно является чем-то плохим. «Саммит и Декларация Блетчли больше направлены на подачу сигналов и демонстрацию готовности к сотрудничеству, и это важно. Нам придется подождать и посмотреть, последуют ли за благими намерениями значимые действия», — сказала она.
Как правительства будут тестировать новые модели ИИ?
Правительства и компании, занимающиеся ИИ, также договорились о новой системе тестирования безопасности передовых моделей ИИ, благодаря которой правительства будут играть более заметную роль в оценках до и после развертывания.
Рамочная основа, основанная на Декларации Блетчли, обеспечит правительствам «свою роль в обеспечении внешнего тестирования безопасности передовых моделей ИИ», особенно в областях, касающихся национальной безопасности и общественного благосостояния. Цель состоит в том, чтобы переложить ответственность за тестирование безопасности моделей ИИ только на технологические компании.
В Великобритании этим будет заниматься новый Институт безопасности ИИ, который будет работать с Институтом Алана Тьюринга над «тщательным тестированием новых типов передового ИИ» и «изучением всех рисков, от социального вреда, такого как предвзятость и дезинформация, до самый маловероятный, но экстремальный риск, такой как полная потеря человечеством контроля над ИИ».
СМОТРИТЕ: Набор для найма: Инженер-подсказчик (TechRepublic Premium)
Известному ученому-компьютерщику Йошуа Бенджио было поручено возглавить создание отчета «Состояние науки», в котором будут оценены возможности и риски передового искусственного интеллекта и предпринята попытка установить единое понимание этой технологии.
Во время заключительной пресс-конференции саммита представитель СМИ спросил Сунака о том, должна ли ответственность за обеспечение безопасности ИИ в первую очередь лежать на компаниях, разрабатывающих модели ИИ, как это одобрил профессор Бенджио.
В ответ Сунак выразил мнение, что компании не могут нести единоличную ответственность за «отметку за свою домашнюю работу», и предположил, что на правительствах лежит фундаментальная обязанность обеспечивать безопасность своих граждан.
«На правительствах лежит обязанность обеспечивать безопасность и защиту своих граждан, и именно поэтому мы вложили значительные средства в наш Институт безопасности искусственного интеллекта», — сказал он.
«Наша задача – независимая внешняя оценка, мониторинг и тестирование этих моделей, чтобы убедиться в их безопасности. Считаю ли я, что компании несут общую моральную ответственность за обеспечение безопасного и надежного развития своих технологий? Да, (и) они все сказали одно и то же. Но я думаю, они также согласятся, что правительства должны играть эту роль».
Другой журналист задал Сунаку вопрос о подходе Великобритании к регулированию технологий искусственного интеллекта, в частности, достаточно ли добровольных соглашений по сравнению с формальным режимом лицензирования.
В ответ Сунак заявил, что темпы развития ИИ требуют постоянной реакции правительства, и предположил, что Институт безопасности ИИ будет отвечать за проведение необходимых оценок и исследований для обоснования будущего регулирования.
«Технологии развиваются такими темпами, что правительства должны убедиться, что мы можем идти в ногу с ними сейчас, прежде чем вы начнете что-то предписывать и принимать законы», — сказал Сунак. «Важно, чтобы регулирование было эмпирически основано на научных данных, и именно поэтому нам нужно сначала проделать эту работу».
Как эксперты реагируют на AI Safety Summit?
Поппи Густафссон, главный исполнительный директор компании Darktrace, занимающейся кибербезопасностью в области искусственного интеллекта, рассказала PA Media, что она была обеспокоена тем, что дискуссии будут слишком сосредоточены на «гипотетических рисках будущего» — таких как роботы-убийцы — но в реальности дискуссии были более «взвешенными».
Беннетт из Forrester придерживался совершенно иного мнения, заявив TechRepublic, что «слишком много внимания уделялось далеким, потенциально апокалиптическим сценариям».
Она добавила: «Хотя в декларации (Блетчли) есть все правильные слова о научных исследованиях и сотрудничестве, которые, конечно, имеют решающее значение для решения сегодняшних проблем, связанных с безопасностью ИИ, самый конец документа возвращает нас к передовому ИИ».
Беннет также отметил, что, хотя большая часть риторики вокруг саммита касалась сотрудничества и сотрудничества, отдельные страны продвигались вперед в своих собственных усилиях, чтобы стать лидерами в области искусственного интеллекта.
«Если кто-то надеялся, что на саммите будет объявлено о создании нового глобального исследовательского органа в области ИИ, то эти надежды не оправдались. На данный момент страны сосредоточены на собственных усилиях: на прошлой неделе премьер-министр Великобритании Риши Сунак объявил о создании «первого в мире Института безопасности искусственного интеллекта». Сегодня (1 ноября) президент США Байден объявил о создании американского института искусственного интеллекта. Институт безопасности».
Она добавила: «Будем надеяться, что мы увидим тот тип сотрудничества между этими различными институтами, который защищает Декларация Блетчли».
СМОТРИТЕ: Саммит ООН «ИИ во благо» исследует, как генеративный ИИ создает риски и способствует связям (TechRepublic)
Раджеш Ганесан, президент компании ManageEngine, принадлежащей Zoho, прокомментировал в электронном письме следующее: «Хотя некоторые могут быть разочарованы, если на саммите не удастся создать глобальный регулирующий орган», тот факт, что мировые лидеры обсуждали регулирование ИИ, был положительным шагом вперед. .
«Достижение международного соглашения о механизмах управления рисками, создаваемыми ИИ, является важной вехой: более тесное сотрудничество будет иметь первостепенное значение для баланса преимуществ ИИ и ограничения его разрушительного потенциала», — говорится в заявлении Ганесан.
«Очевидно, что практика регулирования и безопасности будет оставаться решающей для безопасного внедрения ИИ и должна идти в ногу с его быстрым развитием. Это то, чему могли бы способствовать Закон ЕС об искусственном интеллекте и соглашения о Кодексе поведения G7».
Ганесан добавил: «Нам необходимо уделить приоритетное внимание непрерывному образованию и дать людям навыки безопасного и безопасного использования генеративных систем искусственного интеллекта. Неспособность внедрить ИИ среди людей, которые его используют и получают от него выгоду, рискует привести к опасным и неоптимальным результатам».
Почему безопасность ИИ важна?
В настоящее время не существует всеобъемлющего набора правил, регулирующих использование искусственного интеллекта, хотя Европейский Союз разработал структуру, целью которой является установление правил для этой технологии в блоке из 28 стран.
Потенциальное неправомерное использование ИИ, будь то злонамеренно или в результате человеческой или машинной ошибки, остается ключевой проблемой. На саммите было сказано, что уязвимости кибербезопасности, биотехнологические опасности и распространение дезинформации представляют собой одни из наиболее серьезных угроз, исходящих от ИИ, а также были подчеркнуты проблемы с алгоритмической предвзятостью и конфиденциальностью данных.
Министр технологий Великобритании Мишель Донелан подчеркнула важность Декларации Блетчли как первого шага в обеспечении безопасного развития ИИ. Она также заявила, что международное сотрудничество имеет важное значение для укрепления общественного доверия к технологиям искусственного интеллекта, добавив, что «ни одна страна не может справиться с проблемами и рисками, создаваемыми искусственным интеллектом, в одиночку».
1 ноября она отметила: «Сегодняшняя знаменательная Декларация знаменует собой начало новых глобальных усилий по укреплению общественного доверия путем обеспечения безопасного развития технологий».
Как Великобритания инвестировала в искусственный интеллект?
Накануне Саммита по безопасности искусственного интеллекта в Великобритании правительство Великобритании объявило о выделении 118 миллионов фунтов стерлингов (143 миллиона долларов США) для увеличения финансирования навыков искусственного интеллекта в Соединенном Королевстве. Финансирование будет направлено на исследовательские центры, стипендии и визовые схемы и направлено на поощрение молодых людей к изучению областей искусственного интеллекта и науки о данных.
Между тем, 21 миллион фунтов стерлингов (25,5 миллиона долларов США) был выделен на оснащение Национальной службы здравоохранения Великобритании диагностическими технологиями на основе искусственного интеллекта и технологиями визуализации, такими как рентгеновские снимки и компьютерная томография.
Оригинал