Указ Белого дома об искусственном интеллекте содержит рекомендации по обеспечению конфиденциальности и безопасности искусственного интеллекта

Указ Белого дома об искусственном интеллекте содержит рекомендации по обеспечению конфиденциальности и безопасности искусственного интеллекта

31 октября 2023 г.
Администрация Байдена поручила правительственным организациям, включая NIST, поощрять ответственное и инновационное использование генеративного ИИ.

Сегодня президент США Джо Байден издал указ об использовании и регулировании искусственного интеллекта. Исполнительный указ содержит обширные рекомендации по обеспечению безопасности, гражданских прав и конфиденциальности в государственных учреждениях, а также содействию инновациям в области искусственного интеллекта и конкуренции на всей территории США.

Хотя в указе не упоминается генеративный искусственный интеллект, он, скорее всего, был издан в ответ на распространение генеративного искусственного интеллекта, который стал горячей темой после публичного выпуска ChatGPT OpenAI в ноябре 2022 года.

Перейти к:

    Что охватывает указ о безопасном, надежном и заслуживающем доверия ИИ? Является ли этот указ об искусственном интеллекте законом и как будут использоваться его руководящие принципы? Глобальные дискуссии о безопасности ИИ продолжаются

Что охватывает указ о безопасном, надежном и заслуживающем доверия ИИ?

Рекомендации указа в отношении ИИ разбиты на следующие разделы:

Безопасность и охрана

Любая компания, разрабатывающая «… любую базовую модель, которая представляет серьезный риск для национальной безопасности, национальной экономической безопасности или национального общественного здравоохранения и безопасности…» должна информировать правительство США о своей подготовке и тестах на безопасность красной команды, говорится в указе. В тестах красной команды исследователи безопасности пытаются проникнуть в организацию, чтобы проверить ее защиту. Будут созданы новые стандарты для компаний, использующих ИИ для разработки биологических материалов.

Конфиденциальность

Разработка и использование методов сохранения конфиденциальности будут приоритетными с точки зрения федеральной поддержки. Рекомендации по конфиденциальности для федеральных агентств будут усилены с учетом рисков ИИ.

Справедливость и гражданские права

Арендодатели, федеральные программы льгот и федеральные подрядчики получат инструкции, которые не позволят алгоритмам искусственного интеллекта усугублять дискриминацию. Будут разработаны лучшие практики использования ИИ в системе уголовного правосудия.

Потребители, пациенты и студенты

Использование ИИ будет оцениваться в здравоохранении и образовании.

Поддержка работников

Будут разработаны принципы и передовой опыт для снижения вреда от ИИ с точки зрения увольнения, равенства на рынке труда, коллективных переговоров и других потенциальных последствий для труда.

Содействие инновациям и конкуренции

Федеральное правительство будет поощрять инновации в области искусственного интеллекта в США, включая оптимизацию визовых критериев, проведение собеседований и обзоров для иммигрантов, обладающих высокими навыками в области искусственного интеллекта.

Продвижение американского лидерства за рубежом

Федеральное правительство будет работать с другими странами над развитием технологий, стандартов и безопасности искусственного интеллекта.

Ответственное и эффективное использование ИИ правительством

Распоряжение призвано помочь федеральным агентствам получить доступ к искусственному интеллекту и нанять специалистов по искусственному интеллекту. Правительство выпустит руководство по использованию ИИ агентствами.

Является ли этот указ об искусственном интеллекте законом и как будут использоваться его руководящие принципы?

Указ не является законом и может быть изменен. Указ о безопасности ИИ не включает в себя лишение права на деятельность какой-либо существующей ИИ-компании, сообщил The Verge анонимный высокопоставленный чиновник администрации Байдена.

Исполнительный указ определяет, каким образом конкретные правительственные учреждения должны участвовать в регулировании ИИ в будущем. Национальный институт стандартов и технологий возглавит разработку стандартов для красной команды тестирования базовых моделей искусственного интеллекта с высоким уровнем риска. Министерство внутренней безопасности будет отвечать за применение этих стандартов в критически важных секторах инфраструктуры и создаст Совет по безопасности ИИ. Угрозы ИИ критической инфраструктуре и другие серьезные риски будут находиться в ведении Министерства энергетики и Министерства внутренней безопасности.

СЭЭ: Важно сбалансировать преимущества ИИ с недостатками «дегуманизации» труда, говорит Gartner. (Техреспублик)

Федеральный конкурс AI Cyber ​​Challenge будет использован в качестве основы для передовой программы кибербезопасности, направленной на обнаружение и устранение уязвимостей в критически важном программном обеспечении.

Совет национальной безопасности и глава администрации Белого дома будут работать над Меморандумом о национальной безопасности, который будет определять будущие руководящие принципы федерального правительства в отношении ИИ, особенно в военных и разведывательных агентствах. Национальный научный фонд будет работать с сетью координации исследований для продвижения исследований и технологий, связанных с конфиденциальностью.

Министерство юстиции и федеральные офицеры по гражданским правам будут координировать действия по борьбе с дискриминацией на основе алгоритмов.

«Рекомендации — это не правила, и без мандатов трудно увидеть путь к подотчетности, когда дело доходит до регулирования ИИ», — рассказала TechRepublic по электронной почте старший аналитик Forrester Алла Валенте. «Давайте вспомним, что когда компания Colonial Pipeline подверглась атаке программы-вымогателя, вызвавшей эффект домино с негативными последствиями, у операторов трубопроводов были рекомендации по кибербезопасности, которые были добровольными, а не обязательными».

Она сравнила указ с Законом ЕС об искусственном интеллекте, который предлагает более «риск-ориентированный» подход.

«Чтобы этот указ имел силу, требования должны быть четкими, а действия должны быть обязательными, когда дело доходит до обеспечения безопасных и соответствующих требованиям методов искусственного интеллекта», — сказал Валенте. «В противном случае приказ будет просто еще одним предложением, которое будет проигнорировано теми, кто получит от него наибольшую выгоду».

«Мы считаем, что разумный нормативный надзор неизбежен для ИИ, точно так же, как мы видели его в сфере телерадиовещания, авиации, фармацевтики — всех ключевых преобразующих технологий последних 150 лет», — написал Грэм Гласс, генеральный директор образовательной компании CYPHER Learning в области искусственного интеллекта. электронное письмо в TechRepublic. «Соблюдение возможных «правил дорожного движения» для ИИ улучшится при международной координации».

Глобальные дискуссии о безопасности ИИ продолжаются

Премьер-министр Великобритании Риши Сунак заявил 26 октября, что создаст правительственный орган для оценки рисков, связанных с ИИ. Исследовательская сеть будет включать в себя участие нескольких стран, включая Китай. 1 и 2 ноября Великобритания проведет саммит по безопасности ИИ, на котором международные правительства обсудят безопасность и риски генеративного ИИ. ЕС все еще работает над завершением своего Закона об искусственном интеллекте.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE