LLM: актуален ли Консорциум по безопасности искусственного интеллекта NIST в свете законопроекта SB 1047 в Калифорнии?
3 сентября 2024 г.Насколько велика проблема цифрового пиратства? Можно утверждать, что регулирование и судебные разбирательства обеспечили смягчение последствий от мейнстрима. Однако, когда некоторым компаниям ИИ нужны были данные для обучения, почему пиратские копии контента, якобы [доступные для] сканирования и копирования?
Почему возможны и другие противоправные события в сети, способами, которые не существуют в физическом мире, так сказать? Что особенного в цифровом мире, что делаетэто трудно для регулирования и судебных разбирательствпроявить решительность в искоренении проблем?
Одна из легко распознаваемых проблем, особенно в отношении Интернета — в последние десятилетия — заключается в том, что развитие опережает безопасность. Безопасность часто добавляется некоторыми из инициирующих компаний, затем проводятся испытания в реальном мире с критикой, которая приводит к корректировкам.
Хотя политика, структура, управление, условия, передовой опыт и т. д. были необходимы для интернет-платформ, что было бы эффективным, так это широкие возможности для технических аспектов безопасности. Техническая безопасность с развивающимися подходами с нескольких сторон сделала бы лучше, чем что-либо еще, для интернета, чем опора на традиционный подход, основанный на законе.
Та же проблема может последовать за безопасностью ИИ, которую регулирующие органы пытаются исправить на ранней стадии — после ошибок социальных сетей и Интернета. Регулирование социальных сетей на ранней стадии могло бы сработать во многих формах, но было бы много упущений, которые привели бы к некоторым из тех же проблем, которые в конечном итоге произошли. Социальные сети так же вредны, как и технические недостатки для безопасности.
Если предположить, что для некоторых пользователей социальных сетей существуют плагины, которые просматривают страницы за них, даже до того, как они видят то, что там находится, или существуют плагины, которые как бы переосмысливают то, что они видят или слышат, а не просто проверяют факты, или существуют плагины, которые разрабатывают параллели использования, так что в некоторых случаях посещение социальных сетей может оказаться излишним, то они могли бы оказать большую помощь.
Это не просто описания того, что делать в ретроспективе, а вещи, которые все еще необходимы, которые, кажется, не делает ни одна команда. Обычно полагаются на компании в вопросах безопасности, но они могут делать это так, как это возможно или как это выгодно бизнесу. Если предположить, что есть усилия из слишком многих источников по техническим решениям, возможно, больше было бы возможно против прошлых и текущих недостатков социальных сетей.
В некотором смысле, попытки исправить это привели к созданиюИнститут безопасности искусственного интеллекта США, который последовал заВеликобритания AISIи за ним последовалоОфис ЕС по искусственному интеллекту. Целью, в частности, является проведение технических исследований безопасности ИИ.
В Американской ассоциации инженеров-специалистов по безопасности также имеется консорциум, состоящий из нескольких организаций, CRADA которых...Соглашение о совместных исследованиях и разработках консорциума, утверждает, что «Целью Консорциума Института безопасности искусственного интеллекта NIST («Консорциум») является создание новой измерительной науки, которая позволит идентифицировать проверенные, масштабируемые и совместимые измерения и методологии для содействия безопасной и надежной разработке и использованию искусственного интеллекта (ИИ), особенно для самых передовых ИИ («Цель»). Техническая экспертиза, Модели, данные и/или продукты для поддержки и демонстрации путей обеспечения безопасных и надежных систем ИИ, Инфраструктурная поддержка проектов Консорциума при выполнении Плана исследований, Пространство объекта и размещение участников, семинаров и конференций членов Консорциума».
Консорциум был объявлен в феврале, что является достаточным временем для всех организаций, включенных в него, чтобы иметь отдел безопасности ИИ, лабораторию или стол со ссылкой, доступной в списке консорциума. Вероятно, недостаточно иметь мандат, но необходимо фактически активно выполнять работу и различные подходы к целям. Компании ИИ в списке разрабатывают продукты и безопасность.
У других, возможно, есть свои пути, но, судя по всему, здесь действует та же схема, когда крупные компании объединяют инжиниринг и безопасность, как это было в случае с социальными сетями.
Имея более 200 организацийэто возможность для более чем 200 различных технических подходов к безопасности ИИ. Изобилие было бы полезно для борьбы с угрозами, неправильным использованием и рисками ИИ, как настоящими, так и будущими, из всех источников и направлений, а не только из крупных источников, коммерческих или дружественных мест. Нет никаких доказательств того, что все компании в настоящее время разрабатывают технические исследования в области безопасности ИИ.
Нет никакой агрегации их работы, совместного сбора или поиска технических подходов к безопасности, которые бы демонстрировались для всех них, чтобы показать, что есть существенная разница с консорциумом. Те, кто работает в области безопасности ИИ, делали бы это в любом случае без консорциума, ограничивая подход решениями, которые необходимы для неизвестных впереди для безопасности ИИ, согласования и управления.
Законодатели Калифорнии только что приняли законопроект SB 1047, который является символичным, но вряд ли будет иметь место.эффективны без основательных технических решений. Цели могут подчиняться, потому что это то, что они тоже могут делать, и потому что они хотят выжить. Но риски от других, которые не будут охватываться правилами, останутся и могут подавить подчиняющиеся модели.
Безопасность ИИ может рассматриваться с нескольких точек зрения:теоретическая нейронаука о том, как осторожный человеческий разумв новые технические области, подальше от регламентации путей некоторых корпораций ИИ. Должно быть как можно больше институтов безопасности ИИ и как можно больше лабораторий и отделов безопасности ИИ для широких подходов против интеллекта, который способен и не является естественным, который на данный момент может быть использован для некоторых негативных целей, с неопределенностями по мере его улучшения.
Недавно появилась история оРейтер, Спорный законопроект об искусственном интеллекте в Калифорнии принят законодательным органом и ожидает подписи губернатора, заявив, что «в среду законодатели Калифорнии приняли горячо оспариваемый законопроект о безопасности искусственного интеллекта, после чего ему потребуется еще одно голосование по процедуре, прежде чем его судьба окажется в руках губернатора Гэвина Ньюсома, который должен до 30 сентября решить, подписывать его или наложить вето. Технологические компании, разрабатывающие генеративный ИИ, который может отвечать на подсказки полностью сформированным текстом, изображениями или аудио, а также выполнять повторяющиеся задачи с минимальным вмешательством, в значительной степени воспротивились законопроекту, называемому SB 1047, заявив, что он может вытеснить компании ИИ из штата и помешать инновациям. Мера обязывает проводить тестирование безопасности для многих из самых передовых моделей ИИ, разработка которых стоит более 100 миллионов долларов, или тех, которые требуют определенного объема вычислительной мощности. Разработчики программного обеспечения ИИ, работающие в штате, также должны описать методы отключения моделей ИИ, если они идут не так, по сути, аварийный выключатель. Законопроект также дает генеральному прокурору штата право подавать в суд, если разработчики не соблюдают требования, особенно в случае постоянной угрозы, такой как как ИИ захватывает правительственные системы, такие как электросети. Кроме того, законопроект требует от разработчиков нанимать сторонних аудиторов для оценки их мер безопасности и предоставления дополнительной защиты информаторам, выступающим против злоупотреблений ИИ».
Есть новый пресс-релиз,Институт безопасности искусственного интеллекта США подписывает соглашения с Anthropic и OpenAI относительно исследований, тестирования и оценки безопасности искусственного интеллекта, заявив, что «Сегодня Институт безопасности искусственного интеллекта США при Национальном институте стандартов и технологий Министерства торговли США (NIST) объявил о соглашениях, которые позволяют официально сотрудничать в области исследований, тестирования и оценки безопасности ИИ как с Anthropic, так и с OpenAI. Меморандум о взаимопонимании каждой компании устанавливает рамки для Института безопасности искусственного интеллекта США для получения доступа к основным новым моделям от каждой компании до и после их публичного выпуска. Соглашения позволят проводить совместные исследования по оценке возможностей и рисков безопасности, а также методов снижения этих рисков. Кроме того, Институт безопасности искусственного интеллекта США планирует предоставить обратную связь Anthropic и OpenAI по потенциальным улучшениям безопасности их моделей в тесном сотрудничестве со своими партнерами из Института безопасности искусственного интеллекта Великобритании».
Изображение объектаисточник
Оригинал