Спорный закон Калифорнии об искусственном интеллекте продвигается вперед с поправками от Anthropic

17 августа 2024 г.

В четверг Комитет по ассигнованиям Калифорнии принял Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта (также известный как SB-1047), что стало последним шагом в саге о регулировании Кремниевой долины.

Прежде чем законопроект станет законом, его еще должны одобрить Ассамблея и Сенат штата.

Что такое SB-1047?

Известный в разговорной речи как Калифорнийский закон об искусственном интеллекте и тщательно отслеживаемый по всей стране на предмет возможного создания прецедента для государственных рекомендаций в отношении генеративного искусственного интеллекта, законопроект SB-1047 устанавливает несколько правил для разработчиков искусственного интеллекта:

    Создайте протоколы безопасности для охватываемых моделей ИИ. Убедитесь, что такие модели могут быть полностью отключены. Предотвратите распространение моделей, способных нанести то, что закон определяет как «критический вред». Наймите аудитора для обеспечения соблюдения закона.

Короче говоря, законопроект представляет собой структуру, направленную на предотвращение нанесения генеративными моделями искусственного интеллекта масштабного ущерба человечеству, например, в результате ядерной войны или биологического оружия, или причинения убытков в размере более 500 миллионов долларов в результате инцидента кибербезопасности.

Закон определяет «охваченные модели» как модели, использующие вычислительную мощность, превышающую 10^26 целочисленных или плавающих операций, — стоимость которых во время обучения превышает 100 миллионов долларов.

Последняя версия закона включает в себя вклад Anthropic

Версия законопроекта, принятая в четверг, включала некоторые изменения, предложенные производителем искусственного интеллекта Anthropic и принятые основным автором законопроекта сенатором Скоттом Винером, демократом из Калифорнии.

Anthropic успешно попросила штат удалить из законопроекта некоторые положения, в которых говорилось, что компании, нарушающие закон, могут столкнуться с судебным иском со стороны генерального прокурора штата. Новейшая версия также устраняет необходимость для компаний раскрывать результаты испытаний безопасности под угрозой лжесвидетельства. Вместо этого разработчикам необходимо будет подавать заявления, которые не имеют такой же юридической силы.

Другие изменения включают в себя:

    Изменение формулировки с компаний ИИ, которые должны предоставлять «разумные гарантии» безопасности, на «разумную осторожность». Исключение, при котором исследователи ИИ, которые тратят менее 10 миллионов долларов на тонкую настройку модели с открытым исходным кодом, не считаются разработчиками этой модели.

SEE: Anthropic и OpenAI провели собственное исследование того, как генеративный ИИ создает контент, включая предвзятый контент.

Законопроект больше не призывает к созданию Frontier Model Division, агентства по надзору за отраслью ИИ. Вместо этого Совет по Frontier Models, сосредоточенный на перспективных рекомендациях по безопасности и аудитах, будет заседать в рамках действующего Агентства правительственных операций.

Хотя Anthropic внесла свой вклад в законопроект, другие крупные организации, такие как Google и Meta, выразили неодобрение. Andreessen Horowitz, венчурная фирма, известная как a16z, стоящая за многими стартапами в области искусственного интеллекта, громко выступила против SB-1047.

Почему законопроект SB-1047 вызывает споры?

Некоторые представители промышленности и Конгресса говорят, что этот закон ограничит инновации и особенно затруднит работу с моделями ИИ с открытым исходным кодом. Среди критиков законопроекта оказался соучредитель и генеральный директор Hugging Face Клеман Деланг, как отмечает Fast Company.

Апрельское исследование, проведенное аналитическим центром по регулированию «Институт политики в области искусственного интеллекта», показало, что большинство калифорнийцев проголосовали за поддержку законопроекта в его нынешнем виде, а 70% согласились с тем, что «будущие мощные модели ИИ могут использоваться в опасных целях».

Исследователи Джеффри Хинтон и Йошуа Бенджио, известные как «крестные отцы ИИ» за их новаторскую работу в области глубокого обучения, также публично поддерживают законопроект. Закон «защитит общественность», — написал Бенджио в своей статье в Fortune 15 августа.

Восемь из 52 членов Конгресса от Калифорнии подписали в четверг письмо, в котором говорится, что этот закон «создаст ненужные риски для экономики Калифорнии с очень незначительной выгодой для общественной безопасности». Они утверждают, что еще слишком рано создавать стандартизированные оценки для ИИ, поскольку правительственные агентства, такие как NIST, все еще работают над созданием таких стандартов.

Они также предполагают, что определение критического вреда может быть обманчивым. Законопроект сбился с пути, сосредоточившись на крупномасштабных катастрофах, таких как ядерное оружие, при этом «в значительной степени игнорируя очевидные риски ИИ, такие как дезинформация, дискриминация, несогласованные дипфейки, воздействие на окружающую среду и перемещение рабочей силы», утверждают члены конгресса.

Закон SB-1047 предусматривает особую защиту осведомителей о нарушениях в компаниях, занимающихся искусственным интеллектом, в соответствии с Законом штата Калифорния о защите осведомителей.

Старший аналитик Forrester Алла Валенте заявила, что законодатели были правы, сосредоточив внимание на кибератаках, таких как инцидент Change Healthcare в мае, поскольку доказано, что эти атаки наносят серьезный вред. «Благодаря использованию генеративного ИИ эти атаки могут осуществляться более эффективно и в гораздо большем масштабе, что делает регулирование ИИ тем, что всем штатам придется рассматривать как часть того, как они защищают и обслуживают своих жителей», — сказала она.

Закон поднимает проблемы баланса между регулированием и инновациями.

«Мы можем продвигать как инновации, так и безопасность; эти два направления не являются взаимоисключающими», — написал Винер в публичном заявлении 15 августа. «Хотя поправки не отражают 100% изменений, запрошенных Anthropic — мировым лидером как в области инноваций, так и безопасности, мы приняли ряд весьма разумных предложенных поправок, и я считаю, что мы устранили основные опасения, высказанные Anthropic и многими другими в отрасли».

Он отметил, что Конгресс «застрял» в вопросе регулирования ИИ, поэтому «Калифорния должна действовать, чтобы опередить предсказуемые риски, связанные с быстрым развитием ИИ, а также способствовать инновациям».

Далее законопроект должен будет пройти через Ассамблею и Сенат. В случае одобрения законопроект будет рассмотрен губернатором Гэвином Ньюсомом, вероятно, в конце августа.

«Корпоративным организациям уже приходится бороться с рисками генеративного ИИ, одновременно принимая и обеспечивая соблюдение существующих и новых законов об ИИ», — сказал Валенте. «В то же время растущий ландшафт судебных разбирательств по ИИ заставляет организации уделять приоритетное внимание управлению ИИ в своих организациях, чтобы гарантировать, что они решат потенциальные юридические проблемы. SB 1047 создаст барьеры и стандарты для продуктов ИИ, которые будут способствовать доверию к продуктам с поддержкой genAI и могут ускорить принятие».

Подпишитесь на рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая IoT, 5G, последние новости о телефонах, безопасности, умных городах, ИИ, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая IoT, 5G, последние новости о телефонах, безопасности, умных городах, ИИ, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE