Закон ЕС об искусственном интеллекте: австралийским ИТ-специалистам необходимо подготовиться к регулированию искусственного интеллекта

2 февраля 2024 г.

Недавно в сеть просочилась самая последняя (и, вероятно, окончательная) версия грядущего Закона Европейского Союза об искусственном интеллекте. Это первый в мире всеобъемлющий закон, призванный регулировать использование и применение искусственного интеллекта, и история показывает, что, когда ЕС что-то регулирует, остальной мир склонен это принять.

Например, компании, ведущие бизнес в Австралии, обычно соответствуют требованиям GDPR просто потому, что этого требует европейское законодательство. То же самое, вероятно, произойдет, когда вступит в силу Закон ЕС об искусственном интеллекте.

Несмотря на рекомендации правительства Австралии соблюдать Закон ЕС об искусственном интеллекте, в Австралии не существует обязательных правил, регулирующих использование искусственного интеллекта. Тем не менее, австралийским предприятиям необходимо будет начать применять правила, предложенные законодательством ЕС, если они хотят продолжить масштабирование и вести бизнес с компаниями в ЕС или даже с местными предприятиями в партнерстве с ЕС.

Рекомендации правительства Австралии должны соответствовать требованиям ЕС

Как и в случае с GDPR, австралийские официальные лица советуют соблюдать требования. Например, как отметила Австралийско-британская торговая палата в качестве руководства для австралийских организаций:

«Закон ЕС об искусственном интеллекте применяется ко всем предприятиям, которые внедряют системы искусственного интеллекта на рынке ЕС или делают их доступными внутри ЕС, независимо от их местоположения. Соответственно, австралийские предприятия, осуществляющие любое из следующих действий, должны будут соблюдать законодательство:

    разработка и маркетинг систем искусственного интеллекта; развертывание систем искусственного интеллекта; и использовать системы искусственного интеллекта в своих продуктах или услугах».

Имея это в виду, австралийские ИТ-специалисты должны внимательно следить за регулированием ЕС в отношении ИИ. Вполне вероятно, что эта практика станет стандартизированной и станет лучшей практикой даже при отсутствии местного регулирования.

Выгода для австралийских предприятий, отвечающих требованиям правил ЕС в области искусственного интеллекта, заключается, как и в случае с GDPR, в том, что как только они это сделают, они уже по существу готовы и соответствуют требованиям, когда австралийское правительство вводит местные правила.

5 вещей, которые австралийцы должны знать о Законе ЕС об искусственном интеллекте

В настоящее время в Австралии существует законодательство, охватывающее такие компоненты ИИ, как законы о защите данных, конфиденциальности и авторском праве. Существует также Австралийская система этики ИИ, которая является добровольной, но охватывает большую часть того, что направлено на законодательное регулирование законов ЕС.

ПРЕМИУМ: Предприятиям следует рассмотреть возможность разработки политики этики ИИ.

Восемь принципов, лежащих в основе Основы этики ИИ, предоставляют австралийским организациям «лучший опыт» мышления о том, как следует создавать и использовать ИИ, особенно в отношении безопасности человека, пользы и справедливости.

Подход ЕС, по сути, берет эти философские идеи и превращает их в конкретные правила, которым должны следовать организации. Например, пятью ключевыми областями, которые будут регулировать законы ЕС, являются:

    Система классификации рисков для систем ИИ: они будут варьироваться от «минимальных» до «неприемлемых», и поскольку считается, что приложение ИИ представляет «более высокий» риск, оно подлежит более строгому регулированию. Обязательства для систем искусственного интеллекта с высоким уровнем риска. Большая часть регулирования сосредоточена на обязательствах, связанных с обеспечением качества данных, прозрачности, человеческого надзора и подотчетности. Запрет на определенные виды использования ИИ. Будут запрещены виды использования ИИ, представляющие неприемлемый риск для человеческого достоинства, безопасности или основных прав, включая социальное выставление оценок, подсознательные манипуляции или неизбирательное наблюдение. Система уведомлений и маркировки для систем ИИ. В целях прозрачности и подотчетности также будет создана система уведомлений и маркировки для систем ИИ, которые взаимодействуют с людьми, генерируют контент или классифицируют биометрические данные. Структура управления: в нее будут вовлечены национальные органы власти, Европейский совет по искусственному интеллекту и Европейское ведомство по искусственному интеллекту для надзора за выполнением и соблюдением Закона об искусственном интеллекте.

За исключением моделей ИИ с «высоким риском» (а их небольшой процент будет локализован для конкретных вертикалей, таких как оборона и правоохранительная деятельность), большинство моделей ИИ, используемых предприятиями, ориентированными на потребителя, будут иметь легкие нормативные требования. Более того, по большей части австралийские организации, принявшие весь объем этических принципов, предложенных австралийским правительством, не должны испытывать трудностей с соблюдением требований законов ЕС.

Отсутствие обязательного регулирования может оставить австралийских специалистов по данным и ИИ неподготовленными к соблюдению требований.

Однако характер добровольных обязательств и отсутствие целостной программы регулирования означают, что не все австралийские ИИ были созданы с учетом всего объема этических принципов.

SEE: Австралия — не единственная страна, которая разработала добровольный кодекс поведения ИИ.

В дальнейшем это может вызвать проблемы, если организация решит, что хочет масштабироваться, и уже внедрила в свой бизнес процессы искусственного интеллекта, нарушающие правила ЕС. По этой причине дальновидные организации, скорее всего, по умолчанию будут следовать самым строгим правилам.

Несоблюдение требований ограничит австралийский бизнес на местном и глобальном уровне.

Как только эти законы ЕС вступят в силу в июне, всем, кто внедрил ИИ в любые свои продукты и процессы, придется быстро действовать, чтобы добиться соблюдения требований. По данным Boston Consulting Group, требования к соблюдению будут распределены в шахматном порядке, при этом заявки с самым высоким риском будут иметь самый короткий срок. Однако большинству организаций необходимо будет соответствовать требованиям в течение 6–12 месяцев.

Те, кто этого не сделает, не смогут привезти свои модели ИИ в Европу. Это не только окажет прямое влияние, если они захотят вести там бизнес, но также означает, что партнерство в области ИИ с другими организациями, ведущими бизнес в Европе, станет сложным, если не невозможным.

Вот почему для австралийских организаций будет особенно важно обеспечить соответствие используемых моделей ИИ Закону ЕС об искусственном интеллекте, чтобы потенциально не лишать себя возможностей для бизнеса на местном уровне в Австралии.

Подпишитесь на информационный бюллетень Daily Tech Insider AU Будьте в курсе новейших технологий с Daily Tech Insider Australian Edition. Мы представляем вам новости о ведущих компаниях, продуктах и ​​людях отрасли, а также избранные статьи, файлы для загрузки и лучшие ресурсы. Вы получите руководства по актуальным технологическим темам, наиболее актуальным для рынков Австралии, которые помогут вам оставаться на шаг впереди. Доставка по четвергам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на информационный бюллетень Daily Tech Insider AU Будьте в курсе новейших технологий с Daily Tech Insider Australian Edition. Мы представляем вам новости о ведущих компаниях, продуктах и ​​людях отрасли, а также избранные статьи, файлы для загрузки и лучшие ресурсы. Вы получите руководства по актуальным технологическим темам, наиболее актуальным для рынков Австралии, которые помогут вам оставаться на шаг впереди. Доставка по четвергам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE