Дебаты об управлении ИИ в Австралии начинают накаляться

Дебаты об управлении ИИ в Австралии начинают накаляться

14 июня 2023 г.
Австралийские министры спорят о том, решит ли внедрение правил для ИИ проблемы, вызванные нехваткой квалифицированных специалистов в области ИИ.

Отсутствие должным образом определенного управления и политики в области искусственного интеллекта вызывает озабоченность обеих партий в австралийской политике, и обе основные партии недавно заявили о необходимости срочно принять меры по этому вопросу.

Хотя регулирование часто рассматривается как препятствие для инноваций, есть реальные опасения, что Австралия отстает в области ИИ, поскольку ей не хватает ресурсов и навыков для управления этой технологией. Повышение активности правительства поможет выкристаллизовать национальную стратегию. Это приведет к лучшим возможностям для технологов и компаний ИИ.

ПОСМОТРЕТЬ: ознакомьтесь с этической политикой TechRepublic Premium в отношении искусственного интеллекта.

Как недавно подчеркнула на мероприятии The Australian Financial Review Future Briefings генеральный директор австралийского инкубатора глубоких технологий Cicada Innovations Салли-Энн Уильямс, австралийские компании «резко переоценивают уровень соответствующей технологической экспертизы, которую они имеют в своих рядах».

«Люди говорят мне: «У меня в бизнесе 150 специалистов по машинному обучению», на что я отвечаю: «У вас их точно нет», — сказал Уильямс.

Разработка правил и национального видения ИИ поможет отрасли решить эти проблемы.

Министры Австралии предлагают регулирующие меры, чтобы извлечь выгоду из ИИ

В статье для The Mandarin в начале июня министр труда Джулиан Хилл выступил за создание комиссии по искусственному интеллекту.

«ИИ будет формировать наше восприятие жизни, поскольку он влияет на то, что мы видим, думаем и переживаем онлайн и офлайн. Наша повседневная жизнь будет дополнена тем, что рядом с нами всегда будет супер умный стажер», — отметил Хиллед. «Однако в следующем поколении жизнь с нечеловеческим псевдоразумом бросит вызов устоявшимся представлениям о том, что значит быть человеком… Граждане и политики должны срочно взять себя в руки.

«ИИ привносит сверхвысокий IQ, но низкий (или не имеет) EQ во всех сферах деятельности и принесет некоторым корпорациям кучу денег. Но экспоненциально более мощные технологии искусственного интеллекта, не соответствующие человеческой этике и целям, влекут за собой неприемлемые риски; индивидуальные, социальные, катастрофические — и, возможно, когда-нибудь экзистенциальные — риски».

Настроения Хилла разделил министр теневых коммуникаций Дэвид Коулман в интервью Sky News днем ​​позже.

«Законы Австралии должны продолжать применяться в мире ИИ», — сказал Коулман. «Что мы хотим сделать, так это не наступать на технологии, не чрезмерно регулировать, потому что это было бы плохо, но также в некотором смысле гарантировать, что суверенитет таких стран, как Австралия, останется в силе».

Оба министра ответили на отчет, подготовленный по заказу правительства Австралии, в котором говорится, что страна «относительно слаба» в области ИИ и не имеет квалифицированных рабочих и вычислительных мощностей, чтобы извлечь выгоду из возможностей ИИ.

Понимая необходимость срочного перехода к этому, Австралия, вероятно, сосредоточит свои усилия по регулированию ИИ в двух областях: защита конфиденциальности и прав человека, не препятствуя инновациям, и обеспечение страны инфраструктурой и навыками, чтобы извлечь выгоду из возможностей ИИ.

Как может выглядеть регулируемая среда?

Австралия — не единственная страна, которая борется с регулированием ИИ. Япония, например, готовится вкладывать значительные средства в развитие навыков для продвижения ИИ в медицине, образовании, финансах, производстве и административной работе, поскольку она стремится бороться со стареющим и сокращающимся населением. Ссылаясь на опасения по поводу рисков для конфиденциальности и безопасности, дезинформации и нарушения авторских прав, Япония ставит ИИ в центр своей реформы рынка труда.

ПОСМОТРЕТЬ: узнайте, как Белый дом справляется с рисками и выгодами, связанными с искусственным интеллектом, в условиях угроз злонамеренного использования.

Тем временем ЕС лидирует в регулировании ИИ, разрабатывая первые законы, специально регулирующие применение ИИ. В соответствии с этими законами развитие ИИ будет ограничено в соответствии с его «надежностью» и следующим образом:

    «Системы искусственного интеллекта, которые считаются явной угрозой безопасности, средствам к существованию и правам людей, будут запрещены. Это включает в себя приложения ИИ, которые манипулируют поведением людей, чтобы обойти свободу воли пользователей, и системы, которые позволяют правительствам проводить «социальную оценку». Приложения ИИ с высоким риском, которые запускают целый ряд приложений, включая беспилотные автомобили, приложения, которые оценивают экзамены или помогают с набором персонала, операции с помощью ИИ и юридические приложения, будут подвергаться строгим обязательствам, включая предоставление документации, гарантия контроля со стороны человека и регистрация действий для отслеживания результатов. Для систем с низким уровнем риска, таких как чат-боты, ЕС хочет прозрачности, чтобы пользователи знали, что они взаимодействуют с ИИ, и могли отказаться от них, если они того пожелают.

Между тем, еще одним лидером в регулировании ИИ является Китай. Китай перешел к созданию основы для генеративного ИИ — таких технологий, как ChatGPT, Stable Diffusion и других, которые используют ИИ для создания текстовых или визуальных ресурсов.

ПОСМОТРЕТЬ: отчет G2 предсказывает большие расходы на генеративный ИИ.

Что касается прав владельцев интеллектуальной собственности и возможности злоупотреблений, китайские правила потребуют от поставщиков генеративного ИИ зарегистрироваться в правительстве и предоставить водяной знак, который будет применяться ко всем активам, созданным этими системами. Поставщики также должны будут нести ответственность за контент, создаваемый продуктом другими, а это означает, что впервые поставщики приложений ИИ будут обязаны обеспечить ответственное использование своих платформ.

На данный момент Австралия все еще формулирует свой подход к ИИ. Правительство открыло общественные консультации по ответственному подходу к ИИ (которые завершатся 26 июля), и эти ответы будут использованы для продолжения многомиллионных инвестиций в ответственный ИИ, о которых было объявлено в бюджете на 2023–2024 годы.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE