Дебаты об управлении ИИ в Австралии начинают накаляться
14 июня 2023 г.Отсутствие должным образом определенного управления и политики в области искусственного интеллекта вызывает озабоченность обеих партий в австралийской политике, и обе основные партии недавно заявили о необходимости срочно принять меры по этому вопросу.
Хотя регулирование часто рассматривается как препятствие для инноваций, есть реальные опасения, что Австралия отстает в области ИИ, поскольку ей не хватает ресурсов и навыков для управления этой технологией. Повышение активности правительства поможет выкристаллизовать национальную стратегию. Это приведет к лучшим возможностям для технологов и компаний ИИ.
ПОСМОТРЕТЬ: ознакомьтесь с этической политикой TechRepublic Premium в отношении искусственного интеллекта.
Как недавно подчеркнула на мероприятии The Australian Financial Review Future Briefings генеральный директор австралийского инкубатора глубоких технологий Cicada Innovations Салли-Энн Уильямс, австралийские компании «резко переоценивают уровень соответствующей технологической экспертизы, которую они имеют в своих рядах».
«Люди говорят мне: «У меня в бизнесе 150 специалистов по машинному обучению», на что я отвечаю: «У вас их точно нет», — сказал Уильямс.
Разработка правил и национального видения ИИ поможет отрасли решить эти проблемы.
Министры Австралии предлагают регулирующие меры, чтобы извлечь выгоду из ИИ
В статье для The Mandarin в начале июня министр труда Джулиан Хилл выступил за создание комиссии по искусственному интеллекту.
«ИИ будет формировать наше восприятие жизни, поскольку он влияет на то, что мы видим, думаем и переживаем онлайн и офлайн. Наша повседневная жизнь будет дополнена тем, что рядом с нами всегда будет супер умный стажер», — отметил Хиллед. «Однако в следующем поколении жизнь с нечеловеческим псевдоразумом бросит вызов устоявшимся представлениям о том, что значит быть человеком… Граждане и политики должны срочно взять себя в руки.
«ИИ привносит сверхвысокий IQ, но низкий (или не имеет) EQ во всех сферах деятельности и принесет некоторым корпорациям кучу денег. Но экспоненциально более мощные технологии искусственного интеллекта, не соответствующие человеческой этике и целям, влекут за собой неприемлемые риски; индивидуальные, социальные, катастрофические — и, возможно, когда-нибудь экзистенциальные — риски».
Настроения Хилла разделил министр теневых коммуникаций Дэвид Коулман в интервью Sky News днем позже.
«Законы Австралии должны продолжать применяться в мире ИИ», — сказал Коулман. «Что мы хотим сделать, так это не наступать на технологии, не чрезмерно регулировать, потому что это было бы плохо, но также в некотором смысле гарантировать, что суверенитет таких стран, как Австралия, останется в силе».
Оба министра ответили на отчет, подготовленный по заказу правительства Австралии, в котором говорится, что страна «относительно слаба» в области ИИ и не имеет квалифицированных рабочих и вычислительных мощностей, чтобы извлечь выгоду из возможностей ИИ.
Понимая необходимость срочного перехода к этому, Австралия, вероятно, сосредоточит свои усилия по регулированию ИИ в двух областях: защита конфиденциальности и прав человека, не препятствуя инновациям, и обеспечение страны инфраструктурой и навыками, чтобы извлечь выгоду из возможностей ИИ.
Как может выглядеть регулируемая среда?
Австралия — не единственная страна, которая борется с регулированием ИИ. Япония, например, готовится вкладывать значительные средства в развитие навыков для продвижения ИИ в медицине, образовании, финансах, производстве и административной работе, поскольку она стремится бороться со стареющим и сокращающимся населением. Ссылаясь на опасения по поводу рисков для конфиденциальности и безопасности, дезинформации и нарушения авторских прав, Япония ставит ИИ в центр своей реформы рынка труда.
ПОСМОТРЕТЬ: узнайте, как Белый дом справляется с рисками и выгодами, связанными с искусственным интеллектом, в условиях угроз злонамеренного использования.
Тем временем ЕС лидирует в регулировании ИИ, разрабатывая первые законы, специально регулирующие применение ИИ. В соответствии с этими законами развитие ИИ будет ограничено в соответствии с его «надежностью» и следующим образом:
- «Системы искусственного интеллекта, которые считаются явной угрозой безопасности, средствам к существованию и правам людей, будут запрещены. Это включает в себя приложения ИИ, которые манипулируют поведением людей, чтобы обойти свободу воли пользователей, и системы, которые позволяют правительствам проводить «социальную оценку».
Приложения ИИ с высоким риском, которые запускают целый ряд приложений, включая беспилотные автомобили, приложения, которые оценивают экзамены или помогают с набором персонала, операции с помощью ИИ и юридические приложения, будут подвергаться строгим обязательствам, включая предоставление документации, гарантия контроля со стороны человека и регистрация действий для отслеживания результатов.
Для систем с низким уровнем риска, таких как чат-боты, ЕС хочет прозрачности, чтобы пользователи знали, что они взаимодействуют с ИИ, и могли отказаться от них, если они того пожелают.
Между тем, еще одним лидером в регулировании ИИ является Китай. Китай перешел к созданию основы для генеративного ИИ — таких технологий, как ChatGPT, Stable Diffusion и других, которые используют ИИ для создания текстовых или визуальных ресурсов.
ПОСМОТРЕТЬ: отчет G2 предсказывает большие расходы на генеративный ИИ.
Что касается прав владельцев интеллектуальной собственности и возможности злоупотреблений, китайские правила потребуют от поставщиков генеративного ИИ зарегистрироваться в правительстве и предоставить водяной знак, который будет применяться ко всем активам, созданным этими системами. Поставщики также должны будут нести ответственность за контент, создаваемый продуктом другими, а это означает, что впервые поставщики приложений ИИ будут обязаны обеспечить ответственное использование своих платформ.
На данный момент Австралия все еще формулирует свой подход к ИИ. Правительство открыло общественные консультации по ответственному подходу к ИИ (которые завершатся 26 июля), и эти ответы будут использованы для продолжения многомиллионных инвестиций в ответственный ИИ, о которых было объявлено в бюджете на 2023–2024 годы.
Оригинал