Австралия призывает присвоить степень магистра права OpenAI, Meta и Google статус «высокого риска»
3 декабря 2024 г.После восьмимесячного расследования внедрения искусственного интеллекта в стране специальный комитет Сената Австралии недавно опубликовал отчет, в котором резко раскритиковал крупные технологические компании, включая OpenAI, Meta и Google, и призвал классифицировать их продукты на основе крупных языковых моделей как «высокорисковые» в соответствии с новым австралийским законом об искусственном интеллекте.
Комитету Сената по внедрению искусственного интеллекта было поручено изучить возможности и проблемы, которые ИИ представляет для Австралии. Его расследование охватывало широкий спектр областей: от экономических выгод производительности на основе ИИ до рисков предвзятости и воздействия на окружающую среду.
В заключительном отчете комитета сделан вывод о том, что глобальным технологическим фирмам не хватает прозрачности в отношении аспектов их LLM, таких как использование австралийских данных об обучении. Его рекомендации включали введение закона об ИИ и необходимость для работодателей консультироваться с сотрудниками, если ИИ используется на рабочем месте.
Отчет показывает, что крупным технологическим компаниям и их моделям искусственного интеллекта не хватает прозрачности
Комитет заявил в своем отчете, что значительное количество времени было уделено обсуждению структуры, развития и влияния мировых «моделей ИИ общего назначения», включая LLM, разработанные крупными многонациональными технологическими компаниями, такими как OpenAI, Amazon, Meta и Google.
Комитет заявил, что среди поднятых проблем были отсутствие прозрачности в отношении моделей, рыночная власть, которой эти компании обладают в своих областях, «их история нежелания нести ответственность и соблюдать нормативные требования», а также «открытое и явное хищение информации, защищенной авторским правом, у австралийских владельцев авторских прав».
Правительственный орган также перечислил в качестве проблемных вопросов «несогласованный сбор личной и частной информации», потенциальную широту и масштаб применения моделей в австралийском контексте, а также «разочаровывающее уклонение комитета от вопросов по этим темам».
«Комитет считает, что эти проблемы требуют регулирующего ответа, который явно определяет модели ИИ общего назначения как высокорисковые», — говорится в отчете. «При этом к этим разработчикам будут предъявляться более высокие требования к тестированию, прозрачности и подотчетности, чем к многим менее рискованным и менее результативным вариантам использования ИИ».
В отчете излагаются дополнительные проблемы, связанные с ИИ, включая потерю рабочих мест из-за автоматизации.
Признавая, что ИИ будет способствовать повышению экономической производительности, комитет признал высокую вероятность потери рабочих мест из-за автоматизации. Эти потери могут затронуть рабочие места с более низкими требованиями к образованию и обучению или уязвимые группы, такие как женщины и люди из более низких социально-экономических групп.
Комитет также выразил обеспокоенность по поводу предоставленных ему доказательств относительно воздействия ИИ на права работников и условия труда в Австралии, особенно там, где системы ИИ используются в таких случаях, как планирование рабочей силы, управление и наблюдение на рабочем месте.
«Комитет отмечает, что подобные системы уже внедряются на рабочих местах, во многих случаях пионерами этого процесса стали крупные многонациональные компании, стремящиеся к повышению прибыльности за счет извлечения максимальной производительности из своих сотрудников», — говорится в отчете.
СМОТРЕТЬ: Генеральный директор Dovetail выступает за сбалансированный подход к регулированию инноваций в сфере ИИ
«Доказательства, полученные в ходе расследования, показывают, что существует значительный риск того, что такое инвазивное и бесчеловечное использование ИИ на рабочем месте подрывает консультации на рабочем месте, а также права и условия труда работников в целом».
Что следует извлечь ИТ-руководителям из рекомендаций комитета?
Комитет рекомендовал правительству Австралии:
- Обеспечить, чтобы окончательное определение высокорискованного ИИ явно включало приложения, которые влияют на права работников.
Расширить существующую законодательную базу по охране труда и технике безопасности для устранения рисков на рабочем месте, связанных с внедрением ИИ.
Обеспечить, чтобы работники и работодатели «тщательно консультировались о необходимости и наилучшем подходе к дальнейшим мерам регулирования для устранения влияния ИИ на работу и рабочие места».
СМ.: Почему организациям следует использовать ИИ, чтобы стать более чувствительными и устойчивыми
Правительству Австралии не нужно действовать по отчету комитета. Однако ему следует поощрять местных руководителей ИТ продолжать ответственно рассматривать все аспекты применения технологий и инструментов ИИ в своих организациях, стремясь к ожидаемым преимуществам производительности.
Во-первых, многие организации уже рассмотрели, как применение различных LLM влияет на них с юридической или репутационной точки зрения, основываясь на данных обучения, используемых для их создания. Руководители ИТ должны продолжать учитывать базовые данные обучения при применении любого LLM в своей организации.
Ожидается, что ИИ окажет значительное влияние на рабочую силу, и ИТ будет играть важную роль в его внедрении. Руководители ИТ могли бы поощрять больше инициатив «голоса сотрудников» при внедрении ИИ, что могло бы поддержать как взаимодействие сотрудников с организацией, так и внедрение технологий и инструментов ИИ.
Оригинал