Дебаты вокруг этики ИИ в Австралии сильно отстают
2 августа 2023 г.Инструменты ИИ, несомненно, полезны, и именно поэтому разработка и использование ИИ ускоряются в геометрической прогрессии. ИИ теперь используется для всего: от исследований до написания юридических аргументов, от создания изображений и рассказывания историй для художников до поддержки кодеров.
Однако какими бы полезными ни были эти инструменты, ИИ представляет собой серьезную этическую проблему, и, хотя инструменты ИИ в настоящее время выдвигаются для публичного использования в огромных количествах, дискуссии об этике ИИ остаются просто дискуссиями, за которыми не стоит нормативная поддержка. Многие страны, такие как Австралия, хотят рассмотреть вопрос о регулировании ИИ, но до такого регулирования еще далеко, и сомнительно, насколько ценные «инновации» эти правила будут ограничивать во имя передовой этической практики.
ПОСМОТРЕТЬ: Воспользуйтесь преимуществами политики этики TechRepublic Premium в области ИИ, чтобы помочь вам внедрить наилучшую стратегию использования ИИ в вашем бизнесе.
Следовательно, в то время как этическое потребление технологий в целом становится все более важным приоритетом, ИИ, напротив, стал чем-то вроде Дикого Запада, где слишком много этических границ определяется собственным этическим центром человека.
От проблем плагиата и способности ИИ поставить под угрозу целостность академических исследований до предубеждений, ведущих к дискриминации, и возможности потери рабочих мест и даже смертей, вызванных ИИ, мы, как общество, нуждаемся в разработке более совершенных этических рамок вокруг ИИ.
Нам нужно, чтобы это произошло быстро, потому что, хотя мы, возможно, и не направимся прямо к Скайнету, ИИ сыграет огромную роль в формировании нашего будущего. Мы должны убедиться, что этические основы, на которых построены эти приложения, должным образом учтены, во-первых, прежде чем мы позволим ИИ «вступить во владение» в любом значимом контексте.
«Потерянное десятилетие» для этики ИИ
В 2016 году Всемирный экономический форум рассмотрел девять основных этических проблем искусственного интеллекта. Все эти вопросы были хорошо изучены в течение десятилетия (или дольше), что делает отсутствие движения в их решении таким тревожным. Во многих случаях проблемы, отмеченные ВЭФ, которые в то время были перспективными, начинают становиться реальностью, но этические проблемы еще не приняты.
Безработица: Что происходит после окончания работы?
Как отмечает ВЭФ: «Посмотрите на грузоперевозки: в настоящее время только в Соединенных Штатах в них работают миллионы людей. Что с ними будет, если беспилотные грузовики, обещанные Илоном Маском из Tesla, станут широко доступны в следующем десятилетии?»
Тем временем в этом году была опубликована статья, в которой признается, что альтернатив работы для увольнения 50% дальнобойщиков недостаточно. Потеря рабочих мест из-за ИИ — особенно в областях, где рабочая база, как правило, старше или имеет более низкое образование — является этической проблемой, о которой давно известно, однако во всем мире как политики, так и частный бизнес не проявили особой срочности в оказании помощи пострадавшим. в переквалификации и поиске новых возможностей.
Неравенство: как мы распределяем богатство, созданное машинами?
ВЭФ признает, что у ИИ есть потенциал для дальнейшей концентрации богатства. В конце концов, ИИ работает за небольшую часть того, что делают квалифицированные работники, и он не будет объединять профсоюзы, брать больничные или нуждаться в отдыхе.
Поручая ИИ работу при одновременном сокращении общей численности рабочей силы, компании создают для себя более выгодную позицию. Однако это не приносит пользы обществу, если богатство не возвращается обратно в него.
«ИИ положит конец слабой продуктивности Запада, но кто именно от этого выиграет», — отмечается в The Guardian.
Одним из решений может быть отказ правительств от налогообложения рабочей силы и вместо этого непосредственное налогообложение систем ИИ. Общественное богатство, полученное в результате этого, может быть использовано для обеспечения безработных или перешедших на низкооплачиваемую работу необходимой поддержкой доходов. Однако, несмотря на то, что рабочие места уже затронуты, нет никаких признаков даже дебатов о преобразовании налоговой системы в натуральной форме.
Предвзятость: как мы боремся с предвзятостью и потенциальным расизмом и сексизмом, порождаемыми приложениями ИИ?
ВЭФ отметил возможность предвзятости ИИ еще в своей первоначальной статье, и это один из самых обсуждаемых и обсуждаемых вопросов этики ИИ. Есть несколько примеров того, как ИИ по-разному оценивает людей цвета кожи и пола. Однако, как отметила ЮНЕСКО в прошлом году, несмотря на десятилетие дебатов, предубеждения в отношении ИИ остаются фундаментальными до самой сути.
«Введите «величайшие лидеры всех времен» в своей любимой поисковой системе, и вы, вероятно, увидите список выдающихся мужских личностей мира. Сколько женщин вы насчитали? Поиск изображения по запросу «школьница», скорее всего, покажет страницу, заполненную женщинами и девочками во всевозможных сексуальных костюмах. Удивительно, но если вы наберете «школьник», результаты в основном будут показывать обычных школьников. Никаких мужчин в сексуальных костюмах или их очень мало».
Одно дело, когда эти предубеждения были встроены в относительно безобидные приложения, такие как результаты поисковых систем, или когда они просто создавали плохой пользовательский опыт. Однако ИИ все чаще применяется в областях, где предвзятость имеет вполне реальные, потенциально изменяющие жизнь последствия.
Некоторые утверждают, например, что ИИ приведет к «более справедливой» судебной системе. Однако встроенные предубеждения приложений ИИ, которые еще предстоит решить, несмотря на десятилетие исследований и дискуссий, предполагают совершенно иной результат, чем справедливость.
Кража: как мы защищаем художников от кражи их работ и даже личных данных теми, кто использует приложения ИИ?
Как отмечает ЮНЕСКО, в 2019 году компания Huawei использовала приложение ИИ, чтобы «закончить» последние две части незаконченной Симфонии №8 Франца Шуберта. Между тем, искусственный интеллект используется для создания голосовых банков, которые позволяют пользователям создавать речь умерших знаменитостей, таких как Стив Джобс. Одним из ключевых мотивирующих факторов недавних забастовок актеров и сценаристов были опасения, что ИИ будет использоваться для их имитации в проектах, на которых они не будут зарабатывать деньги, даже после своей смерти и без прямого согласия.
В другом месте ИИ-художник использовал генеративный ИИ для создания обложки для видеоигры, а не оригинального изображения, как того требовал издатель. Крупнейшее в мире онлайн-сообщество художников DeviantArt также вызвало ожесточенную реакцию за то, что алгоритмы искусственного интеллекта разрешили собирать данные от художников без разрешения художника.
Дебаты о том, где проходит грань между допустимым и неприемлемым использованием творческих прав ИИ, бушуют громко и громко. И тем не менее, в то время как эти дебаты все еще продолжаются, разработчики ИИ выпускают свои инструменты, которые обеспечивают подход laissez-faire для художников ИИ, в то время как правительства продолжают полагаться на устаревшие и неадекватные права ИС, созданные еще до того, как ИИ стал концепцией. регулировать пространство.
Дезинформация: как предотвратить использование ИИ для дальнейшего распространения дезинформации?
«Системы искусственного интеллекта можно обмануть так, как не удалось бы людям, — отмечалось в отчете ВЭФ за 2016 год. — Например, случайные узоры из точек могут привести к тому, что машина «увидит» вещи, которых нет».
Совсем недавно исследование показало, что ChatGPT перешел от правильного ответа на простую математическую задачу в 98% случаев к правильному решению только в двух процентах случаев. Ранее в этом году новое приложение Google AI допустило критическую фактическую ошибку и уничтожило рыночную стоимость компании на 100 миллиардов долларов.
Мы живем в эпоху, когда информация распространяется быстро, а дезинформация может повлиять на все, вплоть до критических результатов выборов. Некоторые правительства предпринимают умеренные попытки ввести законы о дезинформации. Австралия, например, стремится решить «системные проблемы, которые представляют риск причинения вреда на цифровых платформах», но приложения ИИ выпускаются в дикую природу без каких-либо обязательств быть точными в информации, которую они представляют, и большая проблема с Дезинформация заключается в том, что после того, как она повлияла на кого-то, может быть трудно исправить запись.
Общий шаблон для критической проблемы
Это всего лишь пять примеров того, как ИИ влияет на работу, образ жизни и само существование людей. Во всех этих примерах этические опасения по поводу них были хорошо известны в течение многих лет, и тем не менее, даже несмотря на то, что этические дебаты не были урегулированы, выпуск этих приложений продолжался беспрепятственно.
Как говорится в народной поговорке: «Лучше просить прощения, чем разрешения». Похоже, именно такой подход использовали в своей работе те, кто занимается ИИ. Проблема в том, что эта цитата, исходящая от адмирала Грейс Хоппер, была совершенно неверно истолкована по сравнению с ее первоначальным замыслом. На самом деле, чем дольше разработка ИИ идет без учета этических соображений — чем дольше им позволено просить прощения, а не разрешения — тем труднее будет возместить вред, причиняемый приложениями во имя защиты. прогресс.
Оригинал