Расшифровка алгоритма: этика анализа данных при принятии решений с помощью ИИ

Расшифровка алгоритма: этика анализа данных при принятии решений с помощью ИИ

23 декабря 2023 г.

От здравоохранения до уголовного правосудия искусственный интеллект все чаще влияет на решения, которые формируют нашу жизнь, анализируя огромные наборы данных и генерируя рекомендации, определяющие последующий выбор.

Но этот подход, основанный на данных, поднимает глубокие этические вопросы. Как мы можем гарантировать, что мощный ИИ уважает человеческие ценности и предотвращает дискриминацию? В этой статье я обсуждаю этические дилеммы, связанные с искусственным интеллектом, управляемым данными.

Опираясь на свой опыт разработки инклюзивных технологий, я анализирую практические решения, которые помогут сделать ИИ более справедливым, прозрачным и подотчетным. Я обсуждаю тематическое исследование, показывающее этический ИИ в действии. И я исследую, что нужно сделать, чтобы будущее ИИ соответствовало человеческой этике.

Моя цель — предоставить информацию читателям, обеспокоенным огромным влиянием алгоритмов на справедливость и возможности, а также тем, как мы можем сформировать сострадательный ИИ.

Эволюция ИИ

Данные уже давно используются для принятия решений, например, в астрономии, статистике и экономике. Но благодаря цифровым технологиям и Интернету мы теперь можем собирать, хранить и анализировать больше данных, чем когда-либо прежде, также известных как большие данные. Большие данные могут раскрыть новые идеи и тенденции, которые раньше были скрыты. Это может сделать процесс принятия решений более эффективным и результативным.

ИИ — это следующий рубеж в принятии решений, основанных на данных. ИИ использует компьютерные системы для выполнения задач, которые обычно требуют человеческого интеллекта, таких как рассуждение, обучение и решение проблем.

ИИ может анализировать большие данные, извлекать из них уроки и генерировать прогнозы, рекомендации или действия. Он также может адаптироваться к новым данным и со временем становиться лучше.

ИИ уже используется для принятия решений на основе данных в:

  • Здравоохранение – помогает диагностировать заболевания, рекомендовать лечение, наблюдать за пациентами и открывать новые лекарства.

* Образование: персонализация обучения, оценка учащихся, предоставление отзывов и предложение курсов.

* Финансы – для обнаружения мошенничества, управления рисками, оптимизации инвестиций и предоставления финансовых консультаций.

* Правосудие — прогнозировать преступления, оценивать риски, распределять ресурсы и предлагать юридическую помощь.

nИИ может улучшить качество, скорость и точность решений. Это может улучшить человеческие способности и благополучие. Но это также поднимает этические проблемы, которые необходимо решить.

Выявление этических проблем

Одной из больших этических проблем, связанных с принятием решений с помощью ИИ, является предвзятость. Предвзятость означает отклонение от истины или справедливости. Это может повлиять на данные, алгоритм или результаты работы систем ИИ. Предвзятость возникает из-за:

* Смещение данных — когда данные, используемые для обучения или тестирования ИИ, являются неполными, неточными или не отражают реальную популяцию. Это приводит к ненадежному, неточному или дискриминационному ИИ. Например, исследование 2021 года показало, что система искусственного интеллекта для диагностики рака кожи предвзято относится к людям с темной кожей, поскольку в основном обучалась на белых пациентах.

* Смещение алгоритма — когда сам алгоритм или модель ошибочны, сложны или непрозрачны. Это приводит к появлению несправедливого, непоследовательного или необъяснимого ИИ. Например, в отчете 2022 года было показано, что ИИ для оценки риска рецидива преступлений в США был предвзятым в отношении чернокожих обвиняемых и давал им более высокие оценки риска, чем аналогичные белые обвиняемые. Это вызвало расовую дискриминацию при вынесении приговоров и условно-досрочном освобождении.

* Предвзятость результата — когда влияние решения ИИ вредно, несправедливо или нежелательно. Это делает системы ИИ неэтичными, безответственными или вредными. Например, в отчете 2022 года выяснилось, что ИИ при распределении социальных пособий в Великобритании предвзято относится к инвалидам и уязвимым людям, что приводит к неправомерным отказам, задержкам и ошибкам.

Еще одна этическая проблема — прозрачность: понимание того, как и почему ИИ принимает решения, а также доступ к данным и алгоритмам, лежащим в их основе. Это важно для доверия, подотчетности и объяснимости ИИ. Но прозрачности часто не хватает по следующим причинам:

* Сложность алгоритмов, таких как глубокое обучение, которые трудно интерпретировать. * Запатентованный характер систем искусственного интеллекта, позволяющий избежать общественного контроля.

Адаптивная природа ИИ, который со временем непредсказуемо меняет поведение.

С этим связана подотчетность — ответственность за действия и последствия ИИ, а также способность отслеживать, проверять и исправлять их. Это гарантирует качество, безопасность и законность. Но подотчетность в ИИ неясна по следующим причинам:

* ИИ включает в себя множество децентрализованных участников, таких как разработчики, поставщики, пользователи и регулирующие органы, взаимодействующие непредсказуемо.

* Автономная природа ИИ, действующего независимо, новыми способами, бросающими вызов причинно-следственной связи.

* Правовые и нормативные пробелы, которые не решают должным образом вопросы ИИ.

Усилия по решению этических проблем

Различные заинтересованные стороны прилагают усилия для решения этических проблем, связанных с анализом данных в системах принятия решений с помощью ИИ. н

Исследователи и разработчики технологий создают технические решения, призванные сделать системы искусственного интеллекта более этичными за счет:

* Внедрение алгоритмов и методов обработки данных для выявления и уменьшения систематических ошибок на этапах сбора данных, обучения модели и проектирования системы. Методы включают очистку наборов данных, корректировку параметров модели и результаты постобработки.

* Обеспечение прозрачности систем с помощью объяснимых методов искусственного интеллекта, которые объясняют причины решений ИИ с помощью подробных контрольных журналов, интерактивных визуализаций и объяснений на естественном языке.

Политики и регулирующие органы разрабатывают новые законы и основы управления, специально направленные на обеспечение ответственной и этической разработки и внедрения систем искусственного интеллекта, например:

* Предлагаемый Закон ЕС об искусственном интеллекте, который будет строго регулировать приложения искусственного интеллекта с высоким уровнем риска, которые могут существенно повлиять на отдельных лиц и общество, обеспечивая соблюдение требований в отношении прозрачности, надзора и снижения рисков.

* Международные руководящие принципы и принципы этики искусственного интеллекта, опубликованные такими организациями, как ОЭСР и IEEE, которые предоставляют лучшие практики в области справедливости, подотчетности, безопасности и человеческого надзора за автономными системами. н

Исследовательские учреждения, некоммерческие организации и правозащитные группы возглавляют усилия по просвещению и вовлечению сообщества в целях повышения осведомленности об этике ИИ, включая:

* Общественные кампании, семинары, конференции и учебные программы для информирования различной аудитории о влиянии ИИ на общество и формирования понимания ключевых этических проблем.

* Новые междисциплинарные центры, партнерства и финансовые инициативы, ориентированные на прикладные исследования в области этики ИИ, аудит систем ИИ и разработку стандартов. н

Для разработки справедливого, прозрачного, подотчетного и соответствующего этическим ценностям ИИ необходим совместный многосторонний подход с участием технологов, регулирующих органов и общественности.

История успеха

Программа Microsoft «ИИ для Земли» служит примером этического принятия решений с помощью ИИ для решения экологических проблем, таких как изменение климата и биоразнообразие. Он участвует в проектах, которые расширяют возможности мониторинга, моделирования и управления природными ресурсами с использованием ИИ. Примеры:

* iNaturalist – платформа искусственного интеллекта, помогающая людям выявлять и документировать биоразнообразие для исследований и сохранения.

* FarmBeats: использование искусственного интеллекта для предоставления фермерам информации на основе данных для повышения производительности и устойчивости.

* NCX — использование искусственного интеллекта для помощи управляющим лесами в измерении и управлении лесами, а также в создании рынка углеродных кредитов, поощряющего сохранение. н

Microsoft AI for Earth приняла этические принципы ИИ, такие как доверие, ответственность, инклюзивность, конфиденциальность, безопасность и права человека. Он соответствует Целям устойчивого развития ООН по этичному использованию ИИ для борьбы с изменением климата, защиты биоразнообразия и обеспечения продовольственной безопасности.

Microsoft сотрудничает с различными инициативами, продвигающими ответственный искусственный интеллект для здоровья планеты и ее жителей. Однако остаются проблемы в обеспечении соответствия ИИ экологическим ценностям. В целом, Microsoft AI for Earth демонстрирует, как можно этически применять ИИ для повышения устойчивости. Для полной реализации этического потенциала ИИ необходимы дополнительные совместные усилия.

Будущие последствия

По мере развития ИИ этические проблемы будут увеличиваться и развиваться:

  • Новые формы ИИ, такие как общий искусственный интеллект, могут превосходить человеческие возможности, создавая риски или открывая новые возможности.

*Распространение применения ИИ в таких областях, как биотехнологии и освоение космоса, может создать новые возможности и проблемы для процветания человечества.

Разрушение общества и культуры, вызванное искусственным интеллектом, может повлиять на человеческие ценности, что потребует нового управления.

n Чтобы обеспечить этичный и полезный ИИ, мы должны:

  • Повышать этическую культуру среди сообщества ИИ и общественности посредством образования и взаимодействия.

* Установите этические принципы и согласуйте ИИ с нормами и правами человека.

* Разрабатывать технические решения для справедливого, прозрачного и подотчетного ИИ.

* Отслеживайте влияние ИИ и постоянно совершенствуйте системы.

* Сотрудничать на международном уровне и инклюзивно по всем дисциплинам.

n Предвидя будущее развитие ИИ, мы можем активно решать возникающие этические проблемы с помощью политик и практик, которые согласуют ИИ с нашими ценностями. Это требует совместного, адаптивного и ориентированного на человека подхода к разработке и управлению ИИ.

Заключение

В этой статье рассматриваются этические вопросы принятия решений с помощью ИИ, такие как предвзятость и подотчетность. Хотя ИИ обещает преимущества, он также рискует нанести вред без достаточного контроля. Подходы к этичному ИИ включают технические исправления, регулирование и участие сообщества.

Программа Microsoft «ИИ для Земли» демонстрирует этическое применение ИИ на благо окружающей среды. Однако по мере развития ИИ этические последствия будут меняться, требуя упреждающей политики, которая приведет ИИ в соответствие с человеческими ценностями.

Для реализации всего потенциала ИИ необходимо решать возникающие этические проблемы посредством совместного управления, ориентированного на подотчетность, инклюзивность и процветание человечества. Этика должна стать приоритетом сейчас, чтобы ответственно управлять будущим ИИ. Благодаря продуманному руководству мы можем разработать искусственный интеллект, который с этической точки зрения улучшит качество жизни.

Ссылки

Большие данные и искусственный интеллект: будущее принятия решений - FISClouds n Хронологическая эволюция информационного процесса принятия решений (1950–2020 гг.) ) | Журнал экономики знаний (springer.com) n Что такое искусственный интеллект (ИИ)? | IBM n Предвзятость ИИ: 9 вопросов, которые должны задать лидеры | Проект предпринимателей n Искусственный интеллект диагностирует риск менее точно для темной кожи – исследование | Рак кожи | The Guardian n Искусственный интеллект в уголовных судах: как он усиливает предвзятость и дискриминацию | SpringerLink n Правительству Великобритании грозит счет в 150 миллионов фунтов стерлингов по поводу дискриминации в сфере социального обеспечения | Универсальный кредит | The Guardian n Что такое объяснимый ИИ? | IBM n Предложение по постановлению установление гармонизированных правил в области искусственного интеллекта | Формируя цифровое будущее Европы (europa.eu) n Обзор принципов искусственного интеллекта – OECD.AI n IEEE SA — Глобальная инициатива IEEE по этике автономных и интеллектуальных систем n Декларация Монреаля об ответственности IA (declarationmontreal-iaresponsable.com) n ИИ для Земли – Microsoft AI n Сообщество натуралистов · iNaturalist n FarmBeats: AI, Edge & Интернет вещей для сельского хозяйства – исследования Microsoft n NCX – узнайте истинную ценность своей земли n Что такое искусственный сверхинтеллект (ИСИ)? | Определение от TechTarget


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE