Прежде чем думать об этичном ИИ, во-первых, станьте ответственным

Прежде чем думать об этичном ИИ, во-первых, станьте ответственным

20 декабря 2022 г.

Когда мы говорим об ответственном ИИ и этичном ИИ, все еще возникает путаница. Это одно и то же понятие с разными именами? Давайте поразим некоторых: этический ИИ на самом деле подпадает под понятие ответственного ИИ (RAI). Он служит моральным кодексом для правительств, корпораций, организаций и специалистов по машинному обучению, чтобы не допустить, чтобы «Скайнет» стал реальностью.

Хотя сценарий «Терминатора» немного неправдоподобен — создание ИИ с соблюдением этических норм и его развертывание во благо имеют решающее значение для массового внедрения, — все же важно сначала убедиться, что он работает так, как мы хотим.

Когда производительность модели ухудшается или происходит дрейф, инженеры машинного обучения, группы специалистов по обработке данных и заинтересованные стороны ИИ должны точно знать, что делать, прежде чем это повлияет на непрерывность бизнеса или общество в целом. Использование ИИ для достижения благородных целей, таких как борьба с изменением климата или защита дикой природы, — это, безусловно, хорошо, но если ваша структура ИИ не определена, деревьев решений для реагирования на оповещения не существует, и у вас минимальное представление о производительности вашей модели. тогда вы не в состоянии решить ни одну из этих благородных проблем.

Правительства, города и т. д. Крупные корпорации присоединяются к этичному AI & Обсуждение RAI

За последнее десятилетие мы видели крупные организации, такие как Microsoft. , Amazon, < strong>Google и другие компании — попытка рассмотреть этическую и ответственную теорию ИИ. ЕС разработал руководство по этике для заслуживающий доверия ИИ как способ подтверждения ответственного использования ИИ. Недавно мы стали свидетелями того, как Белый дом представил план для Билля о правах ИИ. Даже город Нью-Йорк начал применять этический подход к ИИ. Все эти примеры подчеркивают прогресс, достигнутый в достижении глобального консенсуса в отношении того, как создавать и развертывать ИИ.

Каковы наши ограничения? Как различные компании и варианты использования применяют эти рекомендации в своих продуктах, платформах и командах?

Почему ответственный ИИ на первом месте

Ответственный ИИ – это набор практик и инструментов, которые гарантируют, что модели машинного обучения работают должным образом, а если это не так, они определяют, что делать дальше: как свести к минимуму непредвиденные последствия в моем ИИ до того, как они навредить моему бизнесу или моим пользователям? Только с установленной структурой RAI организации могут стремиться действовать в соответствии со своими этическими целями в области ИИ и избегать непреднамеренно предвзятых результатов. Если модель испытывает дрейф и впоследствии работает неэффективно, никакие этические нормы или благие намерения не подскажут вам, что именно вызывает проблемы.

4 быстрых успеха для практики ответственного ИИ

Чтобы доверять своему ИИ и убедиться, что его эффективность обеспечивает этическую ценность, вы можете легко реализовать эти 4 быстрых решения и начать практиковать RAI:

Видимость модели

Единое место, где все заинтересованные стороны могут видеть и понимать статус всех производственных моделей.

  1. Создайте централизованную информационную панель для всех заинтересованных сторон. Отличный способ увидеть статус всех производственных моделей и простая визуализация для начальства, когда оно начинает задавать вопросы 😉
  2. Отслеживайте все модели в производстве! Включите обучающие данные, артефакты модели и показатели из разных срезов данных.
  3. Храните входные и выходные данные модели, а также любые данные логического вывода в озере данных. Чем больше у вас информации о ваших моделях, тем проще решать любые проблемы и повышать производительность.

От реактивного реагирования к активному

Его природа черного ящика и многочисленные варианты использования не позволяют заранее определить неожиданное поведение вашего ИИ. Мониторинг и оповещение помогут вам действовать быстро. Ответьте сейчас, исправление будет позже.

1. Настройте мониторы и оповещения о любых отклонениях от установленных стандартов.

2. Определите ожидаемое поведение модели: распределение входных данных, ключевые показатели эффективности обработки данных и бизнеса, ожидаемое распределение прогнозов и объем активности.

3. Убедитесь, что ваши основные каналы связи интегрированы с вашим механизмом оповещения. Таким образом, все соответствующие заинтересованные стороны имеют легкий доступ и могут способствовать здоровому обсуждению оптимизации ответа.

Рабочий процесс реагирования на инциденты

Быстро и эффективно реагируя, вы можете значительно смягчить последствия машинного обучения для вашего бизнеса и пользователей.

  1. Определяйте срочность, но будьте объективны.
  2. Определите рабочий процесс для обработки событий машинного обучения. Создайте дерево решений и поток вопросов, чтобы каждый заинтересованный человек знал свою роль, даже если что-то пойдет не так в 2:00 ночи.
  3. Определите, какие резервные механизмы активируются для различных сценариев.
  4. Учитесь. Учиться. Учиться. Всегда регистрируйте и подытоживайте инцидент, чтобы узнать, как исправить ситуацию в следующий раз.

Обзор эффективности

Если никто не проверяет эффективность модели, как мы узнаем, что она достигает своих целей?

  1. Запланируйте еженедельные или раз в две недели встречи со всеми соответствующими заинтересованными сторонами для обзора и оценки эффективности производства.
  2. Пройдитесь по пунктам действий предыдущей встречи, оцените предыдущую эффективность по сравнению с ключевыми показателями эффективности, составьте список новых вопросов и установите цели и ответственных лиц.
  3. Составьте повестку дня и включите:
  4. Просмотрите действия с последней встречи.
  5. Сравните ожидаемые ключевые показатели эффективности с фактическими показателями эффективности.
  6. Определите рабочий процесс и право собственности на неожиданные пробелы в производительности.

Заключительные мысли

Существует огромное количество частных и государственных организаций, которые используют ИИ, чтобы сделать наш мир лучше. Будь то спасение китов или сделать так, чтобы в Твиттере было меньше ботов, распространяющих поддельные новости (смотря на тебя, Илон), этический ИИ всегда должен стоять на первом месте в списке приоритетов. Однако для того, чтобы добиться этого, организациям сначала необходимо принять эффективную структуру RAI, чтобы действительно начать преследовать свои этические цели. Хотя многие уже устали от дискуссий об ответственном искусственном интеллекте, приведенные выше четыре быстрых победы представляют собой простой контрольный список того, как применить его на практике.

Четыре быстрых победы были получены на основе представления Лиран Хейсон о том, как начать практиковать ответственный ИИ.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE