По данным Deloitte, компании стремятся найти баланс между инновациями в области искусственного интеллекта и этикой
14 августа 2024 г.Поскольку генеративный ИИ становится все более популярным, организации должны подумать, как его внедрять этично. Но как выглядит этическое внедрение ИИ? Включает ли оно в себя ограничение интеллекта человеческого уровня? Предотвращение предвзятости? Или и то, и другое?
Чтобы оценить, как компании подходят к этой теме, Deloitte недавно опросила 100 руководителей высшего звена в американских компаниях с годовым доходом от $100 млн до $10 млрд. Результаты показали, как руководители бизнеса включают этику в свою политику генеративного ИИ.
Главные приоритеты этики ИИ
Какие этические проблемы эти организации считают наиболее важными? Организации выделили следующие этические проблемы в разработке и развертывании ИИ:
- Баланс инноваций с регулированием (62%).
Обеспечение прозрачности в том, как собираются и используются данные (59%).
Решение проблем, связанных с конфиденциальностью данных и пользователей (56%).
Обеспечение прозрачности в том, как работают корпоративные системы (55%).
Снижение предвзятости в алгоритмах, моделях и данных (52%).
Обеспечение надежной и правильной работы систем (47%).
Организации с более высокими доходами — 1 млрд долларов США и более в год — чаще, чем предприятия малого бизнеса, заявляли, что их этические принципы и структуры управления поощряют технологические инновации.
Неэтичное использование ИИ может включать дезинформацию, особенно критичную во время избирательных сезонов, и усиление предвзятости и дискриминации. Генеративный ИИ может случайно воспроизводить человеческие предубеждения, копируя то, что он видит, или злоумышленники могут использовать генеративный ИИ для намеренного создания предвзятого контента быстрее.
Злоумышленники, использующие фишинговые письма, могут воспользоваться быстрой записью генеративного ИИ. Другие потенциально неэтичные случаи использования могут включать принятие ИИ важных решений в военных действиях или правоохранительных органах.
Правительство США и крупные технологические компании в сентябре 2023 года согласились на добровольное обязательство, которое устанавливает стандарты раскрытия использования генеративного ИИ и контента, созданного с его помощью. Управление по политике в области науки и технологий Белого дома опубликовало проект Билля о правах ИИ, который включает в себя усилия по борьбе с дискриминацией.
Американские компании, использующие ИИ в определенных масштабах и для задач с высоким уровнем риска, должны будут предоставлять информацию в Министерство торговли с января 2024 года.
СМ.: Начните работу с шаблона Политики этики ИИ.
«Для любой организации, внедряющей ИИ, эта технология представляет собой как потенциал для положительных результатов, так и риск непредвиденных результатов», — сказала Бина Амманат, исполнительный директор Глобального института искусственного интеллекта Deloitte и руководитель программы Trustworthy AI в Deloitte, в электронном письме TechRepublic.
Кто принимает решения по этике ИИ?
В 34% случаев решения по этике ИИ принимаются директорами или руководителями более высоких должностей. В 24% случаев все специалисты принимают решения по ИИ самостоятельно. В более редких случаях этические решения, связанные с ИИ, принимают руководители предприятий или отделов (17%), менеджеры (12%), специалисты с обязательным обучением или сертификацией (7%) или наблюдательный совет по ИИ (7%).
Крупные компании с годовым доходом 1 млрд долларов и более с большей вероятностью позволяли работникам принимать независимые решения об использовании ИИ, чем компании с годовым доходом менее 1 млрд долларов.
Большинство опрошенных руководителей (76%) заявили, что их организация проводит этичное обучение по ИИ для своих сотрудников, а 63% заявили, что проводят его для совета директоров. Работники на этапах строительства (69%) и предразработки (49%) реже получают этичное обучение по ИИ.
«Поскольку организации продолжают изучать возможности с помощью ИИ, отрадно наблюдать, как в тандеме появились структуры управления, позволяющие сотрудникам добиваться этических результатов и оказывать положительное влияние», — сказал Квази Митчелл, директор по целям и DEI в США в Deloitte. «Принимая процедуры, направленные на поощрение ответственности и защиту доверия, лидеры могут создать культуру честности и инноваций, которая позволит им эффективно использовать возможности ИИ, одновременно продвигая справедливость и оказывая влияние».
Нанимают ли организации и повышают квалификацию на должности в области этики ИИ?
Следующие должности были наняты или входят в планы найма для опрошенных организаций:
- Исследователь ИИ (59%).
Аналитик политики (53%).
Менеджер по соблюдению ИИ (50%).
Специалист по данным (47%).
Специалист по управлению ИИ (40%).
Специалист по этике данных (34%).
Специалист по этике ИИ (27%).
Многие из этих специалистов (68%) пришли из внутренних программ обучения/повышения квалификации. Меньше использовали внешние источники, такие как традиционные программы найма или сертификации, и еще меньше рассматривают наймы в кампусе и сотрудничество с академическими учреждениями.
«В конечном итоге предприятия должны быть уверены, что их технологиям можно доверять в плане защиты конфиденциальности, безопасности и справедливого обращения с пользователями, а также что они соответствуют их ценностям и ожиданиям», — сказал Амманат. «Эффективный подход к этике ИИ должен основываться на конкретных потребностях и ценностях каждой организации, и предприятия, которые внедряют стратегические этические рамки, часто обнаруживают, что эти системы поддерживают и стимулируют инновации, а не препятствуют им».
Оригинал