Deloitte: на 50% больше специалистов оценивают конфиденциальность данных как главную проблему GenAI в 2024 году

27 сентября 2024 г.

Опасения по поводу конфиденциальности данных в связи с генеративным ИИ резко возросли, говорится в новом отчете Deloitte. Если в прошлом году только 22% профессионалов включили это в тройку главных проблем, то в этом году этот показатель вырос до 72%.

Следующими по значимости этическими проблемами GenAI стали прозрачность и происхождение данных, и 47% и 40% профессионалов включили их в тройку лидеров в этом году. Между тем, только 16% выразили обеспокоенность по поводу сокращения рабочих мест.

Сотрудники все больше интересуются тем, как работает технология ИИ, особенно в отношении конфиденциальных данных. Сентябрьское исследование HackerOne показало, что почти половина специалистов по безопасности считают ИИ рискованным, а многие видят угрозу в утечке данных обучения.

Аналогичным образом, 78% руководителей предприятий назвали «безопасность и надежность» одним из трех главных этических принципов в области технологий, что на 37% больше, чем в 2023 году, что еще раз демонстрирует, насколько важен вопрос безопасности.

Результаты опроса взяты из отчета Deloitte «Состояние этики и доверия к технологиям» за 2024 год, в котором приняли участие более 1800 специалистов в сфере бизнеса и технических специалистов по всему миру. Они обсудили этические принципы, которые они применяют к технологиям, в частности к GenAI.

Громкие инциденты безопасности ИИ, вероятно, привлекут больше внимания

Чуть более половины респондентов отчетов этого и прошлого годов заявили, что когнитивные технологии, такие как ИИ и GenAI, представляют собой наибольшие этические риски по сравнению с другими новыми технологиями, такими как виртуальная реальность, квантовые вычисления, автономные транспортные средства и робототехника.

Этот новый акцент может быть связан с более широким пониманием важности безопасности данных из-за получивших широкую огласку инцидентов, например, когда ошибка в ChatGPT от OpenAI привела к раскрытию персональных данных около 1,2% подписчиков ChatGPT Plus, включая имена, адреса электронной почты и частичные платежные реквизиты.

Доверие к чат-боту, несомненно, было подорвано известием о том, что хакеры взломали онлайн-форум, используемый сотрудниками OpenAI, и похитили конфиденциальную информацию о системах искусственного интеллекта компании.

СМ.: Политика этики в отношении искусственного интеллекта

«Широкая доступность и широкое распространение GenAI могли повысить осведомленность респондентов и доверие к этой технологии, усилив оптимизм относительно ее потенциала для блага», — заявила в пресс-релизе Бина Амманат, руководитель направления Trustworthy AI в Глобальном институте искусственного интеллекта Deloitte.

«Продолжающиеся предостерегающие настроения относительно очевидных рисков подчеркивают необходимость конкретных, развитых этических рамок, которые позволят добиться положительного воздействия».

Законодательство в области ИИ влияет на работу организаций по всему миру

Естественно, что по сравнению с прошлым годом больше сотрудников стали использовать GenAI на работе: согласно отчетам Deloitte, процент специалистов, сообщающих об использовании этой технологии внутри компании, вырос на 20% по сравнению с прошлым годом.

Огромные 94% заявили, что их компании каким-то образом внедрили его в процессы. Однако большинство указали, что он все еще находится на пилотной стадии или его использование ограничено, и только 12% заявили, что он широко используется. Это согласуется с недавним исследованием Gartner, которое показало, что большинство проектов GenAI не выходят за рамки стадии проверки концепции.

СМ.: IBM: несмотря на рост внедрения искусственного интеллекта на предприятиях, барьеры ограничивают его использование

Независимо от его распространенности, лица, принимающие решения, хотят быть уверены, что использование ИИ не приведет к проблемам, особенно когда дело касается законодательства. Самой высоко оцененной причиной наличия этических политик и руководств в области технологий было соответствие, на которое указали 34% респондентов, в то время как нормативные штрафы были среди трех основных проблем, о которых сообщалось, если такие стандарты не соблюдаются.

Закон ЕС об искусственном интеллекте вступил в силу 1 августа и налагает строгие требования на высокорисковые системы искусственного интеллекта для обеспечения безопасности, прозрачности и этичного использования. Несоблюдение может повлечь за собой штрафы в размере от €35 млн ($38 млн USD) или 7% от мирового оборота до €7,5 млн ($8,1 млн USD) или 1,5% от оборота.

Более сотни компаний, включая Amazon, Google, Microsoft и OpenAI, уже подписали Пакт ЕС об искусственном интеллекте и добровольно начали внедрять требования Акта до наступления установленных законом сроков. Это демонстрирует их приверженность ответственному развертыванию ИИ для общественности и помогает им избежать будущих юридических проблем.

Аналогичным образом, в октябре 2023 года США представили Исполнительный указ об ИИ, содержащий обширные рекомендации по поддержанию безопасности, гражданских прав и конфиденциальности в государственных учреждениях, а также по содействию инновациям и конкуренции в области ИИ по всей стране. Хотя это не закон, многие компании, работающие в США, могут вносить изменения в политику в ответ на обеспечение соответствия меняющемуся федеральному надзору и общественным ожиданиям в отношении безопасности ИИ.

СМ.: Страны G7 создают добровольный кодекс поведения в сфере искусственного интеллекта

Закон ЕС об искусственном интеллекте оказал влияние на Европу: 34% европейских респондентов заявили, что их организации внесли изменения в использование ИИ за последний год в ответ на него. Однако влияние более распространено, поскольку 26% респондентов из Южной Азии и 16% респондентов из Северной и Южной Америки также внесли изменения из-за вступления Закона в силу.

Более того, 20% респондентов из США заявили, что внесли изменения в свои организации в ответ на указ. Четверть респондентов из Южной Азии, 21% в Южной Америке и 12% в Европе сказали то же самое.

«Признано, что когнитивные технологии, такие как ИИ, обладают как наибольшим потенциалом для пользы общества, так и наибольшим риском неправомерного использования», — пишут авторы отчета.

«Ускоренное принятие GenAI может опережать возможности организаций по управлению технологией. Компаниям следует отдавать приоритет как внедрению этических стандартов для GenAI, так и осмысленному выбору вариантов использования, к которым применяются инструменты GenAI».

Подпишитесь на рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая IoT, 5G, последние новости о телефонах, безопасности, умных городах, ИИ, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая IoT, 5G, последние новости о телефонах, безопасности, умных городах, ИИ, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE