Отчет Google Cloud/Cloud Security Alliance: специалисты в области ИТ и безопасности «осторожно оптимистичны» в отношении ИИ

Отчет Google Cloud/Cloud Security Alliance: специалисты в области ИТ и безопасности «осторожно оптимистичны» в отношении ИИ

4 апреля 2024 г.

Согласно отчету Cloud Security Alliance, подготовленному по заказу Google Cloud, высшее руководство лучше знакомо с технологиями искусственного интеллекта, чем его сотрудники по ИТ и безопасности. В отчете, опубликованном 3 апреля, обсуждались вопросы, опасаются ли специалисты в области ИТ и безопасности, что ИИ заменит им рабочие места, а также преимущества и проблемы роста генеративного ИИ и многое другое.

63% опрошенных специалистов в области ИТ и безопасности считают, что ИИ улучшит безопасность в их организации. Еще 24% нейтрально относятся к влиянию ИИ на меры безопасности, а 12% не верят, что ИИ улучшит безопасность в их организации. Лишь немногие из опрошенных (12%) предсказывают, что ИИ заменит им работу.

Опрос, использованный для создания отчета, проводился на международном уровне, в ноябре 2023 года на него ответили 2486 специалистов в области ИТ и безопасности, а также руководителей высшего звена из организаций из Северной и Южной Америки, Азиатско-Тихоокеанского региона и Европы, Ближнего Востока и Африки.

Специалисты по кибербезопасности, не занимающие руководящие должности, менее четко, чем высшее руководство, понимают возможные варианты использования ИИ в кибербезопасности: только 14% сотрудников (по сравнению с 51% руководителей высшего звена) говорят, что они «очень ясны».

«Разрыв между высшим руководством и персоналом в понимании и внедрении искусственного интеллекта подчеркивает необходимость стратегического, единого подхода для успешной интеграции этой технологии», — сказал Калеб Сима, председатель Инициативы безопасности искусственного интеллекта Cloud Security Alliance, в пресс-релизе.

В некоторых вопросах в отчете указано, что ответы должны относиться к генеративному ИИ, в то время как в других вопросах термин «ИИ» используется в широком смысле.

Пробел в знаниях ИИ в области безопасности

Специалисты высшего звена сталкиваются с давлением сверху вниз, что, возможно, привело к тому, что они лучше осведомлены о вариантах использования ИИ, чем специалисты по безопасности.

Многие (82%) топ-менеджеры говорят, что их исполнительное руководство и советы директоров настаивают на внедрении ИИ. Однако в отчете говорится, что этот подход может вызвать проблемы с реализацией в дальнейшем.

«Это может свидетельствовать о недостаточном понимании трудностей и знаний, необходимых для принятия и внедрения такой уникальной и революционной технологии (например, оперативного проектирования)», — написала ведущий автор Хиллари Барон, старший технический директор по исследованиям и аналитике Cloud Security Alliance. и команда участников.

Есть несколько причин, по которым может существовать этот пробел в знаниях:

    Специалисты по кибербезопасности, возможно, недостаточно информированы о том, как ИИ может повлиять на общую стратегию. Лидеры могут недооценивать, насколько сложно реализовать стратегии ИИ в рамках существующих практик кибербезопасности.

Авторы отчета отмечают, что некоторые данные (рис. A) указывают на то, что респонденты примерно так же знакомы с генеративным искусственным интеллектом и моделями большого языка, как и со старыми терминами, такими как обработка естественного языка и глубокое обучение.

Рисунок А

Авторы отчета отмечают, что преобладание знакомства со старыми терминами, такими как обработка естественного языка и глубокое обучение, может указывать на смешение генеративного ИИ и популярных инструментов, таких как ChatGPT.

«Это разница между знанием инструментов GenAI потребительского уровня и профессиональным/корпоративным уровнем, что более важно с точки зрения внедрения и внедрения», — сказал Барон в электронном письме TechRepublic. «Это то, что мы обычно наблюдаем среди специалистов по безопасности на всех уровнях».

Заменит ли ИИ рабочие места в области кибербезопасности?

Небольшая группа (12%) специалистов по безопасности считает, что ИИ полностью заменит им работу в течение следующих пяти лет. Другие настроены более оптимистично:

    30% считают, что ИИ поможет улучшить часть их навыков. 28% прогнозируют, что ИИ в целом поддержит их в их нынешней роли. 24% считают, что ИИ заменит большую часть их роли. 5% ожидают, что ИИ вообще не повлияет на их роль.

Это отражается в целях организаций в области ИИ: 36% респондентов ожидают, что ИИ улучшит навыки и знания команд безопасности.

В докладе указывается на интересное несоответствие: хотя повышение навыков и знаний является весьма желательным результатом, талант находится в самом конце списка проблем. Это может означать, что непосредственные задачи, такие как выявление угроз, будут иметь приоритет в повседневной работе, в то время как таланты станут приоритетом в долгосрочной перспективе.

Преимущества и проблемы искусственного интеллекта в кибербезопасности

В группе разделились мнения о том, будет ли ИИ более полезен для защитников или нападающих:

    34% считают, что ИИ более полезен для служб безопасности. 31% считают, что это одинаково выгодно как для защитников, так и для нападающих. 25% считают это более выгодным для злоумышленников.

Профессионалы, обеспокоенные использованием ИИ в сфере безопасности, называют следующие причины:

    Плохое качество данных, приводящее к непреднамеренной предвзятости и другим проблемам (38%). Отсутствие прозрачности (36%). Пробелы в навыках/опыте, когда дело доходит до управления сложными системами искусственного интеллекта (33%). Отравление данных (28%).

Галлюцинации, конфиденциальность, утечка или потеря данных, точность и неправильное использование были другими вариантами того, что могло беспокоить людей; все эти варианты получили менее 25% голосов в опросе, в котором респондентам было предложено выбрать три наиболее беспокоящие их проблемы.

SEE: Национальный центр кибербезопасности Великобритании обнаружил, что генеративный искусственный интеллект может расширить арсеналы злоумышленников. (Техреспублик)

Более половины (51%) респондентов ответили «да» на вопрос, обеспокоены ли они потенциальными рисками чрезмерной зависимости от искусственного интеллекта в целях кибербезопасности; еще 28% были нейтральны.

Планируемое использование генеративного ИИ в кибербезопасности

Среди организаций, планирующих использовать генеративный искусственный интеллект для обеспечения кибербезопасности, существует очень широкий спектр предполагаемых применений (рис. B). Обычное использование включает в себя:

    Создание правил. Симуляция атаки. Мониторинг нарушений комплаенса. Обнаружение сети. Сокращение ложных срабатываний.

Рисунок Б

Ответы на вопрос Как ваша организация планирует использовать генеративный искусственный интеллект для обеспечения кибербезопасности? (Выберите 3 основных варианта использования). Изображение: Альянс облачной безопасности

Как организации структурируют свои команды в эпоху искусственного интеллекта

74% опрошенных заявили, что их организации планируют создать новые команды для надзора за безопасным использованием ИИ в течение следующих пяти лет. Структура этих команд может различаться.

Сегодня некоторые организации, занимающиеся внедрением ИИ, передают его в руки своей команды безопасности (24%). Другие организации возлагают основную ответственность за развертывание ИИ на ИТ-отдел (21%), группу по обработке данных/аналитике (16%), специальную группу по ИИ/МО (13%) или высшее руководство/руководство (9%). В более редких случаях ответственность брали на себя DevOps (8%), кросс-функциональные команды (6%) или команды, не подпадающие ни под одну из категорий (указаны как «другие» в 1%).

СМОТРИТЕ: Набор для найма: инженер-подсказчик (TechRepublic Premium)

«Очевидно, что ИИ в сфере кибербезопасности не только трансформирует существующие роли, но и прокладывает путь для новых специализированных должностей», — пишет ведущий автор Хиллари Барон и команда авторов.

Какие должности? По словам Барона TechRepublic, генеративное управление ИИ — это развивающаяся отрасль, равно как и обучение и повышение квалификации, ориентированные на ИИ.

«В целом, мы также начинаем видеть объявления о вакансиях, которые включают в себя больше функций, специфичных для ИИ, таких как инженеры быстрого реагирования, архитекторы безопасности ИИ и инженеры по безопасности», — сказал Барон.

Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE