Опрос CrowdStrike выявил проблемы безопасности при внедрении ИИ

18 декабря 2024 г.

Перевешивают ли преимущества безопасности генеративного ИИ вред? Согласно новому отчету CrowdStrike, только 39% специалистов по безопасности утверждают, что преимущества перевешивают риски.

В 2024 году CrowdStrike опросила 1022 исследователей и практиков в области безопасности из США, Азиатско-Тихоокеанского региона, Европы, Ближнего Востока и Африки и других регионов. Результаты показали, что киберспециалисты глубоко обеспокоены проблемами, связанными с ИИ. Хотя 64% респондентов либо приобрели инструменты генеративного ИИ для работы, либо изучают их, большинство остаются осторожными: 32% все еще изучают инструменты, и только 6% активно их используют.

Чего ищут исследователи в области безопасности от генеративного ИИ?

Согласно отчету:

    Самая высокая мотивация для внедрения генеративного ИИ — это не решение проблемы нехватки навыков или выполнение требований руководства, а улучшение способности реагировать на кибератаки и защищаться от них. ИИ для общего использования не обязательно привлекателен для специалистов по кибербезопасности. Вместо этого они хотят, чтобы генеративный ИИ работал в паре с экспертами в области безопасности. 40% респондентов заявили, что выгоды и риски генеративного ИИ «сопоставимы». Между тем, 39% заявили, что выгоды перевешивают риски, а 26% заявили, что выгоды не перевешивают.

«Отделы безопасности хотят внедрить GenAI как часть платформы, чтобы извлечь большую выгоду из существующих инструментов, улучшить опыт аналитиков, ускорить адаптацию и устранить сложность интеграции новых точечных решений», — говорится в отчете.

Измерение ROI было постоянной проблемой при внедрении генеративных продуктов ИИ. CrowdStrike обнаружила, что количественное определение ROI является главной экономической проблемой среди респондентов. Следующими двумя наиболее важными проблемами были стоимость лицензирования инструментов ИИ и непредсказуемые или запутанные модели ценообразования.

CrowdStrike разделил способы оценки рентабельности инвестиций в ИИ на четыре категории, ранжированные по важности:

    Оптимизация затрат за счет консолидации платформ и более эффективного использования инструментов безопасности (31%). Сокращение инцидентов безопасности (30%). Меньше времени на управление инструментами безопасности (26%). Более короткие циклы обучения и сопутствующие расходы (13%).

По словам CrowdStrike, добавление ИИ к существующей платформе вместо покупки отдельного ИИ-продукта может «обеспечить дополнительную экономию, связанную с более широкими усилиями по консолидации платформы».

СМОТРЕТЬ: Группа вирусов-вымогателей взяла на себя ответственность за кибератаку в конце ноября, которая нарушила работу Starbucks и других организаций.

Может ли генеративный ИИ создать больше проблем безопасности, чем решить?

С другой стороны, сам генеративный ИИ нуждается в защите. Опрос CrowdStrike показал, что специалисты по безопасности больше всего обеспокоены раскрытием данных LLM, стоящих за продуктами ИИ, и атаками, направленными против инструментов генеративного ИИ.

Другие опасения включали:

    Отсутствие ограждений или контроля в инструментах генеративного ИИ. Галлюцинации ИИ. Недостаточное регулирование государственной политики для использования генеративного ИИ.

Почти все (около 9 из 10) респондентов заявили, что их организации внедрили новые политики безопасности или разрабатывают политики по управлению генеративным ИИ в течение следующего года.

Как организации могут использовать ИИ для защиты от киберугроз

Генеративный ИИ можно использовать для мозгового штурма, исследования или анализа, понимая, что его информация часто должна быть перепроверена. Генеративный ИИ может извлекать данные из разрозненных источников в одно окно в различных форматах, сокращая время, необходимое для исследования инцидента. Многие автоматизированные платформы безопасности предлагают помощников генеративного ИИ, например, Security Copilot от Microsoft.

GenAI может защитить от киберугроз с помощью:

    Обнаружение и анализ угроз. Автоматизированное реагирование на инциденты. Обнаружение фишинга. Расширенная аналитика безопасности. Синтетические данные для обучения.

Однако организации должны учитывать контроль безопасности и конфиденциальности как часть любой покупки генеративного ИИ. Это может защитить конфиденциальные данные, соответствовать правилам и снизить такие риски, как утечки данных или ненадлежащее использование. Без надлежащих мер безопасности инструменты ИИ могут выявлять уязвимости, генерировать вредоносные результаты или нарушать законы о конфиденциальности, что приводит к финансовому, юридическому и репутационному ущербу.

Подпишитесь на рассылку Cybersecurity Insider Укрепите защиту ИТ-безопасности вашей организации, оставаясь в курсе последних новостей, решений и передового опыта в области кибербезопасности. Рассылка каждый понедельник, вторник и четверг Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на рассылку Cybersecurity Insider Укрепите защиту ИТ-безопасности вашей организации, оставаясь в курсе последних новостей, решений и передового опыта в области кибербезопасности. Рассылка каждый понедельник, вторник и четверг Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE