Как ИИ меняет соотношение безопасности и рисков в облаке
5 ноября 2024 г.По словам эксперта по кибербезопасности Лиат Хаюн, бум искусственного интеллекта увеличивает риски в корпоративных хранилищах данных и облачных средах.
В интервью TechRepublic Хаюн, вице-президент по управлению продуктами и исследованиям безопасности облаков в компании Tenable, посоветовал организациям в первую очередь понять степень подверженности риску и устойчивость к нему, а также уделить первоочередное внимание решению ключевых проблем, таких как неправильная конфигурация облака и защита конфиденциальных данных.
Она отметила, что, хотя предприятия остаются осторожными, доступность ИИ усиливает определенные риски. Однако она объяснила, что сегодня руководители служб информационной безопасности превращаются в помощников бизнеса — и ИИ в конечном итоге может стать мощным инструментом для укрепления безопасности.
Как ИИ влияет на кибербезопасность и хранение данных
TechRepublic: Что меняется в сфере кибербезопасности из-за ИИ?
Лиат: Во-первых, ИИ стал гораздо более доступным для организаций. Если оглянуться на 10 лет назад, то единственные организации, создающие ИИ, должны были иметь специализированную команду по науке о данных, в которой были доктора наук по науке о данных и статистике, чтобы иметь возможность создавать алгоритмы машинного обучения и ИИ. Создавать ИИ стало намного проще для организаций; это почти как внедрить новый язык программирования или новую библиотеку в их среду. Так много больше организаций — не только крупные организации, такие как Tenable и другие, — но и любые стартапы теперь могут использовать ИИ и внедрять его в свои продукты.
SEE: Gartner призывает австралийских ИТ-руководителей внедрять ИИ в удобном для них темпе
Второе: ИИ требует много данных. Так много организаций должны собирать и хранить большие объемы данных, которые также иногда имеют более высокий уровень чувствительности. Раньше мой стриминговый сервис сохранял бы обо мне лишь очень мало информации. Теперь, возможно, имеет значение мое географическое положение, потому что они могут создавать более конкретные рекомендации на основе этого, или моего возраста и пола и так далее. Поскольку теперь они могут использовать эти данные в своих деловых целях — для создания большего бизнеса — они теперь гораздо более мотивированы хранить эти данные в больших объемах и с растущим уровнем чувствительности.
TechRepublic: Способствует ли это росту использования облака?
Лиат: Если вы хотите хранить много данных, это гораздо проще сделать в облаке. Каждый раз, когда вы решаете хранить новый тип данных, это увеличивает объем хранимых данных. Вам не нужно идти в свой центр обработки данных и заказывать новые объемы данных для установки. Вы просто нажимаете, и бац, у вас есть новое место хранения данных. Так что облако значительно упростило хранение данных.
Эти три компонента образуют своего рода круг, который питает сам себя. Потому что если хранить данные проще, вы можете модернизировать больше возможностей ИИ, и тогда у вас появляется мотивация хранить еще больше данных и так далее. Вот что произошло в мире за последние несколько лет — с тех пор как LLM стали гораздо более доступной, общей возможностью для организаций — представляя проблемы во всех этих трех вертикалях.
Понимание рисков безопасности ИИ
TechRepublic: Наблюдаете ли вы рост конкретных рисков кибербезопасности в связи с внедрением ИИ?
Лиат: Использование ИИ в организациях, в отличие от использования ИИ отдельными людьми по всему миру, все еще находится на ранних стадиях. Организации хотят быть уверены, что они внедряют его таким образом, который, я бы сказал, не создает ненужного риска или экстремального риска. Так что с точки зрения статистики у нас пока есть только несколько примеров, и они не обязательно являются хорошим представлением, потому что они скорее экспериментальные.
Одним из примеров риска является обучение ИИ на конфиденциальных данных. Это то, что мы наблюдаем. Это не потому, что организации не проявляют осторожность; это потому, что очень сложно отделить конфиденциальные данные от неконфиденциальных и при этом иметь эффективный механизм ИИ, обученный на правильном наборе данных.
Второе, что мы видим, это то, что мы называем отравлением данных. Таким образом, даже если у вас есть агент ИИ, который обучается на неконфиденциальных данных, если эти неконфиденциальные данные публично раскрыты, как противник, как злоумышленник, я могу вставить свои собственные данные в это публично раскрытое, общедоступное хранилище данных и заставить ваш ИИ говорить то, что вы не хотели, чтобы он говорил. Это не эта всезнающая сущность. Он знает, что он видит.
TechRepublic: Как организациям следует оценивать риски безопасности, связанные с ИИ?
Лиат: Во-первых, я бы спросил, как организации могут оценить уровень своей уязвимости, включая облако, ИИ и данные... и все, что связано с тем, как они используют сторонних поставщиков, как они используют различное программное обеспечение в своей организации и так далее.
СМОТРЕТЬ: Австралия предлагает обязательные ограждения для ИИ
Вторая часть — как определить критические уязвимости? Так что если мы знаем, что это общедоступный актив с высокой степенью уязвимости, это то, что вы, вероятно, захотите решить в первую очередь. Но это также комбинация воздействия, верно? Если у вас есть две очень похожие проблемы, и одна может скомпрометировать конфиденциальные данные, а другая нет, вы хотите решить эту первую [проблему] в первую очередь.
Вам также необходимо знать, какие шаги следует предпринять для устранения этих рисков с минимальными последствиями для бизнеса.
TechRepublic: О каких серьезных рисках безопасности в облаке вы предупреждаете?
Лиат: Мы обычно советуем нашим клиентам три вещи.
Первая — это неправильные конфигурации. Просто из-за сложности инфраструктуры, сложности облака и всех технологий, которые оно предоставляет, даже если вы находитесь в среде с одним облаком — но особенно если вы переходите на многооблачное — вероятность того, что что-то станет проблемой только потому, что оно не было настроено правильно, все еще очень высока. Так что это определенно одна вещь, на которой я бы сосредоточился, особенно при внедрении новых технологий, таких как ИИ.
Вторая — это чрезмерно привилегированный доступ. Многие люди думают, что их организация супер-защищена. Но если ваш дом — крепость, и вы раздаете ключи всем вокруг, это все еще проблема. Поэтому чрезмерный доступ к конфиденциальным данным, к критической инфраструктуре — это еще одна область внимания. Даже если все настроено идеально и в вашей среде нет хакеров, это создает дополнительный риск.
Аспект, о котором люди думают больше всего, — это выявление вредоносной или подозрительной активности как можно раньше. Вот где можно воспользоваться ИИ; потому что если мы используем инструменты ИИ в наших инструментах безопасности в нашей инфраструктуре, мы можем использовать тот факт, что они могут просматривать большой объем данных, и они могут делать это очень быстро, чтобы иметь возможность также выявлять подозрительное или вредоносное поведение в среде. Таким образом, мы можем реагировать на это поведение, на эту деятельность как можно раньше, прежде чем что-то критическое будет скомпрометировано.
Внедрение ИИ — «слишком хорошая возможность, чтобы ее упускать»
TechRepublic: Как руководители служб информационной безопасности подходят к рискам, связанным с ИИ?
Лиат: Я работаю в индустрии кибербезопасности уже 15 лет. Мне нравится видеть, что большинство экспертов по безопасности, большинство руководителей служб информационной безопасности, не похожи на тех, кем они были десять лет назад. Вместо того чтобы быть привратниками, вместо того чтобы говорить: «Нет, мы не можем использовать это, потому что это рискованно», они спрашивают себя: «Как мы можем использовать это и сделать это менее рискованным?» Это потрясающая тенденция. Они становятся все более активными.
TechRepublic: Видите ли вы положительные стороны ИИ, а также риски?
Лиат: Организациям нужно больше думать о том, как они собираются внедрять ИИ, а не думать: «ИИ сейчас слишком рискован». Так делать нельзя.
Организации, которые не внедрят ИИ в ближайшие пару лет, просто останутся позади. Это удивительный инструмент, который может принести пользу множеству бизнес-кейсов, как внутри компании для совместной работы, анализа и понимания, так и за ее пределами, для инструментов, которые мы можем предоставить нашим клиентам. Слишком хорошая возможность, чтобы ее упускать. Если я смогу помочь организациям достичь такого мышления, когда они скажут: «Хорошо, мы можем использовать ИИ, но нам просто нужно принять во внимание эти риски», я выполнил свою работу».
Оригинал