Microsoft добавляет GPT-4 в свой защитный пакет в Security Copilot

Microsoft добавляет GPT-4 в свой защитный пакет в Security Copilot

1 апреля 2023 г.
Новый инструмент безопасности ИИ, который может отвечать на вопросы об уязвимостях и проблемах обратного проектирования, сейчас находится в предварительной версии.

Руки ИИ все дальше проникают в технологическую отрасль.

Microsoft добавила Security Copilot, чат-бота на естественном языке, который может писать и анализировать код, в свой набор продуктов, поддерживаемых моделью генеративного искусственного интеллекта OpenAI GPT-4. Security Copilot, о котором было объявлено в среду, теперь находится в предварительной версии для некоторых клиентов. Microsoft будет публиковать дополнительную информацию в своих обновлениях по электронной почте о том, когда Security Copilot может стать общедоступной.

Перейти к:

    Что такое Microsoft Security Copilot? Как Security Copilot помогает ИТ-специалистам обнаруживать, анализировать и устранять угрозы? Безопасна ли кибербезопасность, управляемая ИИ? И злоумышленники, и защитники используют продукты OpenAI

Что такое Microsoft Security Copilot?

Microsoft Security Copilot — это набор данных искусственного интеллекта на естественном языке, который будет отображаться в виде панели подсказок. Этот инструмент безопасности сможет:

    Отвечайте на разговорные вопросы, такие как «Какие все инциденты на моем предприятии?» Пишите резюме. Предоставьте информацию об URL-адресах или фрагментах кода. Укажите источники, откуда ИИ черпал информацию.

ИИ построен на большой языковой модели OpenAI, а также на модели безопасности от Microsoft. Эта запатентованная модель опирается на установленную и текущую информацию о глобальных угрозах. Предприятия, уже знакомые с линейкой инфраструктуры Azure Hyperscale, обнаружат те же функции безопасности и конфиденциальности в Security Copilot.

SEE: Microsoft запускает общедоступную службу Azure OpenAI (TechRepublic)

Как Security Copilot помогает ИТ-специалистам обнаруживать, анализировать и устранять угрозы?

Microsoft позиционирует Security Copilot как способ для ИТ-отделов справиться с нехваткой персонала и дефицитом навыков. Сфера кибербезопасности «крайне нуждается в большем количестве профессионалов», заявил Международный консорциум по сертификации безопасности информационных систем (ISC)². По данным исследования рабочей силы консорциума 2022 года, мировой разрыв между рабочими местами в области кибербезопасности и работниками составляет 3,4 миллиона человек.

Из-за пробелов в навыках организации могут искать способы помочь сотрудникам, которые являются новичками или менее знакомы с конкретными задачами. Security Copilot автоматизирует некоторые из этих задач, поэтому сотрудники службы безопасности могут вводить такие подсказки, как «искать наличие компрометации», чтобы упростить поиск угроз. Пользователи могут сохранять подсказки и делиться книгами подсказок с другими членами своей команды; в этих подсказках записано, что они спросили у ИИ и как он ответил.

Security Copilot может суммировать события, инциденты или угрозы и создавать общий отчет. Он также может реконструировать вредоносный сценарий, объясняя, что он делает.

ПОСМОТРЕТЬ: Microsoft добавляет бота для повышения производительности Copilot AI в пакет 365 (TechRepublic)

Copilot интегрируется с несколькими существующими предложениями безопасности Microsoft. Microsoft Sentinel (инструмент управления информацией и событиями безопасности), Defender (расширенное обнаружение и реагирование) и Intune (управление конечными точками и устранение угроз) могут взаимодействовать и передавать информацию в Security Copilot.

Microsoft заверяет пользователей, что эти данные и подсказки, которые вы даете, защищены в каждой организации. Технический гигант также создает прозрачные контрольные журналы в рамках ИИ, чтобы разработчики могли видеть, какие вопросы были заданы и как Copilot ответил на них. Данные Security Copilot никогда не возвращаются в озера больших данных Microsoft для обучения других моделей ИИ, что снижает вероятность того, что конфиденциальная информация из одной компании окажется ответом на вопрос в другой компании.

Безопасна ли кибербезопасность, управляемая ИИ?

В то время как ИИ на естественном языке может заполнить пробелы для перегруженного или недостаточно обученного персонала, менеджеры и руководители отделов должны иметь структуру, позволяющую следить за работой людей до того, как код будет запущен в работу — в конце концов, ИИ все еще может возвращать ложные или вводящие в заблуждение результаты. (У Microsoft есть возможность сообщать об ошибках Security Copilot.)

Су Чой-Эндрюс, соучредитель и главный исполнительный директор охранной компании Mondoo, указал на следующие проблемы, которые лица, принимающие решения в области кибербезопасности, должны учитывать, прежде чем поручить своей команде использовать ИИ.

«Команды безопасности должны подходить к инструментам ИИ с такой же строгостью, как и при оценке любого нового продукта», — сказал Чой-Эндрюс в интервью по электронной почте. «Важно понимать ограничения ИИ, поскольку большинство инструментов по-прежнему основаны на вероятностных алгоритмах, которые не всегда могут давать точные результаты… При рассмотрении вопроса о внедрении ИИ директора по информационной безопасности должны задаться вопросом, помогает ли эта технология бизнесу быстрее получать прибыль, а также защищать активы и выполнение обязательств по соблюдению».

«Что касается того, насколько часто следует использовать ИИ, ситуация быстро меняется, и нет универсального ответа, — сказал Чой-Эндрюс.

ПОСМОТРЕТЬ: Как лезвие кибербезопасности, ChatGPT может работать в обоих направлениях (TechRepublic)

OpenAI столкнулся с утечкой данных 20 марта 2023 года. «В начале этой недели мы отключили ChatGPT из-за ошибки в библиотеке с открытым исходным кодом, которая позволяла некоторым пользователям видеть заголовки из истории чата другого активного пользователя», — написал OpenAI в своем блоге. 24 марта 2023 г. Клиентская библиотека Redis с открытым исходным кодом, redis-py, была исправлена.

На сегодняшний день более 1700 человек, включая Илона Маска и Стива Возняка, подписали петицию для компаний, занимающихся искусственным интеллектом, таких как OpenAI, с требованием «немедленно приостановить как минимум на 6 месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4», чтобы «совместно разрабатывать и внедрить набор общих протоколов безопасности». Петиция была инициирована Институтом будущего жизни, некоммерческой организацией, занимающейся использованием ИИ во благо и снижением его потенциала для «крупномасштабных рисков», таких как «милитаризованный ИИ».

И злоумышленники, и защитники используют продукты OpenAI

Google, главный конкурент Microsoft в области поиска наиболее прибыльного применения искусственного интеллекта на естественном языке, еще не объявил о выпуске специализированного продукта искусственного интеллекта для корпоративной безопасности. В январе 2023 года Microsoft объявила, что ее подразделение по кибербезопасности теперь стоит 20 миллиардов долларов.

Несколько других компаний, занимающихся вопросами безопасности, попытались добавить разговорный продукт OpenAI. ARMO, создающая платформу безопасности Kubescape для Kubernetes, в феврале добавила ChatGPT к своей функции настраиваемых элементов управления. Orca Security добавила OpenAI GPT-3, в то время самую последнюю модель, к своей платформе облачной безопасности в январе, чтобы разработать инструкции для клиентов по устранению проблемы. Skyhawk Security также добавила модную модель искусственного интеллекта в свои облачные продукты для обнаружения угроз и реагирования на них.

Вместо этого еще один громкий сигнал здесь может быть для тех, кто находится на стороне черной шляпы на линии кибербезопасности. Хакеры и гигантские корпорации будут продолжать бороться за самые защищенные цифровые стены и способы их преодоления.

«Важно отметить, что ИИ — это палка о двух концах: хотя он может принести пользу мерам безопасности, злоумышленники также используют его в своих целях», — сказал Эндрюс.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE