Хотите знать, как сотрудники должны использовать ChatGPT? У Netskope есть приложение для этого

Хотите знать, как сотрудники должны использовать ChatGPT? У Netskope есть приложение для этого

23 июня 2023 г.
Использование ChatGPT на предприятиях процветает. Сказать «нет» сотрудникам, которые хотят использовать ChatGPT, — это краткосрочный ответ, согласно Netskope, чье решение использует анализ данных, чтобы сказать «да», «нет» и «иногда».

Новое приложение инструментов безопасности фирмы включает анализ данных генеративных входных данных ИИ и такие элементы взаимодействия с пользователями в режиме реального времени, как политика и обучение рискам при использовании ChatGPT. Он не только отслеживает данные, которые пользователи передают в генеративные модели ИИ или другие большие языковые модели, такие как Google Bard и Jasper, но также может блокировать эти входные данные, если они содержат конфиденциальные данные или код.

По словам компании, новый набор возможностей направлен на то, чтобы сотрудники организаций, будь то локально или удаленно, использовали ChatGPT и другие генеративные приложения ИИ таким образом, чтобы не подвергать риску корпоративные данные.

Netskope заявила, что ее данные показали, что:

    Примерно 10% корпоративных организаций активно блокируют использование ChatGPT командами. Один процент корпоративных сотрудников ежедневно активно использует ChatGPT. Каждый пользователь отправляет в среднем восемь запросов ChatGPT в день. Ежемесячное использование ChatGPT на предприятиях растет на 25%.

Согласно исследованию компании Cyberhaven, занимающейся безопасностью данных, не менее 10,8% сотрудников компании пытались использовать ChatGPT на рабочем месте, а 11% данных, которые сотрудники загружают в ChatGPT, являются конфиденциальными.

Перейти к:

    Подход с нулевым доверием к защите данных, поступающих в ИИ Управление доступом к LLM не является бинарной проблемой Взаимодействие с пользователем в режиме реального времени: всплывающие окна, предупреждения и оповещения

Подход с нулевым доверием к защите данных, поступающих в ИИ

Робинсон сказал, что решение Netskope, применяемое для генеративного ИИ, включает в себя Security Service Edge с Cloud XD, механизм компании с нулевым доверием для защиты данных и угроз для приложений, облачных сервисов и веб-трафика, который также обеспечивает адаптивное управление политиками.

«Благодаря глубокому анализу трафика, а не только на уровне домена, мы можем видеть, когда пользователь запрашивает логин или загружает и скачивает данные. Из-за этого вы получаете глубокую видимость; вы можете настроить действия и безопасно включить службы для пользователей», — сказал он.

Согласно Netskope, его генеративный контроль доступа и функции видимости AI включают в себя:

    Доступ ИТ-специалистов к конкретному использованию и тенденциям ChatGPT в организации благодаря самому широкому в отрасли обнаружению программного обеспечения как услуги (с использованием динамической базы данных, содержащей более 60 000 приложений) и панелям расширенной аналитики. Индекс уверенности в облаке компании, который классифицирует новые генеративные приложения ИИ и оценивает их риски. Подробная информация о контексте и экземплярах с помощью аналитики Cloud XDTM компании, которая определяет уровни доступа и потоки данных через учетные записи приложений. Видимость через веб-категорию для доменов генеративного ИИ, с помощью которых ИТ-специалисты могут настраивать контроль доступа и политики защиты в реальном времени, а также управлять трафиком.

Управление доступом к LLM не является бинарной проблемой

Как часть платформы Intelligent Security Service Edge, возможности Netskope отражают растущее осознание в сообществе кибербезопасности того, что доступ к этим новым инструментам искусственного интеллекта не является шлюзом «использовать» или «не использовать».

«Основные игроки, в том числе наши конкуренты, все будут тяготеть к этому», — сказал Джеймс Робинсон, заместитель директора по информационной безопасности в Netskope. «Но это детальная проблема, потому что это больше не бинарный мир: будь то члены вашего персонала или другие технические или бизнес-команды, люди будут использовать ChatGPT или другие инструменты, поэтому им нужен доступ, или они найдут способы, хорошие или плохие ," он сказал.

«Но я думаю, что большинство людей по-прежнему мыслят бинарно», — добавил он, отметив, что существует тенденция использовать брандмауэры как предпочтительный инструмент для управления потоком данных в организацию и из нее. «Как лидеры службы безопасности, мы не должны просто говорить «да» или «нет». Скорее, мы должны больше сосредоточиться на «знании», потому что это детальная проблема. Для этого нужна комплексная программа».

SEE: компании тратят больше средств на искусственный интеллект и кибербезопасность (TechRepublic)

Взаимодействие с пользователем в режиме реального времени: всплывающие окна, предупреждения и оповещения

Робинсон сказал, что пользовательский опыт включает в себя всплывающее окно «визуального обучения» в реальном времени, чтобы предупредить пользователей о политиках безопасности данных и потенциальном раскрытии конфиденциальных данных.

«В этом случае вы увидите всплывающее окно, если вы начинаете входить в генеративную модель ИИ, которое может, например, напомнить вам о правилах использования этих инструментов, когда вы заходите на веб-сайт», — сказал он. Робинсон. Он сказал, что платформа Netskope также будет использовать механизм DLP для блокировки загрузки в LLM конфиденциальной информации, такой как личная информация, учетные данные, финансовые данные или другая информация, основанная на политике данных (рис. A).

Рисунок А

Всплывающее окно Netskope предупреждает пользователя LLM о том, что им не будет разрешено загружать конфиденциальные данные. Изображение: Нетскоп

«Это может включать код, если они пытаются использовать ИИ для проверки кода», — добавил Робинсон, который объяснил, что Cloud XD также применяется здесь.

SEE: Salesforce внедряет генеративный ИИ в Tableau (TechRepublic)

Интерактивная функция платформы включает в себя запросы, которые просят пользователей разъяснить, как они используют ИИ, если они предпринимают действия, противоречащие политике или рекомендациям системы. Робинсон сказал, что это помогает группам безопасности развивать свои политики в отношении данных в отношении использования чат-ботов.

«Как команда безопасности, я не могу подойти к каждому бизнес-пользователю и спросить, почему они загружают определенные данные, но если я смогу вернуть эту информацию, я могу понять, что нам нужно изменить или изменить наш механизм политики», — он сказал.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE