Как Google обеспечивает безопасность данных компании при использовании генеративных чат-ботов с искусственным интеллектом

Как Google обеспечивает безопасность данных компании при использовании генеративных чат-ботов с искусственным интеллектом

14 июля 2023 г.
Бехшад Бехзади из Google рассуждает о том, как использовать генеративные чат-боты с искусственным интеллектом, не ставя под угрозу информацию о компании.

Bard от Google, одно из современных высококлассных приложений для генеративного ИИ, используется внутри компании с недоверием. В июне 2023 года Google попросил своих сотрудников не передавать конфиденциальные материалы Барду, как выяснило агентство Reuters из просочившихся внутренних документов. Сообщалось, что инженерам было приказано не использовать код, написанный чат-ботом.

Компании, в том числе Samsung и Amazon, запретили использование общедоступных чат-ботов с искусственным интеллектом из-за аналогичных опасений по поводу того, что конфиденциальная информация может попасть в личные данные.

Узнайте, как Google Cloud подходит к данным ИИ, какие меры конфиденциальности следует учитывать вашему бизнесу, когда речь идет о генеративном ИИ, и как заставить приложение машинного обучения «отучить» чьи-то данные. Хотя команды Google Cloud и Bard не всегда работают над одними и теми же проектами, один и тот же совет относится к использованию Bard, его конкурентов, таких как ChatGPT, или частного сервиса, с помощью которого ваша компания может создать своего собственного диалогового чат-бота.

Перейти к:

    Как Google Cloud подходит к использованию персональных данных в продуктах ИИ Что компаниям следует учитывать при использовании общедоступных чат-ботов с искусственным интеллектом Крекинг машина разучилась

Как Google Cloud подходит к использованию персональных данных в продуктах ИИ

Google Cloud подходит к использованию персональных данных в продуктах AI, охватывая такие данные в соответствии с существующим соглашением Google Cloud Platform. (Bard и Cloud AI подпадают под действие соглашения.) Google прозрачно заявляет, что данные, поступающие в Bard, будут собираться и использоваться для «предоставления, улучшения и разработки продуктов и услуг Google, а также технологий машинного обучения», включая общедоступные Интерфейс чата Bard и корпоративные продукты Google Cloud.

«Мы подходим к ИИ смело и ответственно, признавая, что все клиенты имеют право на полный контроль над тем, как используются их данные», — сказал TechRepublic вице-президент Google Cloud по разработкам Бехшад Бехзади в электронном письме.

Google Cloud производит три продукта для генеративного ИИ: инструмент для контакт-центра CCAI Platform, конструктор приложений для генеративного ИИ и портфолио Vertex AI, которое представляет собой набор инструментов для развертывания и создания моделей машинного обучения.

Бехзади отметил, что Google Cloud работает над тем, чтобы «ответы на продукты ИИ были основаны на фактах и ​​соответствовали бренду компании, а генеративный ИИ был тесно интегрирован в существующую бизнес-логику, управление данными и режимы прав».

ПОСМОТРЕТЬ: Создание частных моделей генеративного ИИ может решить некоторые проблемы с конфиденциальностью, но, как правило, это дорого. (ТехРеспублика)

Google Cloud Vertex AI дает компаниям возможность настраивать базовые модели с использованием собственных данных. «Когда компания настраивает базовую модель в Vertex AI, личные данные остаются конфиденциальными и никогда не используются в обучающем корпусе базовой модели», — сказал Бехзади.

Что компаниям следует учитывать при использовании общедоступных чат-ботов с искусственным интеллектом

Компании, использующие общедоступные чат-боты с искусственным интеллектом, «должны помнить о том, чтобы клиенты были главным приоритетом, и гарантировать, что их стратегия искусственного интеллекта, включая чат-ботов, построена на основе четко определенной стратегии управления данными и интегрирована с ней», — сказал Бехзади.

ПОСМОТРЕТЬ: Как управление данными приносит пользу организациям (TechRepublic)

Бизнес-лидеры должны «интегрировать общедоступные чат-боты с набором бизнес-логики и правил, которые гарантируют, что ответы будут соответствовать бренду», — сказал он. Эти правила могут включать проверку того, что источник данных, на которые ссылается чат-бот, ясен и одобрен компанией. Публичный поиск в Интернете должен быть лишь «запасным вариантом», сказал Бехзади.

Естественно, компаниям также следует использовать модели ИИ, настроенные на уменьшение галлюцинаций или лжи, порекомендовал Бехзади.

Например, OpenAI исследует способы сделать ChatGPT более надежным с помощью процесса, известного как контроль процессов. Этот процесс включает в себя вознаграждение модели ИИ за следование желаемой линии рассуждений, а не за предоставление правильного окончательного ответа. Тем не менее, это незавершенная работа, и контроль процесса в настоящее время не включен в ChatGPT.

Сотрудники, использующие генеративный ИИ или чат-боты для работы, все равно должны перепроверять ответы.

«Для бизнеса важно обратить внимание на людей, — сказал он, — обеспечить наличие надлежащих руководств и процессов для обучения сотрудников передовым методам использования общедоступных чат-ботов с искусственным интеллектом».

ПОСМОТРЕТЬ: Как использовать генеративный ИИ для мозгового штурма творческих идей на работе (TechRepublic)

Крекинг машина разучилась

Еще один способ защитить конфиденциальные данные, которые могут быть переданы в приложения искусственного интеллекта, — это полное удаление этих данных после завершения разговора. Но сделать это сложно.

В конце июня 2023 года Google объявила конкурс для чего-то другого: машинное обучение или обеспечение возможности удаления конфиденциальных данных из обучающих наборов ИИ в соответствии с глобальными стандартами регулирования данных, такими как GDPR. Это может быть сложной задачей, поскольку включает в себя отслеживание того, использовались ли данные определенного человека для обучения модели машинного обучения.

«Помимо простого удаления их из баз данных, где они хранятся, также требуется стирание влияния этих данных на другие артефакты, такие как обученные модели машинного обучения», — написал Google в своем блоге.

Конкурс проходит с 28 июня до середины сентября 2023 года.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE