Рабочая группа ЕС по ChatGPT: путь к обеспечению соблюдения GDPR в отношении ИИ?
29 мая 2024 г.ChatGPT снова находится под пристальным вниманием в Европе, и гигант искусственного интеллекта продолжает подвергать опасности граждан ЕС. права на конфиденциальность и точность данных в соответствии с GDPR.
Это главный вывод, который можно сделать из предварительных результатов годового расследования целевой группы ChatGPT ЕС. Совет ЕС по защите данных (EDPB) — орган, объединяющий национальные органы по надзору за конфиденциальностью Европы — создал рабочую группу в апреле прошлого года после того, как временный запрет приложения в Италии по соображениям конфиденциальности вызвал всплеск использования данных
Группа проанализировала несколько проблемных аспектов популярного чат-бота с искусственным интеллектом, особенно в отношении законности его методов очистки веб-страниц и точности данных. Фактически, помимо проблем со сбором данных, Галлюцинационная тенденция ChatGPT в последнее время также пострадала от жалоб со стороны некоторых национальных органов по обеспечению конфиденциальности данных (DPA).
Расследование ЕС только начинается, поэтому практика OpenAI вряд ли в ближайшее время станет более благоприятной для GPR. Тем не менее, это может быть первым шагом (хотя и легким) на пути к лучшей системе конфиденциальности для инструментов больших языковых моделей (LLM), которым будут следовать в Европе.
Ошибки веб-сбора и точности ChatGPT
После того, как Италия временно заблокировала ChatGPT a> за неправильный сбор и хранение данных в марте 2023 года другие страны ЕС, включая Францию, Германию и Ирландию, начали расследование. Жалоб было подано много, но исполнения пока мало.
Рабочая группа призвана способствовать сотрудничеству между национальными DPA, расследующими чат-бот OpenAI. Однако, предоставляя предварительные мнения по спорным аспектам среди DPA, отчет "не предопределяет анализ, который будет проведен каждым DPA в рамках соответствующего текущего расследования", Объяснение EDPB.
Основной спорный вопрос заключается в том, как ChatGPT собирает, сохраняет и использует данные граждан ЕС. данные. OpenAI собирает огромные объемы данных из Интернета, не спрашивая согласия. С помощью подсказок чат-бота пользователи могут передавать в систему очень конфиденциальные данные, требующие лучшей защиты. Также отсутствует прозрачность в отношении того, как компания в конечном итоге обрабатывает эти данные для обучения своих моделей ИИ.
GDPR требует наличия правовой основы для обработки персональных данных — в данном случае либо запроса согласия человека, либо наличия «законного интереса» в этом. OpenAI не может запросить согласие на сбор вашей информации в Интернете. Вот почему после случая с Италией компания в основном разыгрывает последнюю карту.
Хотя «оценка законности все еще является предметом расследования», в отчете отмечается, что положение о законных интересах может быть юридически обоснованным, если будут использованы некоторые технические меры. К ним относится отказ от определенных категорий или источников данных (например, общедоступных профилей в социальных сетях). Компания также должна иметь возможность удалять или анонимизировать персональные данные, уважая граждан ЕС». такие права, как право быть забытым.
Однако, по словам эксперта по искусственному интеллекту и конфиденциальности Луизы Яровски (см. твит ниже): «Здесь законный интерес полностью искажен».
Она пояснила, что в соответствии со статьей 14.5 (b) GDPR «контролер должен принять соответствующие меры для защиты прав и свобод и законных интересов субъекта данных, включая обнародование информации». Однако данные ChatGPT не являются общедоступными.
«Либо EDPB заявляет, что законный интерес работает по-разному для OpenAI и других ИИ-компаний, полагающихся на парсинг для обучения ИИ (и объясняет почему), либо они требуют от них соблюдения законных интересов в соответствии с GDPR», — сказал Жаровский.
🚨 СРОЧНО: EDPB только что опубликовал отчет рабочей группы ChatGPT, и в комнате появился большой 🐘 СЛОН 🐘. Прочтите это:➡ Что касается веб-скрапинга и «сбора данных обучения, предварительной обработки данных и обучения», в отчете признается, что OpenAI полагается на законные… pic.twitter.com/QEiyqhuDqz24 мая 2024 г.
Точность данных — следующий большой спорный вопрос. Мы уже обсуждали, как ChatGPT и подобные чат-боты с искусственным интеллектом, вероятно, никогда не перестанут выдумывать. «Галлюцинации искусственного интеллекта» не только могут способствовать распространению дезинформации в Интернете, но и противоречат законам ЕС о конфиденциальности.
Согласно статье 5 GDPR, вся онлайн-информация о физических лицах в ЕС должна быть точной. Статья 16 требует исправления всех неточных или ложных данных. Статья 15 дает европейцам «право на доступ», требуя от компаний показывать, какие данные о людях они хранят и каковы их источники. Опять же, OpenAI не соответствует ни одному из этих критериев.
«На самом деле, из-за вероятностного характера системы текущий подход к обучению приводит к модели, которая также может давать необъективные или вымышленные результаты», — говорится в отчете.
«Хотя меры, принятые для соблюдения принципа прозрачности, полезны и позволяют избежать неправильной интерпретации результатов ChatGPT, их недостаточно для соблюдения принципа точности данных».
Эксперты предполагают, что для того, чтобы OpenAI действовала в соответствии с принципом прозрачности, предусмотренным статьей 5, она должна явно информировать пользователя о том, что сгенерированный текст может быть предвзятым или выдуманным. Кроме того, они также рекомендуют информировать пользователей о том, что информация, передаваемая через подсказки чат-бота, может использоваться в учебных целях.
В конечном итоге в докладе подчеркивается важность граждан ЕС. права в соответствии с GDPR, такие как право удалять или исправлять ваши данные (известное как «право на забвение») или право получать информацию о том, как обрабатываются ваши данные.
Однако по этому решающему вопросу Рабочая группа не дает никаких практических рекомендаций, а лишь дает общие советы. OpenAI следует принять «соответствующие меры» и интегрировать «необходимые гарантии» для удовлетворения требований GDPR и защиты прав субъектов данных, говорят эксперты.
Они действительно ожидают, что OpenAI предложит решение? Это выглядит вероятным.
Оригинал