ChatGPT продолжает галлюцинировать — и это плохо для вашей конфиденциальности

ChatGPT продолжает галлюцинировать — и это плохо для вашей конфиденциальности

1 мая 2024 г.

После резкого увеличения количества загрузок VPN-сервиса после временного запрета год назад OpenAI снова столкнулась с проблемами в Европейском Союзе. Виновник на этот раз? ChatGPTпроблемы с галлюцинациями.

Популярный Чат-бот с искусственным интеллектом печально известен тем, что выдумывает ложную информацию о людях — то, что OpenAI, по общему признанию, не может исправить или контролировать, говорят эксперты. Именно поэтому австрийская группа по защите цифровых прав Noyb (стилизованная под noyb, сокращение от «не ваше дело») подал жалобу в службу защиты данных страны властями 29 апреля 2024 г. по обвинению в взломе правила GDPR.

В настоящее время организация призывает австрийский орган по защите конфиденциальности выяснить, как OpenAI проверяет точность данных граждан. личные данные. Нойб также призывает власти наложить штраф, чтобы обеспечить соблюдение GDPR в будущем.

Дезинформация ChatGPT: проблема GDPR

Мы уже обсуждали, как ChatGPT и подобные чат-боты с искусственным интеллектом, вероятно, будут никогда не перестанут выдумывать. Это весьма тревожно, учитывая, что «чат-боты изобретают информацию как минимум в трех процентах случаев, а иногда и в 27 процентах», сообщила New York Times.

Конечно, мы могли бы научиться справляться с дезинформацией, генерируемой ИИ, научившись выявлять фальшивые факты, прежде чем поддаться им. Однако теперь эксперты утверждают, что эти «галлюцинации ИИ» на самом деле вредны и для нашей конфиденциальности.

«Создание ложной информации само по себе весьма проблематично. Но когда дело доходит до ложной информации об отдельных лицах, это может иметь серьезные последствия», — сказал Маартье де Грааф, юрист по защите данных в noyb. Хуже всего то, что неточность ChatGPT де-факто противоречит законам ЕС.

Фактически, согласно статье 5 GDPR, вся онлайн-информация о физических лицах в ЕС должна быть точной. А согласно статье 16 все неточные или ложные данные подлежат исправлению. Статья 15 дает европейцам «право на доступ», требуя от компаний показывать, какие данные о людях они хранят и каковы их источники.

Тем не менее, когда основатель Noyb, Макс Шремс, решил оспорить согласие лорда ИИ из-за ошибки ChatGPT в выборе правильной даты его дня рождения, OpenAI признала, что не может сделать ни того, ни другого. Вместо исправления или удаления данных компания заявила, что может просто фильтровать или блокировать информацию, которая будет появляться в определенных запросах. Однако это было бы возможно только при условии полной фильтрации всей информации о нем.

По словам де Граафа, это явный признак того, что технологические компании в настоящее время не могут разрабатывать чат-ботов с искусственным интеллектом, соответствующих законодательству ЕС. «Технология должна соответствовать требованиям законодательства, а не наоборот», — сказал он. «Похоже, что с каждой «инновацией» другая группа компаний думает, что ее продукция не обязательно должна соответствовать закону».

Увидеть больше

После первого запуска в ноябре 2022 года ChatGPT быстро стал мейнстримом. На протяжении 2023 года в мире технологий доминировала гонка чат-ботов с искусственным интеллектом, причем крупнейшие игроки разрабатывали свои версии. От студентов, врачей и юристов до художников и даже кибер-злоумышленников — кажется, все используют продукты OpenAI или аналогичные приложения.

Как и в случае со всеми технологическими инновациями, общественность разделилась на тех, кто с энтузиазмом относится к потенциалу ИИ, и тех, кто обеспокоен его мощью. Некоторые эксперты задаются вопросом, является ли ChatGPT настоящим кошмаром конфиденциальноститоже.

Эти опасения в конечном итоге превратились в реальные проблемы для OpenAI в Европе. Проблемы начались в марте 2023 года, когда Италия временно Заблокировал ChatGPT за неправильный сбор и хранение данных итальянцев. После этого другие страны ЕС, включая Францию, Германию и Ирландию, начали расследование этого дела. Целевая группа ChatGPT для координации национальных усилий. Тем не менее, эксперты Noyb считают, что власти' усилия пока по большей части бесплодны.

«На данный момент OpenAI, похоже, даже не делает вид, что может соответствовать GDPR ЕС», — утверждают в группе.

Именно поэтому нойб решил взять дело в свои руки. Группа просит австрийский орган по защите данных (DSB) расследовать, как OpenAI обрабатывает данные людей, чтобы привести их обработку в соответствие с GDPR.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE