Италия запрещает ChatGPT из-за опасений GDPR
11 апреля 2023 г.В пятницу итальянский орган по защите данных издал немедленный приказ a> для OpenAI, чтобы остановить локальную обработку данных. Запрет связан с растущими опасениями, что компания нарушает Общий регламент ЕС по защите данных (GDPR) из-за того, как она обрабатывает данные, и из-за отсутствия контроля за несовершеннолетними.
Хотя Италия может быть первой страной, которая нажала на курок бесплатного использования ChatGPT, ясно, что опасения по поводу ИИ быстро растут. Запрет Италии вступает в силу через несколько дней после того, как digital-minds">тысячи экспертов по искусственному интеллекту призвали немедленно приостановить использование таких технологий до тех пор, пока у политиков не будет времени привести правила в соответствие с инновациями.
Тем не менее запрет подчеркивает, что такие правила ИИ уже существуют, по крайней мере, в некоторых частях мира. Итальянские законодатели уже имели законные полномочия наложить такой запрет на OpenAI благодаря GDPR и его законам, защищающим личные данные граждан. Но что этот запрет означает для будущего ИИ?
Насколько законен ИИ в соответствии с GDPR?
Законы GDPR в Европе, вероятно, являются одними из самых строгих в мире, в них особое внимание уделяется защите персональных данных, а не коммерческой выгоде. Еще до объявления о запрете итальянцами ChatGPT европейские законодатели уже пытались решить многие щекотливые вопросы, возникает вместе с развитием передовых технологий искусственного интеллекта.
Во-первых, глобальный характер цифровых персональных данных становится все труднее отслеживать и управлять ими.
Например, ChatGPT-4 ранее сообщал, что его алгоритмы обучались на данных, взятых из Интернета, включая открытые форумы, такие как Reddit. Также известно, что он предоставляет ложную информацию о лицах, названных напрямую. Помимо очевидных опасений по поводу дезинформации, это также делает такие компании, как OpenAI, уязвимыми для множества проблем, связанных с правами на личные данные европейцев.
Это также открывает банку червей, когда речь идет о технологии ИИ в более широком смысле в соответствии с рекомендациями GDPR. Запрет OpenAI предполагает, что алгоритмы машинного обучения в целом могут по умолчанию нарушать GDPR, поскольку эта технология зависит от огромных объемов данных, которые в какой-то момент могут включать личную информацию.
Озабоченность не только ЕС
открытый мораторий, призывающий приостановить разработку продвинутого искусственного интеллекта, включал громких имен, которые были известными сторонниками технического прогресса и инноваций. Это связано с выступление TikTok перед Конгрессом США, связанное с аналогичными проблемами использования данных.
Европа и ее законодательство GDPR в настоящее время могут опережать другие страны, когда речь идет о правилах конфиденциальности данных, но события последних недель показывают, что прогресс цифровых технологий и их зависимость от наших данных требуют более тщательного изучения.
Хотя то, как данные используются технологиями, в коммерческих или иных целях, является сложным вопросом, на который нельзя ответить за одну ночь, Politico кинул эту горячую картошку в сам ChatGPT, в частности, в отношении правил GDPR.
Ответ оставляет нам много пищи для размышлений: «ЕС должен рассмотреть вопрос об отнесении генеративного ИИ и больших языковых моделей к технологиям с «высоким риском», учитывая их потенциал для создания вредоносного и вводящего в заблуждение контента. ЕС следует рассмотреть вопрос о внедрении системы ответственной разработки, развертывания и использования этих технологий, которая включает соответствующие механизмы защиты, мониторинга и надзора».
Эта статья была первоначально опубликована Кэти Конин на 150sec а>.
Оригинал