ЕС дает рекомендации разработчикам ИИ о том, как соблюдать законы о конфиденциальности

20 декабря 2024 г.

Европейский совет по защите данных опубликовал мнение, касающееся защиты данных в моделях ИИ. Оно охватывает оценку анонимности ИИ, правовую основу обработки данных и меры по смягчению последствий для субъектов данных для технологических компаний, работающих в блоке.

Он был опубликован в ответ на запрос Комиссии по защите данных Ирландии, главного надзорного органа в соответствии с GDPR для многих транснациональных корпораций.

Каковы были основные моменты руководства?

DPC запросил дополнительную информацию по следующим вопросам:

    Когда и как модель ИИ может считаться «анонимной» — такой, которая вряд ли идентифицирует лиц, чьи данные использовались при ее создании, и, следовательно, освобождается от законов о конфиденциальности. Когда компании могут заявить, что у них есть «законный интерес» в обработке данных лиц для моделей ИИ и, следовательно, им не нужно запрашивать их согласие. Последствия незаконной обработки персональных данных на этапе разработки модели ИИ.

Председатель EDPB Ану Талус заявил в пресс-релизе: «Технологии ИИ могут принести много возможностей и преимуществ различным отраслям и сферам жизни. Мы должны гарантировать, что эти инновации будут реализованы этично, безопасно и таким образом, чтобы это приносило пользу всем.

«EDPB хочет поддержать ответственные инновации в области искусственного интеллекта, гарантируя защиту персональных данных и полное соблюдение Общего регламента по защите данных».

Когда модель ИИ можно считать «анонимной»

Модель ИИ может считаться анонимной, если вероятность того, что персональные данные, используемые для обучения, будут отслежены до какого-либо лица — напрямую или косвенно, например, через подсказку, — считается «незначительной». Анонимность оценивается надзорными органами «в каждом конкретном случае» и требуется «тщательная оценка вероятности идентификации».

Однако в заключении приводится список способов, с помощью которых разработчики моделей могут продемонстрировать анонимность, в том числе:

    Принятие мер во время выбора источника для избежания или ограничения сбора персональных данных, например, исключение нерелевантных или ненадлежащих источников. Внедрение надежных технических мер для предотвращения повторной идентификации. Обеспечение достаточной анонимности данных. Применение методов минимизации данных для избежания ненужных персональных данных. Регулярная оценка рисков повторной идентификации посредством тестирования и аудита.

Кэтрин Уинн, юрист по защите данных из Pinsent Masons, заявила, что эти требования затруднят для компаний, занимающихся ИИ, возможность сохранять анонимность.

«Потенциальный вред конфиденциальности человека, чьи данные используются для обучения модели ИИ, может, в зависимости от обстоятельств, быть относительно минимальным и может быть дополнительно уменьшен за счет мер безопасности и псевдонимизации», — заявила она в статье компании.

«Однако то, как EDPB трактует закон, потребует от организаций выполнения обременительных, а в некоторых случаях и невыполнимых обязательств по соблюдению требований, в частности, в отношении ограничения целей и прозрачности».

Когда компании ИИ могут обрабатывать персональные данные без согласия людей

В заключении EDPB подчеркивается, что компании, занимающиеся ИИ, могут обрабатывать персональные данные без согласия на основании «законного интереса», если они могут доказать, что их интерес, например, улучшение моделей или услуг, перевешивает права и свободы человека.

Это особенно важно для технологических компаний, поскольку получение согласия на огромные объемы данных, используемых для обучения моделей, не является ни тривиальным, ни экономически выгодным. Но чтобы соответствовать требованиям, компаниям необходимо будет пройти эти три теста:

    Тест на законность: необходимо определить законную, легитимную причину обработки персональных данных. Тест на необходимость: обработка данных должна быть необходима для достижения цели. Не может быть других альтернативных, менее навязчивых способов достижения цели компании, а объем обрабатываемых данных должен быть пропорционален. Тест на баланс: законный интерес в обработке данных должен перевешивать влияние на права и свободы отдельных лиц. При этом учитывается, будут ли отдельные лица обоснованно ожидать, что их данные будут обрабатываться таким образом, например, если бы они сделали их общедоступными или имели отношения с компанией.

Даже если компания не проходит тест на балансировку, ей все равно может не потребоваться получать согласие субъектов данных, если они применяют смягчающие меры для ограничения воздействия обработки. Такие меры включают:

    Технические меры безопасности: применение мер безопасности, снижающих риски безопасности, таких как шифрование. Псевдонимизация: замена или удаление идентифицируемой информации для предотвращения привязки данных к человеку. Маскировка данных: замена реальных персональных данных поддельными данными, когда фактическое содержание не является существенным. Механизмы, позволяющие субъектам данных осуществлять свои права: упрощение для отдельных лиц осуществления своих прав на данные, таких как отказ, запрос на удаление или подача заявлений на исправление данных. Прозрачность: публичное раскрытие методов обработки данных с помощью кампаний в СМИ и меток прозрачности. Меры, специфичные для веб-скрапинга: внедрение ограничений для предотвращения несанкционированного скрапинга персональных данных, таких как предоставление субъектам данных списка отказа или исключение конфиденциальных данных.

Юрист по технологиям Малкольм Доуден из Pinsent Masons в статье компании заявил, что определение «законного интереса» в последнее время вызывает споры, особенно в законопроекте Великобритании об использовании и доступе к данным.

«Сторонники ИИ предполагают, что обработка данных в контексте ИИ стимулирует инновации и приносит неотъемлемое общественное благо и выгоды, которые представляют собой «законный интерес» для целей закона о защите данных», — сказал он. «Противники считают, что эта точка зрения не учитывает риски, связанные с ИИ, такие как риски для конфиденциальности, дискриминации или потенциального распространения «дипфейков» или дезинформации».

Сторонники благотворительной организации Privacy International выразили обеспокоенность тем, что модели ИИ, такие как серия GPT компании OpenAI, могут не пройти надлежащую проверку в рамках трех тестов, поскольку у них отсутствуют конкретные причины для обработки персональных данных.

Последствия незаконной обработки персональных данных при разработке ИИ

Если модель разработана путем обработки данных способом, нарушающим GDPR, это повлияет на то, как будет разрешено работать модели. Соответствующий орган оценивает «обстоятельства каждого отдельного случая», но приводит примеры возможных соображений:

    Если одна и та же компания сохраняет и обрабатывает персональные данные, законность этапов разработки и развертывания должна оцениваться на основе особенностей случая. Если другая фирма обрабатывает персональные данные во время развертывания, EDPB рассмотрит, провела ли эта фирма соответствующую оценку законности модели заранее. Если данные анонимизируются после незаконной обработки, последующая обработка неперсональных данных не подлежит GDPR. Однако любая последующая обработка персональных данных по-прежнему будет подпадать под действие этого регулирования.

Почему компаниям, занимающимся ИИ, следует обратить внимание на руководство

Руководство EDPB имеет решающее значение для технологических компаний. Хотя оно не имеет юридической силы, оно влияет на то, как законы о конфиденциальности применяются в ЕС.

Действительно, компании могут быть оштрафованы на сумму до €20 млн или 4% от годового оборота — в зависимости от того, что больше — за нарушение GDPR. Им даже могут потребовать изменить способ работы своих моделей ИИ или полностью удалить их.

СМ.: Закон ЕС об искусственном интеллекте: новые правила Европы для искусственного интеллекта

Компании, занимающиеся ИИ, испытывают трудности с соблюдением GDPR из-за огромного количества персональных данных, необходимых для обучения моделей, которые часто берутся из общедоступных баз данных. Это создает проблемы в обеспечении законной обработки данных и обработке запросов на доступ к данным субъектов, исправлений или стираний.

Эти проблемы проявились в многочисленных судебных тяжбах и штрафах. Например:

    В январе 2024 года итальянский орган по защите данных обвинил ChatGPT от OpenAI в нарушении GDPR путем обработки персональных данных без надлежащего правового основания, что привело к временной приостановке. В апреле правозащитная группа noyb также подала жалобу на компанию Сэма Альтмана, утверждая, что ChatGPT предоставила ложную информацию о лицах, не предложив механизмов исправления. В июне Meta отложила обучение своих больших языковых моделей на публичном контенте, которым делятся взрослые в Facebook и Instagram в Европе, после противодействия ирландских регуляторов. Meta AI, ее пограничный помощник в области искусственного интеллекта, до сих пор не выпущен в рамках блока из-за его «непредсказуемых» правил.

Кроме того, в сентябре голландское Управление по защите данных оштрафовало Clearview AI на 30,5 млн евро за незаконный сбор изображений лиц из интернета без согласия пользователя, что является нарушением GDPR. В том же месяце ирландское Управление по защите данных потребовало составления заключения сразу после того, как оно успешно убедило X Илона Маска прекратить использовать публичные посты европейских пользователей для обучения своего чат-бота на основе искусственного интеллекта Grok без получения их согласия.

Подпишитесь на рассылку новостей TechRepublic UK Узнайте о важнейших новостях недели в сфере технологий, обязательных к прочтению публикациях и обсуждениях, которые будут интересны ИТ-специалистам, работающим в Великобритании и Европе. Доставка по средам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на рассылку новостей TechRepublic UK Узнайте о важнейших новостях недели в сфере технологий, обязательных к прочтению публикациях и обсуждениях, которые будут интересны ИТ-специалистам, работающим в Великобритании и Европе. Доставка по средам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE