День, когда ваш терапевт искусственного искусства свидетельствует против вас

День, когда ваш терапевт искусственного искусства свидетельствует против вас

15 августа 2025 г.

Так начинается. Вы лежите на своей кровати дома с открытым ноутбуком, общаясь со своим терапевтом ИИ и рассказывая о том, что вы никогда не откроете другому человеку. Это кажется целостным, так как это только вы и спокойный, понимающий чат -бот.

Вы рассказываете это о деньгах, которые вы украли у своего босса. Бой, который у вас был со своим супругом. Кошмар, который у вас был. Это похоже на несущественное признание.

Но несколько недель спустя вы получаете электронное письмо. Ваш ИИ -терапевт был вызван в суд.

Это звучит смешно, верно? ИИ не может быть в ящике свидетелей. Но ваша информация? Каждое слово, которое вы набрали? Это на сервере где -то и при каких -либо юридических обстоятельствах, его можно извлечь, упаковать и выпущены с или без вашего согласия.

Ложная конфиденциальность

Большинство приложений по психическому здоровью на основе AI не находятся под действием Закона о мобильности и подотчетности медицинского страхования (HIPAA), закона Соединенных Штатов, который защищает вашу медицинскую информацию. HIPAA применяется только к «покрываемым организациям», таким как страховые фирмы, медицинские работники с лицензиями, или организации, которые работают напрямую с ними. Почему? Большинство из этих платформ нельзя рассматривать как «поставщики медицинских услуг». Они называют себя «приложениями коучинга» или «оздоровительными инструментами», которое представляет собой небольшое изменение лейбла, которое уклоняется от строгих требований к конфиденциальности.

Проблема технической

Большинство инструментов терапии искусственного интеллекта опираются на условия обслуживания, что является длинной нотой, которую никто не читает, вместо твердой правовой защиты. В этом случае вы, возможно, неоднозначно согласились обмениваться своими данными с «партнерами» или «сторонними поставщиками». Другими словами, они могут поделиться вашими разговорами.

Управление данными и его пробелы

  • Общее регулирование защиты данных в Европейском Союзе предлагает людям право на доступ, исправить и извлекать свои данные, но правоприменение очень медленное, а глобальные приложения часто обходят их.
  • Закон о конфиденциальности потребителей в Калифорнии в Калифорнии заставляет потребителей осознавать, что собирается, и помогает им запросить удаление. Однако это относится только к нескольким компаниям.
  • Отсутствие универсального закона о конфиденциальности ИИ означает, что существует разбросанная защита, и много пропусков жизненно важной информации.

Сценарий повесткины

Представьте, что вы поговорили со своим терапевтом по ИИ о борьбе, которая произошла в вашем офисе, которая оказалась под угрозой. Если суд или ваш работодатель считают, что разговоры имеют отношение к делу, они могут запрашивать журналы. Без сильного юридического зонтика платформа может быть юридически обязана выполнять соответствие.

Самая страшная часть? Возможно, вам даже не скажут, пока не станет слишком поздно.

Будущее, которое нам нужно

Если мы хотим доверять ИИ с нашим психическим здоровьем, мы должны обеспечить четкие и применяемые правила, то есть законопроект о конфиденциальности ИИ, который охватывает эмоциональную и психологическую информацию с той же гравитацией, что и медицинские записи. Это означает:

  • Четкое согласие на хранение и использование
  • Явные временные рамки удаления данных
  • Прозрачность в том, где хранятся ваши данные и кто может получить к ним доступ
  • Правовая защита, которая предотвращает использование журналов терапии искусственного интеллекта в суде без согласия владельца

Итак, прежде чем вы станете уязвимым с этим чутким чатботом, спросите себя: кто вас слушает, и кто еще может в конечном итоге прочитать это?


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE