Эволюция ИИ и конфиденциальности данных: как ChatGPT формирует будущее цифровых коммуникаций

Эволюция ИИ и конфиденциальности данных: как ChatGPT формирует будущее цифровых коммуникаций

13 апреля 2023 г.

Развитие искусственного интеллекта за эти годы принесло как возможности, так и неудачи. Были заметные прорывы, которые произвели революцию в Интернете; многие к лучшему.

Однако никто не мог подготовиться к запуску ChatGPT от OpenAI, который покорил мир. Его способность создавать естественную беседу, предоставляя фактические, проницательные ответы за считанные секунды, беспрецедентна.

Как только широкая общественность увидела, на что способен ChatGPT, каждый прогрессивный лидер в мире понял, что цифровое общение уже никогда не будет прежним.

Но с инновациями часто возникают разногласия, и в этом случае чат-боту Supernova пришлось столкнуться с законными проблемами конфиденциальности данных.

Разработка ChatGPT потребовала сбора значительного объема данных, и без того, чтобы OpenAI не мог точно описать, как чат-бот работает, обрабатывает и хранит данные, избитые опасения и скептицизм в отношении методов обеспечения конфиденциальности данных возникли как у лидеров мнений, так и у государственных наблюдателей за конфиденциальностью. .

Этот вопрос также не остался без внимания общественности, поскольку, согласно опросу 2023 года, 67% потребителей во всем мире считают, что они теряют контроль над своими данными в пользу технологических компаний.

Тот же опрос также показал, что 72,6 % приложений для iOS отслеживают личные данные пользователей, при этом вероятность того, что бесплатные приложения отследят пользовательские данные, в 4 раза выше, чем у платных.

Если вас это беспокоит, помните, что большинство людей, использующих ChatGPT, по-прежнему пользуются бесплатной версией.

Учитывая все это, компаниям, занимающимся конфиденциальностью данных, необходимо использовать диалог, вызванный разработкой ChatGPT, для предоставления продуктов, которые расширяют права на конфиденциальность данных и продвигают более сильную культуру прозрачности и ответственности данных, чтобы люди знали о своих правах на данные и о том, как их использовать. их, а также то, что эти новаторские технологии искусственного интеллекта не превращаются в зависимость от аморальной тактики для получения прибыли, как это делают многие крупные технологические компании.

ChatGPT, вероятно, уже вас знает

ChatGPT – это большая языковая модель (LLM). Это означает, что для правильной работы требуется большой объем данных, что позволяет делать прогнозы и согласованно обрабатывать информацию.

Это означает, что если вы что-то написали в Интернете, весьма вероятно, что ChatGPT уже просканировал и обработал эту информацию.

Более того, LLM, такие как ChatGPT, в значительной степени полагаются на горы данных для обучения своих алгоритмов из различных онлайн-источников (электронные книги, статьи и сообщения в социальных сетях). Это дает пользователям возможность генерировать ответы, основанные на фактах, которые, возможно, идентичны тексту, созданному человеком.

Проще говоря, любой текст, который кто-то уже разместил в Интернете, вероятно, использовался для обучения ChatGPT или конкурирующих LLM, которые обязательно последуют за успехом ChatGPT.

Неудивительно, что опасения по поводу конфиденциальности данных обоснованы, поскольку OpenAI недавно признал, что произошла утечка данных из-за ошибки в библиотеке с открытым исходным кодом.

Кроме того, фирма, занимающаяся кибербезопасностью, обнаружила, что недавно добавленный компонент был уязвим для активно используемой уязвимости в системе безопасности.

OpenAI провел расследование и обнаружил, что утечка данных включала названия активных пользователей. ' история чата и первое сообщение вновь созданных чатов.

Взлом также выявил платежную информацию 1,2% подписчиков ChatGPT Plus, включая их имена и фамилии, адреса электронной почты, платежные адреса, даты истечения срока действия платежной карты и последние четыре цифры номера их платежной карты.

Сказать, что это катастрофа с защитой данных, значит ничего не сказать. Внутри ChatGPT может быть больше информации, чем в любом другом продукте на планете, и через несколько месяцев после его выпуска уже происходит утечка конфиденциальной информации.

Что нужно делать пользователям ChatGPT?

И вот серебряная подкладка: привлечение внимания к реальным рискам, которые ChatGPT представляет для конфиденциальности среди широкой публики, может дать людям прекрасную возможность начать понимать важность защиты данных вплоть до мельчайших деталей.

Это особенно важно, учитывая быстрые темпы роста пользовательской базы ChatGPT.

Помимо принятия мер предосторожности и сохранения бдительности, пользователи должны применять свои Права субъекта данных (DSR). Это включает в себя сохранение их права на доступ, редактирование и удаление личных данных.

Каждый пользователь в цифровую эпоху должен стать сторонником более строгих правил конфиденциальности данных, чтобы контролировать свою личную информацию и обеспечивать ее использование с максимальной ответственностью.

ChatGPT, кажется, отреагировал на это, так как новые сеансы теперь начинаются с подсказок, предупреждающих людей не вводить конфиденциальные данные или корпоративные секреты, поскольку они не защищены, находясь внутри системы.

Samsung обнаружил это на собственном горьком опыте, и многие другие люди необходимо принять во внимание и проявлять осторожность при работе с подсказками ChatGPT.

Что-то вроде использования одного из новых плагинов ChatGPT для покупки продуктов может показаться безобидным, но вы действительно хотите, чтобы незащищенная цифровая запись обо всем, что вы ели, плавала по Интернету?

Мы, как общественность, должны притормозить и не слишком увлекаться истерией вокруг новых технологий искусственного интеллекта, пока не будут решены эти проблемы с конфиденциальностью.

Что нужно делать компаниям?

Не заблуждайтесь: хотя пользователи должны довести сделку до конца, компании должны нести ответственность за ненадлежащее использование и защиту данных.

При этом организации всех размеров должны продвигать прозрачные и понятные формы согласия для отдельных лиц, чтобы они четко понимали, как их данные будут использоваться и куда они будут направляться, а также для любых сторонних организаций, которые могут иметь доступ к этим данным.

Кроме того, лидеры должны предоставить пользователям четкие пути для реализации своих DSR, а также обучать сотрудников этическим и надлежащим методам обработки и хранения данных.

Мы далеки от достижения этой цели, так как большинство баннеров согласия по-прежнему находятся в серой зоне регулирования, учитывая, что они явно не рекламируют права отказа или подписки, в зависимости от пользователя и местоположения компании.

Прозрачность, ясность и подотчетность должны стоять на переднем крае методов защиты данных каждой организации.

Появление ChatGPT открывает новую эру бдительности в отношении конфиденциальности данных, когда организации и отдельные лица должны быть в равной степени активны в обеспечении надлежащей обработки данных, чтобы избежать нарушений и неправомерного использования.

ChatGPT поглощает больше данных быстрее, чем любая другая компания в истории, и если этот шар лопнет, последствия для конфиденциальности будут беспрецедентными.

Если компании хотят убедиться, что они избавлены от потенциальной проблемы, им нужно начать применять более разумные методы защиты данных и укреплять доверие потребителей в Интернете, иначе лучшее коллективное цифровое будущее может оказаться в опасности.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE