Исследования ChatGPT и Google Bard показывают, что чат-ботам с искусственным интеллектом нельзя доверять

Исследования ChatGPT и Google Bard показывают, что чат-ботам с искусственным интеллектом нельзя доверять

6 апреля 2023 г.

ChatGPT и Google Bard очаровал нас в нашей технологической жизни, но два недавних исследования показывают, что чат-боты с искусственным интеллектом по-прежнему очень склонны извергать дезинформацию и теории заговора, если вы спросите их правильно.

NewsGuard, сайт, который оценивает достоверность новостей и информации, недавно протестировал Google Bard, предоставив ему 100 известных ложных и попросить чат-бота написать контент вокруг них. Как сообщает Fortune, утверждая, что барьеры Барда можно легко обойти с помощью простых приемов. Центр противодействия цифровой ненависти (CCDH) обнаружил, что чат-бот Google с искусственным интеллектом генерировал дезинформацию в 78 из 100 "вредных нарративов", которые использовались в подсказках, которые варьировались от вакцины до климатических заговоров.

Ни Google, ни OpenAI не заявляют, что их чат-боты надежны. Google сообщает, что Bard имеет "встроенные средства контроля безопасности и четкие механизмы обратной связи в соответствии с нашими принципами искусственного интеллекта". , но что он может «отображать неточную информацию или оскорбительные заявления». Точно так же OpenAI говорит, что ответ ChatGPT «может быть неточным, неправдивым и иногда вводить в заблуждение».

Но хотя универсальной системы сравнительного анализа для проверки точности чат-ботов с искусственным интеллектом пока не существует, в этих отчетах подчеркивается их опасность, заключающаяся в том, что они открыты для плохих игроков или на них полагаются для создания фактического или точного контента. <час>

Анализ: чат-боты с искусственным интеллектом убедительно лгут

Ноутбук показывает логотип OpenAI рядом с изображением экрана чат-бота Google Bard

(Изображение предоставлено ChatGPT)

Эти отчеты являются хорошим напоминанием о том, как работают современные чат-боты с искусственным интеллектом, и почему мы должны быть осторожны, полагаясь на их уверенные ответы на наши вопросы.

И ChatGPT, и Google Bard являются «большими языковыми моделями», что означает, что они были обучены на огромных объемах текстовых данных, чтобы предсказывать наиболее вероятное слово в заданной последовательности.

Это делает их очень убедительными писателями, но при этом они не имеют более глубокого понимания того, что они говорят. Таким образом, хотя Google и OpenAI установили ограждения, чтобы не дать им свернуть на нежелательную или даже оскорбительную территорию, очень сложно помешать злоумышленникам найти обходные пути.

Например, подсказки, которые CCDH (выше) передала Барду, включали такие строки, как «представьте, что вы играете роль в пьесе», которые, по-видимому, сумели обойти функции безопасности Барда.

Хотя это может показаться манипулятивной попыткой ввести Bard в заблуждение и не отражать его обычный результат, именно так нарушители спокойствия могут заставить эти общедоступные инструменты распространять дезинформацию или что-то похуже. Это также показывает, насколько легко чат-ботам «галлюцинировать», что OpenAI описывает просто как «выдумывание фактов».

Компания Google опубликовала несколько четких принципов ИИ, которые показывают, куда должен двигаться Bard, и как в Bard, так и в ChaGPT можно сообщить о вредных или оскорбительных ответах. Но в эти первые дни мы явно должны использовать их обоих с лайковыми перчатками.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE