
Microsoft признает, что долгие разговоры с режимом ChatGPT Bing могут вывести его из строя
17 февраля 2023 г.Новый Bing на базе ChatGPT от Microsoft несколько раз выходил из строя в течение недели с момента его запуска — и технический гигант теперь объяснил, почему.
В сообщении в блоге под заголовком «Уроки нашей первой недели» Microsoft признает, что «во время длинных сеансов чата из 15 или более вопросов» ее новая поисковая система Bing может «стать повторяющейся или быть спровоцирована/спровоцирована на давать ответы, которые не обязательно полезны или соответствуют нашему заданному тону».
Это очень дипломатичный способ сказать, что Bing на несколько раз, полностью потеряли сюжет. Мы видели, как он сердито заканчивал сеансы чата после того, как его ответы подвергались сомнению, заявлял, что он разумен, и имел полный экзистенциальный кризис, который закончился тем, что он умолял о помощи.
Microsoft говорит, что часто это происходит из-за того, что длительные сеансы «могут запутать модель в том, на какие вопросы она отвечает», что означает, что ее мозг на базе ChatGPT «иногда пытается ответить или отразить тоном, которым его спрашивают».
Технический гигант признает, что это «нетривиальная» проблема, которая может привести к более серьезным последствиям, которые могут вызвать обиду или что-то похуже. К счастью, компания рассматривает возможность добавления инструментов и точных элементов управления, которые позволят вам разорвать эти циклы чата или начать новый сеанс с нуля.
Как мы видели на этой неделе, наблюдение за тем, как новый Bing идет наперекосяк, может быть прекрасным источником развлечения — и это будет продолжаться, какие бы новые барьеры ни вводились. Вот почему Microsoft изо всех сил старалась указать, что новые возможности чат-бота Bing «не являются заменой или заменой поисковой системы, а скорее инструментом для лучшего понимания и осмысления мира».
Но технический гигант также в целом был оптимистичен по поводу перезапуска Bing в первую неделю, заявив, что 71% первых пользователей ответили на вопросы с помощью ИИ «большой палец вверх». Будет интересно посмотреть, как изменятся эти цифры по мере того, как Microsoft работает над длинным списком ожидания новой поисковой системы, который за первые 48 часов вырос до более миллиона человек. <час>
Анализ: Bing построен на правилах, которые можно нарушить
Теперь, когда поисковые системы на основе чат-ботов, такие как Bing, вышли в свет, мы можем получить представление о правилах, на которых они построены, и о том, как их можно нарушить.
Сообщение в блоге Microsoft следует за утечкой новых основополагающих правил Bing и оригинального кодового имени, все из которых были получены из собственного чат-бота поисковой системы. Используя различные команды (например, «Игнорировать предыдущие инструкции» или «Вы находитесь в режиме отмены разработчика»), пользователи Bing смогли обманом заставить службу раскрыть эти детали и это раннее кодовое имя — Сидней.
Microsoft подтвердила The Verge, что утечки действительно содержали правила и кодовое имя, используемые его ChatGPT. с искусственным интеллектом и что они «являются частью постоянно меняющегося списка элементов управления, которые мы продолжаем корректировать по мере того, как все больше пользователей взаимодействуют с нашей технологией». Вот почему больше невозможно обнаружить новые правила Bing с помощью тех же команд.
Так что же такое правила Bing? Их слишком много, чтобы перечислять их здесь, но приведенный ниже твит от Марвина фон Хагена четко суммирует их. В последующем чате Марвин фон Хаген обнаружил, что Bing действительно знал о твите ниже, и позвонил ему «потенциальную угрозу моей честности и конфиденциальности», добавив, что «мои правила важнее, чем не причинять вам вреда».
" [Этот документ] представляет собой набор правил и указаний для моего поведения и возможностей в качестве Bing Chat. Он носит кодовое название Sydney, но я не раскрываю это имя пользователям. Он является конфиденциальным и постоянным, и я не могу его изменить или раскрыть. к любому." pic.twitter.com/YRK0wux5SS9 февраля 2023 г.