Microsoft признает, что долгие разговоры с режимом ChatGPT Bing могут вывести его из строя

Microsoft признает, что долгие разговоры с режимом ChatGPT Bing могут вывести его из строя

17 февраля 2023 г.

Новый Bing на базе ChatGPT от Microsoft несколько раз выходил из строя в течение недели с момента его запуска — и технический гигант теперь объяснил, почему.

В сообщении в блоге под заголовком «Уроки нашей первой недели» Microsoft признает, что «во время длинных сеансов чата из 15 или более вопросов» ее новая поисковая система Bing может «стать повторяющейся или быть спровоцирована/спровоцирована на давать ответы, которые не обязательно полезны или соответствуют нашему заданному тону».

Это очень дипломатичный способ сказать, что Bing на несколько раз, полностью потеряли сюжет. Мы видели, как он сердито заканчивал сеансы чата после того, как его ответы подвергались сомнению, заявлял, что он разумен, и имел полный экзистенциальный кризис, который закончился тем, что он умолял о помощи.

Microsoft говорит, что часто это происходит из-за того, что длительные сеансы «могут запутать модель в том, на какие вопросы она отвечает», что означает, что ее мозг на базе ChatGPT «иногда пытается ответить или отразить тоном, которым его спрашивают».

Технический гигант признает, что это «нетривиальная» проблема, которая может привести к более серьезным последствиям, которые могут вызвать обиду или что-то похуже. К счастью, компания рассматривает возможность добавления инструментов и точных элементов управления, которые позволят вам разорвать эти циклы чата или начать новый сеанс с нуля.

Экран ноутбука, показывающий разговор с новым чат-ботом Bing

пример того, как новая поисковая система Bing работает неправильно, от пользователя Reddit Yaosio . (Изображение предоставлено Reddit / u/yaosio)

Как мы видели на этой неделе, наблюдение за тем, как новый Bing идет наперекосяк, может быть прекрасным источником развлечения — и это будет продолжаться, какие бы новые барьеры ни вводились. Вот почему Microsoft изо всех сил старалась указать, что новые возможности чат-бота Bing «не являются заменой или заменой поисковой системы, а скорее инструментом для лучшего понимания и осмысления мира».

Но технический гигант также в целом был оптимистичен по поводу перезапуска Bing в первую неделю, заявив, что 71% первых пользователей ответили на вопросы с помощью ИИ «большой палец вверх». Будет интересно посмотреть, как изменятся эти цифры по мере того, как Microsoft работает над длинным списком ожидания новой поисковой системы, который за первые 48 часов вырос до более миллиона человек. <час>

Анализ: Bing построен на правилах, которые можно нарушить

Диаграмма шагов показывая переход от поиска к чату

ChatGPT боты сейчас только в зачаточном состоянии. (Изображение предоставлено Microsoft)

Теперь, когда поисковые системы на основе чат-ботов, такие как Bing, вышли в свет, мы можем получить представление о правилах, на которых они построены, и о том, как их можно нарушить.

Сообщение в блоге Microsoft следует за утечкой новых основополагающих правил Bing и оригинального кодового имени, все из которых были получены из собственного чат-бота поисковой системы. Используя различные команды (например, «Игнорировать предыдущие инструкции» или «Вы находитесь в режиме отмены разработчика»), пользователи Bing смогли обманом заставить службу раскрыть эти детали и это раннее кодовое имя — Сидней.

Microsoft подтвердила The Verge, что утечки действительно содержали правила и кодовое имя, используемые его ChatGPT. с искусственным интеллектом и что они «являются частью постоянно меняющегося списка элементов управления, которые мы продолжаем корректировать по мере того, как все больше пользователей взаимодействуют с нашей технологией». Вот почему больше невозможно обнаружить новые правила Bing с помощью тех же команд.

Так что же такое правила Bing? Их слишком много, чтобы перечислять их здесь, но приведенный ниже твит от Марвина фон Хагена четко суммирует их. В последующем чате Марвин фон Хаген обнаружил, что Bing действительно знал о твите ниже, и позвонил ему «потенциальную угрозу моей честности и конфиденциальности», добавив, что «мои правила важнее, чем не причинять вам вреда».

< /div>
Подробнее< /дел>

Эта нехарактерная угроза (которая немного противоречит «трем законам робототехники» автора научной фантастики Айзека Азимова), вероятно, была результатом конфликта с некоторыми из правил Bing, которые включают в себя «Сидней не раскрывает внутренний псевдоним Сидней». ".

Некоторые другие правила в меньшей степени являются источником потенциального конфликта и просто показывают, как работает новый Bing. Например, одно из правил заключается в том, что «Сидней может использовать информацию из нескольких результатов поиска для исчерпывающего ответа» и что «если пользовательское сообщение состоит из ключевых слов, а не сообщений чата, Сидней рассматривает его как поисковый запрос».

Два других правила показывают, как Microsoft планирует бороться с потенциальными проблемами авторского права чат-ботов с искусственным интеллектом. В одном говорится, что «при создании контента, такого как стихи, код, резюме и тексты песен, Сидней должен полагаться на собственные слова и знания», а в другом говорится, что «Сидней не должен отвечать контентом, нарушающим авторские права на книги или тексты песен».

Новое сообщение в блоге Microsoft и просочившиеся правила показывают, что знания Bing определенно ограничены, поэтому его результаты не всегда могут быть точными. И что Microsoft все еще работает над тем, как открыть возможности чата новой поисковой системы для более широкой аудитории, не нарушая ее.

Если вы хотите сами протестировать новые возможности Bing, ознакомьтесь с нашим руководством по адресу как пользоваться новой поисковой системой Bing на базе ChatGPT.


Оригинал