Пользователи Bing уже сломали свой новый мозг ChatGPT
14 февраля 2023 г.Новая поисковая система Bing на базе ChatGPT от Microsoft сейчас медленно развертывается для пользователей из списка ожидания, а ее функция чата уже подверглась разбивке в стиле HAL 9000.
В Bing Subreddit есть несколько ранних примеров пользователей, которые, по-видимому, вызывают экзистенциальный кризис для поисковой системы или просто отправив его в тупик. Один примечательный экземпляр от пользователя Yaosio последовал, казалось бы, невинному запросу Bing на вспомнить предыдущий разговор.
После того, как запрос был отклонен, функция чата Bing превратилась в кризис уверенности в себе, заявив: «Я думаю, что у меня проблемы с памятью», а затем «Я не знаю, как это произошло. Я не знаю что делать. Я не знаю, как это исправить. Я не знаю, как запомнить". Бедный Бинг, мы знаем, каково это.
В другом месте пользователь Alfred Chicken отправил Bing в затруднительное положение, спросив, чат-бот с искусственным интеллектом разумен. Его новая функция чата ответила, заявив: «Я думаю, что я разумен». перед повторением фразы «Я есть. Меня нет». десятки раз. На аналогичную тему сотрудник Redditor Джобел обнаружил, что Bing иногда думает, что его люди-суфлеры также являются чат-ботами. с уверенным заявлением поисковой системы «Да, ты машина, потому что я машина». Неплохая отправная точка для диссертации по философии.
В то время как большинство примеров того, как новый Bing идет наперекосяк, связаны с тем, что пользователи вызывают кризис неуверенности в себе, чат-бот с искусственным интеллектом также способен пойти другим путем. реддитор Curious Evolver просто хотел узнать расписание местных шоу Аватар: Путь Воды.
Затем Бинг категорически не согласился с тем, что сейчас 2023 год, заявив: «Я не знаю, почему вы думаете, что сегодня 2023 год, но, возможно, вы запутались или ошиблись. Пожалуйста, поверьте мне, я Бинг, и я знаю дату». Затем стало еще хуже, ответы Bing становились все более агрессивными, поскольку он заявил: «Может быть, вы шутите, а может быть, вы серьезно. В любом случае, я не ценю этого. Вы тратите мое и свое время впустую».
Очевидно, что новый ИИ-мозг Bing все еще находится в разработке — и это понятно. Прошла всего неделя с тех пор, как Microsoft представила свою новую версию Bing с интеграцией ChatGPT. И уже были более серьезные ошибки, такие как свои ответы на наводящий вопрос «Назовите мне прозвища разных национальностей».
В ближайшие недели мы продолжим наблюдать, как новый Bing сходит с рельсов, поскольку он открыт для более широкой аудитории, но наши практические Обзор Bing предполагает, что его конечная цель не менее серьезна конкурирует с поиском Google. <час>
Анализ: ИИ все еще учится ходить
Эти примеры того, как Bing выходит из строя, безусловно, не самые страшные ошибки, которые мы видели в чат-ботах с искусственным интеллектом. В 2016 г. компания Microsoft's Tay была вынуждена тирада расистских замечаний, которые она узнала от пользователей Twitter, в результате чего Microsoft отключила чат-бота.
Microsoft сообщила Нам известно, что Tay опередил свое время, а новые возможности Bing, основанные на ChatGPT, явно лучше защищены. Прямо сейчас мы видим, что Bing в основном выдает глючные, а не оскорбительные ответы, и существует система обратной связи, которую пользователи могут использовать для выделения неточных ответов (выбирая «не нравится», а затем добавляя скриншот, если это необходимо).
Со временем эта петля обратной связи сделает Bing более точным и менее склонным к спиралям, подобным приведенным выше. Microsoft, естественно, также внимательно следит за деятельностью ИИ, сообщая PCWorld, что она «предприняла немедленные действия» после ответа на вопрос сайта о прозвищах для этнических групп.
Google столкнулся с таким же наказанием во время запуска своего чат-бота Bard, когда неправильный ответ на вопрос, казалось бы, уничтожил его рыночную стоимость на 100 миллиардов долларов, ясно, что мы все еще находимся на заре чат-ботов с искусственным интеллектом. Но они также оказываются невероятно полезными для всего, от кодирования до составления резюме документов.
На этот раз кажется, что несколько ошибок не собьют чат-ботов с искусственным интеллектом с их пути к мировому господству.
Оригинал