Поисковая система Bing на базе ChatGPT выдумывает всякие ерунды и закатывает истерики

Поисковая система Bing на базе ChatGPT выдумывает всякие ерунды и закатывает истерики

15 февраля 2023 г.

Благодаря популярности и растущему спросу на чат-бот с искусственным интеллектом ChatGPT технологические гиганты, такие как Microsoft и Google, начали внедрять искусственный интеллект в свои поисковые системы. На прошлой неделе Microsoft объявила об этом объединении между OpenAI и Bing, хотя люди быстро указали, что поисковая система, которая теперь перегружена, имеет серьезную проблему с дезинформацией.

Независимый исследователь искусственного интеллекта и блогер Дмитрий Бертон написал сообщение в блоге, в котором он проанализировал несколько ошибок, допущенных продуктом Microsoft во время демонстрации. Некоторые из них включали в себя ИИ, создающий собственную информацию, цитирующий описания баров и ресторанов, которых не существует, и сообщающий в ответах фактически неверные финансовые данные.

Например, в сообщении в блоге Бертон ищет пылесосы для домашних животных и получает список плюсов и минусов для «ручного пылесоса Bissel Pet Hair Eraser» с некоторыми довольно серьезными минусами, обвиняя его в том, что он шумный, имеет короткий шнур и страдает. из-за ограниченной мощности всасывания. Проблема в том, что они все выдуманы. Бертон отмечает, что ИИ Bing «был достаточно любезен», чтобы предоставить источники, и при проверке фактическая статья ничего не говорит о мощности всасывания или шуме, а в главном обзоре продукта Amazon говорится о том, насколько он тихий.

Кроме того, в обзорах нет ничего о «короткой длине шнура», потому что… он беспроводной. Это ручной пылесос.

Бертон не единственный, кто указывает на множество ошибок Bing AI. Пользователь Reddit SeaCream8095 опубликовал скриншот своего разговора с Bing AI, где чат-бот задал пользователю «романтический» вопрос. загадка и заявленный ответ состоит из восьми букв. Пользователь угадал и сказал «милая». Но после того, как в разговоре несколько раз указывалось, что у возлюбленной десять букв, а не восемь, Bing AI удвоил усилия и даже продемонстрировал свою работу, показав, что он не считает две буквы, и настаивая на том, что это все еще правильно.

how_to_make_chatgpt_block_you из r/ChatGPT
PREVIOUS ARTICLE
NEXT ARTICLE