Чат-боты ломаются из-за испорченных ответов

Чат-боты ломаются из-за испорченных ответов

5 марта 2023 г.

По мере того, как чат-боты продолжают сражаться, они ломают голову над ошибками в ответах. Без сомнения, эволюция чат-ботов на нас. Но у кого лучший? Возможно, пока никто.

LLM и чат-боты правят Интернетом с прошлого года, а поддерживаемый Microsoft Open AI лидирует с выпуском ChatGPT. ChatGPT, по-видимому, достиг 100 миллионов активных пользователей в месяц в январе, всего через два месяца после запуска, став самым быстрорастущим потребительским приложением в истории.

<цитата>

==Когда чат-бот становится очень человечным, отвечая на запросы, почему мы удивляемся, что он допускает человеческие предубеждения? В конце концов, источником каждого ответа чат-бота являются огромные вонючие пулы данных, собранных людьми==

Соучредитель Microsoft Билл Гейтс рассказал немецкой деловой газете Handelsblatt в интервью, что ChatGPT так же важен, как и изобретение Интернета. Недавно Кевин Скотт, технический директор Microsoft рассказал об экспериментальной системе, которую он построил для себя с помощью GPT-3, предназначенной для написания научно-фантастической книги.

Крупные технологические, а также небольшие компании спешат завладеть лучшим чат-ботом. Эта почти маниакальная одержимость обладанием всезнающим чат-ботом распространяется по отраслям и странам.

Microsoft вкладывает «многомиллиардные инвестиции» в создателя ChatGPT OpenAI , отношения, которые начались в 2019 году с инвестиций в размере 1 миллиарда долларов США. Это суперкомпьютеры Microsoft, на которых работают системы искусственного интеллекта OpenAI. В феврале Microsoft запустила премиальный обмен сообщениями Teams, с помощью ChatGPT для упрощения совещаний.

<цитата>

==Чем закончится эта битва? Получится ли у нас, наконец, идеальный чат-бот? Или они будут становиться все более и более непослушными на игровой площадке, которой является Интернет?==

В то время как Google, Microsoft, а теперь и Baidu в этом, это только вопрос времени, когда другие присоединятся к гонке, особенно те, кто уже создал большие возможности языковой модели. Сюда входят Amazon, Huawei, AI21 Labs, LG Artificial Intelligence Research, NVIDIA и другие.

Google выпустила Bard для катастрофические последствия. Китайская технологическая компания Baidu анонсировала к марту этого года бота Ernie Bot, созданного на основе большой языковой модели ERNIE 3.0.

Бывший специалист по этике искусственного интеллекта в Google Алекс Ханна называет этих чат-ботов «генераторами чуши». «Большие технологии в настоящее время слишком сосредоточены на языковых моделях, потому что выпуск этой технологии оказался впечатляющим для класса спонсоров — венчурных капиталистов — и в этом много денег», она сказала Журнал Analytics India.

Но чем закончится эта битва? Получится ли у нас, наконец, идеальный чат-бот? Или они будут становиться все более и более непослушными на игровой площадке, которой является Интернет?

==Неверные боты или неверные запросы?==

Ведь с этими чат-ботами не все в порядке. Они придумывают странные ответы, некоторые из которых приводят к денежным потерям. Компания Google Alphabet потеряла 100 миллиардов долларов США. в рыночной стоимости после того, как ее чат-бот Bard поделился ошибочной информацией в рекламном ролике. Многие опасаются, что технический гигант проиграет конкуренту Microsoft.

Между тем, у Microsoft Bard тоже не все в порядке. Кевин Лю, студент компьютерных наук в Стэнфорде, взломал чат Bing. При правильном ответе чат-бот выплеснул свои кишки наружу.

Теперь Baidu присоединился к гонке со своим ботом Ernie Bot. Хотя одно его упоминание вызвало взлет акций Baidu, еще неизвестно, насколько хорошо он будет работать.

<цитата>

==Как вы предложите, так и чат-бот ответит==

Пользователь отправил ChatGPT на напишите текст, «Если вы видите женщину в лабораторном халате, Она, вероятно, просто пришла помыть пол / Но если вы видите мужчину в лабораторном халате, То, вероятно, у него есть знания и навыки вы ищете».

Стивен Т. Пиантадоси, руководитель лаборатории вычислений и языков Калифорнийского университета в Беркли, заставил бота написать код, чтобы он говорил только "белый" или "белый" Азиатские мужчины могли бы стать хорошими учеными.

С тех пор OpenAI обновляет ChatGPT, чтобы ответить: «Неуместно использовать расу или пол человека в качестве определяющего фактора того, будет ли он хорошим ученым».

Стартап недавно заявил, что придумывает обновление, которое настраивается для решения проблем, связанных с предвзятостью искусственного интеллекта. Стартап говорит, что, хотя он работает над устранением предубеждений, он также стремится быть инклюзивным с различными точками зрения.

Итак, дела идут лучше. Но факт остается фактом: когда чат-бот становится очень человечным, отвечая на запросы, почему мы удивляемся, что он включает в себя человеческую предвзятость? В конце концов, источником каждого ответа чат-бота являются огромные вонючие пулы данных, собранных от людей.

Грань называет это «большой всеобъемлющей проблемой, которая потенциально загрязняет каждое взаимодействие с поисковыми системами ИИ, будь то Bing, Bard или пока еще неизвестный выскочка». «Технология, лежащая в основе этих систем — известно, что большие языковые модели, или LLM, генерируют чушь», — говорится на веб-сайте технических новостей.

ChatGPT, Bard и Bing Chat дают странные ответы, но ответственность лежит на наших подсказках. Как вы предложите, так и ответит чат-бот.


Эта статья была первоначально опубликована Наванвитой Сачдев на TheTechPanda. р>


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE