Эксперты предупреждают, что ChatGPT и другие чат-боты с искусственным интеллектом никогда не перестанут придумывать всякие ерунды

Эксперты предупреждают, что ChatGPT и другие чат-боты с искусственным интеллектом никогда не перестанут придумывать всякие ерунды

3 августа 2023 г.

OpenAI ChatGPT, Google Bard и Microsoft Bing AI невероятно популярны благодаря своей способности быстро генерировать большой объем текста и могут быть убедительно человеческими, но «галлюцинация» ИИ, также известная как создание вещей, представляет собой серьезную проблему. с этими чат-ботами. К сожалению, предупреждают эксперты, так, вероятно, будет всегда.

Новый отчет от Associated Press подчеркивает, что проблему конфабуляции с большой языковой моделью (LLM) решить не так просто, как утверждают многие основатели технологий и сторонники ИИ. по крайней мере, по словам профессора Вашингтонского университета (UW) Эмили Бендер, профессора лингвистики в Лаборатории компьютерной лингвистики UW.

«Это не поправимо, — сказал Бендер. «Это связано с несоответствием между технологией и предлагаемыми вариантами использования».

< /дел>

По словам президента Jasper AI Шейна Орлика, в некоторых случаях проблема с изготовлением всякой всячины на самом деле является преимуществом.

«Галлюцинации на самом деле являются дополнительным бонусом, — сказал Орлик. — У нас есть клиенты постоянно рассказывают нам, как ему пришли в голову идеи — как Джаспер создал истории или ракурсы, о которых они никогда бы не подумали сами». поколение, где такие модели, как Dall-E и в результате Midjourney можно создавать потрясающие изображения. 

Для Однако при генерации текста проблема галлюцинаций остается реальной проблемой, особенно когда речь идет о новостях, где важна точность.

«[LLM] созданы для того, чтобы придумывать вещи. Это все, что они делают», — сказал Бендер. «Но поскольку они только выдумывают, когда текст, который они выдавливают, оказывается интерпретируемым как что-то, что мы считаем правильным, это происходит случайно», — сказал Бендер. «Даже если их можно настроить так, чтобы они были правильными в большинстве случаев, у них все равно будут режимы отказа — и, вероятно, отказы будут в тех случаях, когда человеку, читающему текст, труднее их заметить, потому что они более неясны».

К сожалению, когда у вас есть только молоток, весь мир может выглядеть как гвоздь

LLM — это мощные инструменты, которые могут делать замечательные вещи, но компании и ИТ-индустрия должны понимать, что только потому, что что-то мощное, не означает, что это хороший инструмент для использования.

Отбойный молоток — это правильный инструмент для работы по разрушению тротуара и асфальта, но вы бы не взяли его на место археологических раскопок. Точно так же добавление чат-бота с искусственным интеллектом в уважаемые новости организации и представление этих инструментов как новшества, экономящего время для журналистов, является фундаментальным непониманием того, как мы используем язык для передачи важной информации. Просто спросите недавно подвергшиеся санкциям юристы, которых поймали на использовании сфабрикованного прецедентного права, созданного чат-ботом с искусственным интеллектом.

Как заметил Бендер, LLM создается с нуля, чтобы предсказывать следующее слово в последовательность на основе подсказки, которую вы ему даете. Каждому слову в его обучающих данных был присвоен вес или процент, по которому оно будет следовать за любым данным словом в данном контексте. Чего эти слова не ассоциировали с собой, так это фактического значения или важного контекста, который должен сопровождать их, чтобы обеспечить точность вывода. Эти большие языковые модели являются великолепными имитаторами, которые понятия не имеют, что они на самом деле говорят, и обращение с ними как с чем-либо еще обязательно навлечет на вас неприятности.

Эта слабость заложена в самом LLM, и пока " «галлюцинации» (умная техническая болтовня, предназначенная для прикрытия того факта, что эти модели ИИ просто производят ложную информацию, претендующую на достоверность) могут быть уменьшены в будущих итерациях, их нельзя исправить навсегда, поэтому всегда существует риск неудачи.


Оригинал