ChatGPT снова сломан, и это даже страшнее, чем обычно, но OpenAI говорит, что беспокоиться не о чем.

ChatGPT снова сломан, и это даже страшнее, чем обычно, но OpenAI говорит, что беспокоиться не о чем.

22 февраля 2024 г.

На этой неделе OpenAI оказался в центре внимания благодаря своему невероятно впечатляющему Инструмент Sora для преобразования текста в видео, но похоже, что привлекательность видео, созданного искусственным интеллектом, могла бы привело к тому, что его популярный чат-бот оказался в стороне, и теперь бот действует.

Да, ChatGPT сошел с ума – или, точнее, ненадолго сошел с ума на короткий период где-то за последние 48 часов. Пользователи сообщают о множестве сбивающих с толку и даже угрожающих ответов бота; некоторые видели, что он застрял в цикле повторяли бессмысленный текст, в то время как другие подвергались придуманным словам и странным монологам на ломаном испанском языке. Один пользователь даже заявил, что, когда его спросили о проблеме с кодированием, ChatGPT ответил загадочным заявлением, которое закончилось утверждением, что он был «в комнате» с ними.

Естественно, я сразу же проверил бесплатную версию ChatGPT, и теперь она, похоже, снова ведет себя хорошо. На данный момент неясно, была ли проблема только с платной моделью GPT-4 или с бесплатной версией, но OpenAI признала проблему, заявив, что «проблема была выявлена» и что ее команда «продолжает следить за ситуацией». ». Однако он не дал объяснения последней истерике ChatGPT.

Это не первый раз – и это не будет последним

В прошлом у ChatGPT было много сбоев — когда я намеревался сломать его в прошлом году, он сказал: некоторые довольно забавные вещи – но этот, похоже, был немного более распространенный и проблематичный, чем прошлые дурачества с чат-ботами.

Это уместное напоминание о том, что инструменты ИИ в целом не являются безошибочными. Недавно мы видели Air Канада была вынуждена выплатить возмещение после того, как ее чат-бот на базе искусственного интеллекта изобрел собственную политику, и вполне вероятно, что мы будем видеть больше подобных странных сбоев, поскольку искусственный интеллект продолжает внедряться во всем мире. разные стороны нашего общества. Хотя нынешние проблемы с ChatGPT относительно безобидны, существует вероятность возникновения реальных проблем – этот случай с Air Canada тревожно воспринимается как предзнаменование грядущих событий и может создать реальный прецедент для требований к человеческой модерации при использовании ИИ в бизнес-средах.

 Генеральный директор OpenAI Сэм Альтман выступает на мероприятии Microsoft 7 февраля 2023 г. 2000

Генеральный директор OpenAI Сэм Альтман не хочет, чтобы вы (или его акционеры) беспокоились о ChatGPT. (Изображение предоставлено: ДЖЕЙСОН РЕДМОНД/AFP через Getty Images)

Что касается того, почему в ChatGPT произошел этот небольшой эпизод, в настоящее время ходят слухи. Это совершенно другая проблема, чем жалобы пользователей на «тупого» чат-бота в конце прошлого года, а также некоторые платные пользователи GPT-4 предположили, что это может быть связано с «температурой» бота.

Чтобы внести ясность, это не буквальный термин: при обсуждении чат-ботов температура относится к степени сосредоточенности и творческого контроля, который ИИ осуществляет над текстом, который он создает. Низкая температура дает вам прямые, фактические ответы, практически не имеющие характера; высокая температура позволяет боту выйти из коробки и может привести к более творческим – и потенциально более странным – ответам.

Какова бы ни была причина, приятно видеть, что OpenAI, похоже, снова взял под контроль ChatGPT. Такого рода «галлюцинации чат-ботов» — это плохой имидж для компании, учитывая ее статус как передового центра исследований в области искусственного интеллекта, и угрожает подорвать доверие пользователей к продукту. В конце концов, кто захочет использовать чат-бота, который утверждает, что живет в ваших стенах?


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE