Мозг Bing ChatGPT ведет себя так странно, что Microsoft может его обуздать

Мозг Bing ChatGPT ведет себя так странно, что Microsoft может его обуздать

17 февраля 2023 г.

Microsoft взломать чат-бота в любом случае и заставить его использовать оскорбления или реагировать ненадлежащим образом.

Несмотря на то, что Microsoft приняла эти меры, она была не совсем готова к очень странным, граничащим с тревогой переживаниям, которые испытывали некоторые пользователи после попыток вести более неформальные личные беседы с чат-ботом. Это включало чат-бот, делающий и устраивают истерики, когда говорят об ошибке или просто имеют полон экзистенциального кризиса.

В свете странных ответов Microsoft рассматривает возможность внедрения новых протоколов защиты и настроек для прекратите эти странные, иногда слишком человеческие реакции. Это может означать предоставление пользователям возможности перезапускать разговоры или предоставление им большего контроля над тоном.

Технический директор Microsoft сообщил The New York Times, что он также рассматривает возможность сокращения продолжительности сохранения, которое пользователи могут иметь с отключенным чат-ботом, прежде чем разговор может перейти на странную территорию. Microsoft уже признала, что длинные разговоры могут сбить с толку чат-бота и привлечь внимание пользователей' тон, в котором все может начать портиться.

В сообщение в блоге от технологического гиганта, Microsoft признала, что ее новая технология используется не так, как она себе представляла. Технологическая индустрия, кажется, находится в безумном порыве, чтобы каким-то образом участвовать в ажиотаже вокруг искусственного интеллекта, что доказывает, насколько индустрия увлечена этой технологией. Возможно, это волнение затуманило рассудок и поставило скорость выше осторожности.

<час>

Анализ: бот вышел из-под контроля

Выпуск технологии как непредсказуемой и полной несовершенств был определенно рискованным шагом со стороны Microsoft, чтобы включить ИИ в Bing в попытке оживить интерес к своей поисковой системе. Возможно, компания намеревалась создать полезного чат-бота, который не будет делать больше, чем он предназначен, например, вытаскивать рецепты, помогать людям с загадочными уравнениями или узнавать больше по определенным темам, но ясно, что они не ожидали, как решительные и успешные люди могут быть такими, если хотят спровоцировать конкретный ответ чат-бота.

Новые технологии, особенно что-то вроде искусственного интеллекта, определенно могут заставить людей почувствовать необходимость продвигать их как можно дальше, особенно с чем-то настолько отзывчивым, как чат-бот. Мы видели подобные попытки, когда была представлена ​​​​Siri, когда пользователи изо всех сил старались рассердить виртуального помощника, рассмеяться или даже пойти на свидание. Microsoft, возможно, не ожидала, что люди будут давать чат-боту такие странные или неуместные подсказки, поэтому она не смогла бы предсказать, насколько плохими могут быть ответы.

Надеемся, что новые меры предосторожности сдержат любые дальнейшие странности от чат-бот на базе искусственного интеллекта и убирает неприятные ощущения, когда он казался слишком человечным.

Всегда интересно видеть и читать о ChatGPT, особенно когда бот сходит с ума после нескольких умных подсказок, но с такой новой и непроверенной технологией лучше всего пресечь проблемы в зародыше. .

Нет никаких сомнений в том, что меры, которые планирует принять Microsoft, действительно изменят ситуацию, но, поскольку чат-бот уже существует, вернуть его невозможно. Нам просто нужно привыкнуть исправлять проблемы по мере их поступления и надеяться, что все, что потенциально опасно или оскорбительно, будет обнаружено вовремя. Болезни роста ИИ, возможно, только начались.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE