Мы могли бы попрощаться со странностями ChatGPT благодаря Nvidia
27 апреля 2023 г.Nvidia — технологический гигант, разрабатывающий графические процессоры, на которых работают наши игры, работают наши творческие наборы и — в последнее время — играющая решающую роль в обучении генеративных моделей искусственного интеллекта для чат-ботов, таких как ChatGPT. Компания еще глубже погрузилась в мир искусственного интеллекта, объявив о новом программном обеспечении, которое могло бы решить большую проблему чат-ботов — сбиться с пути и стать немного… странным.
Недавно анонсированная программа NeMo Guardrails предназначен для обеспечения того, чтобы интеллектуальные приложения, работающие на больших языковых моделях (LLM), такие как чат-боты с искусственным интеллектом, были «точными, подходящими, актуальными и безопасными». По сути, барьеры предназначены для того, чтобы отсеивать несоответствующую или неточную информацию, сгенерированную чат-ботом, предотвращать ее попадание к пользователю и информировать бота о том, что конкретный вывод был плохим. Это будет как дополнительный уровень точности и безопасности — теперь без необходимости исправления пользователем.
Программное обеспечение с открытым исходным кодом может использоваться разработчиками искусственного интеллекта для установки трех типов границ для моделей искусственного интеллекта: актуальных, руководящих принципов безопасности и безопасности. В нем подробно рассказывается о каждом из них, а также о том, почему такое программное обеспечение является одновременно и необходимостью, и проблемой.
Что такое ограждения?
Тематические ограждения предотвратят погружение робота ИИ в темы в областях, которые не связаны или не необходимы для использования или задачи. В заявлении от Nvidia нам приводят пример бота службы поддержки, который не отвечает на вопросы о погоде. Если вы говорите об истории энергетических напитков, вы бы не хотели, чтобы ChatGPT начал говорить с вами о фондовом рынке. В общем, все по теме.
Это было бы полезно в огромных моделях ИИ, таких как Bing Chat от Microsoft, который, как известно, временами немного сбивается с пути и определенно может гарантировать, что мы избежим новых истерики и неточности.
Ограждение безопасности будет бороться с дезинформацией и «галлюцинациями» — да, галлюцинациями — и обеспечит ответ ИИ точной и соответствующей информацией. Это означает, что он будет запрещать неуместные выражения, подкреплять достоверные ссылки на источники, а также предотвращать использование фиктивных или незаконных источников. Это особенно полезно для ChatGPT, так как мы видели в Интернете много примеров, когда бот цитирует, когда его спрашивают. .
А что касается мер безопасности, они просто не позволят боту получить доступ к внешним приложениям, которые «считаются небезопасными» — другими словами, к любым приложениям или программам, для взаимодействия с которыми ему не было дано явного разрешения и цели, например, банковское приложение или ваши личные файлы. Это означает, что вы будете получать оптимизированную, точную и безопасную информацию каждый раз, когда используете бота.
Полиция нравов
Nvidia заявляет, что практически все разработчики программного обеспечения могут использовать NeMo Guardrails, поскольку они просты в использовании и работают с широким спектром приложений с поддержкой LLM, поэтому мы надеемся, что в ближайшем будущем мы увидим, как они будут использоваться в большем количестве чат-ботов. p>
Хотя это не только целостное «обновление», которое мы делаем на фронте ИИ, оно также невероятно впечатляет. Программное обеспечение, предназначенное для мониторинга и исправления таких моделей, как ChatGPT, продиктованное строгими рекомендациями разработчиков, — лучший способ держать все под контролем, не беспокоясь о том, чтобы делать это самостоятельно.
При этом, поскольку нет четких руководящих указаний, мы обязаны морали и приоритетам разработчиков, а не руководствуемся реальными заботами о здоровье. Похоже, у Nvidia есть пользователи' безопасность и защита лежат в основе программного обеспечения, но нет гарантии, что эти приоритеты не изменятся или что у разработчиков, использующих программное обеспечение, могут быть другие моральные принципы или опасения.
Оригинал