Проект Dell Project Helix знаменует собой переход к специально обученному генеративному ИИ.

Проект Dell Project Helix знаменует собой переход к специально обученному генеративному ИИ.

24 мая 2023 г.
Локальный искусственный интеллект и специально обученный генеративный ИИ теперь являются корпоративными тенденциями. Руководители Dell и NVIDIA, а также аналитики Forrester Research высказывают свое мнение.

Генеративный искусственный интеллект переживает решающий момент. Предприятия хотят знать, как использовать преимущества больших объемов данных, сохраняя при этом свои бюджеты в рамках сегодняшних экономических требований. Чат-боты с генеративным искусственным интеллектом стали относительно простыми в развертывании, но иногда они возвращают ложные «галлюцинации» или раскрывают личные данные. Лучшее из обоих миров может исходить от более специализированного диалогового ИИ, безопасно обученного на данных организации.

На этой неделе Dell Technologies World 2023 представила эту тему в Лас-Вегасе. В течение первого дня конференции генеральный директор Майкл Делл и его коллеги подробно обсуждали, что ИИ может сделать для предприятий за пределами ChatGPT.

«Предприятия смогут обучать гораздо более простые модели ИИ на конкретных конфиденциальных данных с меньшими затратами и безопасным образом, что приведет к прорыву в производительности и эффективности», — сказал Майкл Делл.

Новый проект Dell Project Helix — это широкомасштабный сервис, который поможет организациям запускать генеративный ИИ. Project Helix впервые станет общедоступным продуктом в июне 2023 года.

Перейти к:

    Предлагая пользовательский словарь для специально созданных вариантов использования Изменение DevOps — один бот за раз За кулисами с оборудованием NVIDIA Должен ли ваш бизнес использовать генеративный ИИ?

Предлагая пользовательский словарь для специально созданных вариантов использования

По словам Варуна Чхабра, старшего вице-президента Dell Technologies по маркетингу продуктов, группе инфраструктурных решений и телекоммуникаций, предприятия стремятся развернуть генеративный ИИ для конкретных случаев использования. Решение Dell, Project Helix, представляет собой комплексное локальное предложение, с помощью которого компании обучают и направляют свой собственный искусственный интеллект.

Например, компания может развернуть большую языковую модель, чтобы читать все статьи базы знаний на своем веб-сайте и отвечать на вопросы пользователей на основе сводки этих статей, сказал аналитик Forrester Роуэн Карран.

ИИ «не будет пытаться ответить на вопрос, исходя из знаний «внутри» модели (ChatGPT отвечает «изнутри» модели)», — написал Карран в электронном письме TechRepublic.

Со всего интернета не потянешь. Вместо этого ИИ будет использовать проприетарный контент в статьях базы знаний. Это позволило бы ему более непосредственно удовлетворять потребности одной конкретной компании и ее клиентов.

«Стратегия Dell здесь — это действительно стратегия в отношении оборудования, программного обеспечения и услуг, позволяющая компаниям более эффективно создавать модели, — сказал Брент Эллис, старший аналитик Forrester. «Предоставление оптимизированной, проверенной платформы для создания моделей и обучения станет растущим рынком в будущем, поскольку компании стремятся создавать модели ИИ, которые сосредоточены на конкретных проблемах, которые им необходимо решить».

Однако есть камни преткновения, с которыми сталкиваются предприятия, пытаясь перенаправить ИИ на конкретные нужды компании.

«Неудивительно, что возникает множество конкретных потребностей, — сказал Чабра на конференции Dell. «Таким вещам, как результаты, нужно доверять. Это сильно отличается от модели общего назначения, доступ к которой может получить любой. Могут быть всевозможные ответы, которые нужно охранять, или вопросы, за которыми нужно следить».

Галлюцинации и неправильные утверждения могут быть обычным явлением. Для случаев использования, связанных с конфиденциальной информацией или анонимным поведением клиентов, конфиденциальность и безопасность имеют первостепенное значение.

Корпоративные клиенты также могут выбрать собственный локальный ИИ из соображений конфиденциальности и безопасности, говорит Кари Энн Бриски, вице-президент по управлению программными продуктами ИИ в NVIDIA.

Кроме того, цикл вычислений и стоимость логических выводов, как правило, выше в облаке.

«После того, как у вас есть эта модель обучения, и вы настроили ее и приспособили к голосу своего бренда и своим данным, выполнение неоптимизированного логического вывода для экономии вычислительных циклов — еще одна область, которая беспокоит многих клиентов», — сказал Бриски.

Разные предприятия имеют разные потребности в генеративном ИИ, от тех, кто использует модели с открытым исходным кодом, до тех, кто может создавать модели с нуля или хочет выяснить, как запустить модель в производстве. Люди спрашивают: «Какое правильное сочетание инфраструктуры для обучения и инфраструктуры для логических выводов, и как вы это оптимизируете? Как вы запускаете его для производства?» — спросил Бриски.

Dell характеризует Project Helix как способ обеспечить безопасный, надежный, персонализированный генеративный ИИ независимо от того, как потенциальный клиент ответит на эти вопросы.

«По мере того, как мы продвигаемся вперед в этой технологии, мы видим все больше и больше работы, направленной на то, чтобы сделать модели как можно меньше и эффективнее, сохраняя при этом уровень производительности, аналогичный более крупным моделям, и это достигается путем тонкой настройки и дистилляции для конкретных задач», — сказал Курран.

ПОСМОТРЕТЬ: В этом году Dell расширила семейство программных продуктов APEX как услуги.

Изменение DevOps — один бот за раз

Как локальный ИИ, подобный этому, вписывается в операции? По словам Эллиса, от генерации кода до модульного тестирования. Сфокусированные модели ИИ особенно хороши в этом. Некоторые разработчики могут использовать ИИ, например TuringBots, для выполнения всего, от планирования до развертывания кода.

По словам Бриски, в NVIDIA команды разработчиков используют термин LLMOps вместо операций машинного обучения.

«Вы не кодируете его; вы задаете человеческие вопросы, — сказала она.

В свою очередь, обучение с подкреплением посредством отзывов людей от экспертов в предметной области помогает ИИ понять, правильно ли он реагирует на подсказки. Это часть того, как NVIDIA использует свою платформу NeMo, инструмент для создания и развертывания генеративного ИИ.

«То, как разработчики теперь взаимодействуют с этой моделью, будет совершенно другим с точки зрения того, как вы ее поддерживаете и обновляете», — сказал Бриски.

За кулисами с оборудованием NVIDIA

Аппаратное обеспечение Project Helix включает графические процессоры H100 Tensor и сетевые решения NVIDIA, а также серверы Dell. Бриски указал, что форма следует за функцией.

«Для каждого поколения нашей новой аппаратной архитектуры наше программное обеспечение должно быть готово в первый же день, — сказала она. «Мы также думаем о наиболее важных рабочих нагрузках еще до того, как прикрепим чип.

… Например, для H100 это двигатель Transformer. NVIDIA Transformers — действительно важная рабочая нагрузка для нас и для всего мира, поэтому мы поместили движок Transformer в H100».

По словам Варуна, Dell и NVIDIA вместе разработали PowerEdgeXE9680 и остальные серверы семейства PowerEdge специально для сложных новых задач искусственного интеллекта и мощных вычислительных систем, и им нужно было убедиться, что он может работать в масштабе, а также справляться с обработкой с высокой пропускной способностью. .

Бриски отметил, что NVIDIA прошла долгий путь с тех пор, как в 2017 году компания обучила ИИ на основе машинного зрения на графическом процессоре Volta. Теперь NVIDIA использует сотни узлов и тысячи графических процессоров для работы систем инфраструктуры центров обработки данных.

NVIDIA также использует ИИ с большой языковой моделью в дизайне своего оборудования.

«Одна вещь (генеральный директор NVIDIA) Дженсен (Хуанг) бросил вызов NVIDIA шесть или семь лет назад, когда появилось глубокое обучение, — каждая команда должна внедрить глубокое обучение», — сказал Бриски. «Он делает то же самое для больших языковых моделей. Группа полупроводников использует большие языковые модели; наша маркетинговая команда использует большие языковые модели; у нас есть сборка API для внутреннего доступа».

Это связано с концепцией ограждений безопасности и конфиденциальности. Сотрудник NVIDIA может спросить искусственного интеллекта отдела кадров, могут ли они, например, получить льготы по персоналу для поддержки усыновления ребенка, но не могут ли другие сотрудники усыновили ребенка.

Должен ли ваш бизнес использовать настраиваемый генеративный ИИ?

Если ваш бизнес рассматривает возможность использования генеративного ИИ, вам следует подумать о том, есть ли у него необходимость и возможность изменить или оптимизировать этот ИИ в масштабе. Кроме того, вы должны учитывать свои потребности в безопасности. Бриски предостерегает от использования общедоступных моделей LLM, которые являются черными ящиками, когда дело доходит до выяснения того, откуда они берут свои данные.

В частности, важно иметь возможность доказать, можно ли использовать набор данных, который использовался в этой базовой модели, в коммерческих целях.

По словам Эллиса, наряду с Project Helix от Dell, проекты Copilot от Microsoft и инструменты watsonx от IBM демонстрируют широту доступных вариантов, когда речь идет о специализированных моделях искусственного интеллекта. HuggingFace, Google, Meta AI и Databricks предлагают LLM с открытым исходным кодом, а Amazon, Anthropic, Cohere и OpenAI предоставляют услуги ИИ. Facebook и OpenAI, вероятно, когда-нибудь предложат свои собственные локальные варианты, и многие другие поставщики выстраиваются в очередь, чтобы попытаться присоединиться к этому шумному полю.

«Общие модели подвергаются воздействию больших наборов данных и имеют возможность устанавливать соединения, к которым более ограниченные наборы данных в специально созданных моделях не имеют доступа», — сказал Эллис. «Однако, как мы видим на рынке, общие модели могут делать ошибочные прогнозы и «галлюцинировать».

«Специальные модели помогают ограничить эту галлюцинацию, но еще важнее настройка, которая происходит после создания модели».

В целом, это зависит от того, для какой цели организация хочет использовать модель ИИ, следует ли ей использовать модель общего назначения или обучать свою собственную.

Отказ от ответственности: Dell оплатила мне перелет, проживание и питание на мероприятии Dell Technologies World, которое проходило с 22 по 25 мая в Лас-Вегасе.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE