Google, Microsoft, Meta и другие разработают открытый стандарт для компонентов чипов искусственного интеллекта в группе UALink Promoter Group

1 июня 2024 г.

AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta и Microsoft объединяют свой опыт для создания открытого отраслевого стандарта для технологии чипов искусственного интеллекта под названием Ultra Accelerator Link. Эта установка улучшит высокоскоростную связь с низкой задержкой между чипами ускорителей искусственного интеллекта в центрах обработки данных.

Открытый стандарт повысит производительность кластеров искусственного интеллекта и машинного обучения во всей отрасли, а это означает, что ни одна отдельная фирма не будет непропорционально извлекать выгоду из спроса на новейшие и лучшие ИИ/МО, высокопроизводительные вычисления и облачные приложения.

Примечательно, что в так называемой группе промоутеров UALink отсутствуют NVIDIA и Amazon Web Services. Действительно, Promoter Group, вероятно, намерена с помощью своего нового стандарта межсоединений свергнуть доминирование двух компаний на рынке оборудования искусственного интеллекта и облачном рынке соответственно.

Группа промоутеров UALink планирует создать консорциум компаний, которые будут управлять продолжающейся разработкой стандарта UALink в третьем квартале 2024 года, и примерно в то же время им будет предоставлен доступ к UALink 1.0. Выпуск версии с более высокой пропускной способностью запланирован на четвертый квартал 2024 года.

СМОТРЕТЬ: Gartner прогнозирует, что мировые доходы от чипов вырастут на 33% в 2024 году

Что такое UALink и кому он будет полезен?

Ultra Accelerator Link, или UALink, — это определенный способ соединения чипов ускорителей ИИ на серверах для обеспечения более быстрой и эффективной связи между ними.

Чипы-ускорители искусственного интеллекта, такие как графические процессоры, TPU и другие специализированные процессоры искусственного интеллекта, являются основой всех технологий искусственного интеллекта. Каждый из них может выполнять огромное количество сложных операций одновременно; однако для достижения высоких рабочих нагрузок, необходимых для обучения, запуска и оптимизации моделей ИИ, их необходимо соединить. Чем быстрее передача данных между чипами-ускорителями, тем быстрее они смогут получить доступ к необходимым данным и обработать их, а также тем эффективнее они смогут распределять рабочие нагрузки.

Первый стандарт, который должен быть выпущен группой UALink Promoter Group, UALink 1.0, будет включать до 1024 ускорителей искусственного интеллекта на графических процессорах, распределенных по одной или нескольким стойкам на сервере, подключенных к одному коммутатору Ultra Accelerator Switch. По данным UALink Promoter Group, это «позволит осуществлять прямую загрузку и сохранение между памятью, подключенной к ускорителям искусственного интеллекта, и в целом повысит скорость, одновременно снизив задержку передачи данных по сравнению с существующими спецификациями межсоединений». Это также упростит масштабирование рабочих нагрузок по мере роста потребностей.

Хотя подробности о UALink еще не разглашаются, члены группы заявили на брифинге в среду, что UALink 1.0 будет использовать архитектуру AMD Infinity Fabric, в то время как Консорциум Ultra Ethernet будет обеспечивать подключение нескольких «модулей» или коммутаторов. Его публикация принесет пользу OEM-производителям систем, ИТ-специалистам и системным интеграторам, желающим настроить свои центры обработки данных таким образом, чтобы поддерживать высокие скорости, низкую задержку и масштабируемость.

Какие компании присоединились к UALink Promoter Group?

    АМД. Бродком. Циско. Google. ХПЭ. Интел. Мета. Майкрософт.

Microsoft, Meta и Google потратили миллиарды долларов на графические процессоры NVIDIA для своих соответствующих ИИ и облачных технологий, включая модели Llama от Meta, Google Cloud и Microsoft Azure. Однако поддержка продолжающегося доминирования NVIDIA в аппаратном обеспечении не сулит ничего хорошего для их будущего в этой отрасли, поэтому разумно продумать стратегию выхода.

Стандартизированный переключатель UALink позволит другим поставщикам, помимо NVIDIA, предлагать совместимые ускорители, предоставляя компаниям, занимающимся искусственным интеллектом, ряд альтернативных аппаратных вариантов, на которых можно построить свою систему и не страдать от привязки к поставщику.

Это выгодно многим компаниям группы, которые разработали или разрабатывают собственные ускорители. У Google есть специальный TPU и процессор Axion; У Intel есть Гауди; У Microsoft есть графические процессоры Maia и Cobalt; и у Меты есть MTIA. Все они могут быть подключены с помощью UALink, который, скорее всего, будет предоставлен Broadcom.

СМОТРЕТЬ: Intel Vision 2024 предлагает новый взгляд на AI-чип Gaudi 3

Какие компании не присоединились к UALink Promoter Group?

NVIDIA

NVIDIA, скорее всего, не присоединилась к группе по двум основным причинам: ее доминирование на рынке аппаратного обеспечения, связанного с искусственным интеллектом, и ее непомерная мощь, обусловленная ее высокой стоимостью.

В настоящее время компания занимает около 80% доли рынка графических процессоров, но она также является крупным игроком в области технологий межсетевого взаимодействия с NVLink, Infiniband и Ethernet. NVLink — это технология соединения между графическими процессорами, которая позволяет подключать ускорители внутри одного или нескольких серверов, как и UALink. Поэтому неудивительно, что NVIDIA не желает делиться этой инновацией со своими ближайшими конкурентами.

Более того, согласно последним финансовым результатам, NVIDIA близка к тому, чтобы обогнать Apple и стать второй по стоимости компанией в мире, а ее стоимость удвоится и превысит 2 триллиона долларов всего за девять месяцев.

Компания не надеется получить большую выгоду от стандартизации технологий искусственного интеллекта, и ее нынешнее положение также благоприятно. Время покажет, станет ли предложение NVIDIA настолько неотъемлемой частью работы центров обработки данных, что первые продукты UALink не свергнут его корону.

СМОТРИТЕ: Суперкомпьютеры ‘23: высокопроизводительные чипы NVIDIA для рабочих нагрузок ИИ

Веб-сервисы Amazon

AWS — единственный из крупных поставщиков общедоступных облаков, который не присоединился к UALink Promoter Group. Как и у NVIDIA, это также может быть связано с ее влиянием как нынешнего лидера облачного рынка и тем фактом, что она работает над собственными семействами ускорительных чипов, такими как Trainium и Inferentia. Кроме того, благодаря прочному партнерству, продолжающемуся более 12 лет, AWS может также позволить себе прятаться за NVIDIA на этой арене.

Почему открытые стандарты необходимы в ИИ?

Открытые стандарты помогают предотвратить непропорциональное доминирование в отрасли одной фирмы, оказавшейся в нужном месте в нужное время. Группа UALink Promoter Group позволит нескольким компаниям совместно работать над оборудованием, необходимым для центров обработки данных искусственного интеллекта, чтобы ни одна организация не могла взять на себя все это.

Это не первый случай такого рода бунта в сфере ИИ; В декабре более 50 других организаций объединились, чтобы сформировать глобальный Альянс ИИ, чтобы продвигать ответственный ИИ с открытым исходным кодом и помочь не дать разработчикам закрытых моделей получить слишком много власти.

Обмен знаниями также способствует ускорению развития производительности ИИ в масштабах всей отрасли. Спрос на вычисления с использованием искусственного интеллекта постоянно растет, и технологическим компаниям, чтобы идти в ногу со временем, необходимы самые лучшие возможности масштабирования. По мнению группы, стандарт UALink обеспечит «надежную, эффективную масштабируемую сеть с низкой задержкой, которая сможет легко добавлять вычислительные ресурсы к одному экземпляру».

Форрест Норрод, исполнительный вице-президент и генеральный менеджер группы решений для центров обработки данных компании AMD, заявил в пресс-релизе: «Работа, проводимая компаниями UALink по созданию открытой, высокопроизводительной и масштабируемой ускорительной структуры, имеет решающее значение для будущего ИИ.

«Вместе мы обладаем обширным опытом в создании крупномасштабных решений искусственного интеллекта и высокопроизводительных вычислений, основанных на открытых стандартах, эффективности и надежной поддержке экосистемы. AMD стремится внести свой вклад в группу своим опытом, технологиями и возможностями, а также в другие открытые отраслевые усилия по развитию всех аспектов технологий искусственного интеллекта и укреплению открытой экосистемы искусственного интеллекта».

Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE