
Google Cloud создает свой самый мощный суперкомпьютер на сегодняшний день
12 мая 2023 г.Google анонсировала свой новый облачный суперкомпьютер A3, который теперь доступен в закрытом предварительном просмотре.
Новый мощный центр можно использовать для обучения моделей машинного обучения (ML), продолжая недавнюю попытку технологического гиганта предложить облачную инфраструктуру для целей ИИ, такую как новый G2, первая облачная виртуальная машина (ВМ), использующая новый графический процессор NVIDIA L4 Tensor Core.
В сообщении в блоге Компания отметила: «Суперкомпьютеры Google Compute Engine A3 специально созданы для обучения и обслуживания самых требовательных моделей ИИ, лежащих в основе современного генеративного ИИ и инноваций в больших языковых моделях».
A2 против A3
A3 использует -Afford-one">Графический процессор Nvidia H100, который является преемником популярного A100, который использовался для питания предыдущего A2. Он также используется для поддержки ChatGPT, писателя ИИ, который положил начало гонке генеративного ИИ, когда он был запущен в ноябре прошлого года. .
> Microsoft работает над ИИ-чипом для ChatGPT, поскольку он эмулирует идеальный план Apple
> Сможет ли суперкомпьютер Google с искусственным интеллектом превзойти чип NVidia A100 по скорости и устойчивости?
> Разработка Fujitsu на базе мощного суперкомпьютерного чипа обеспечит питание центров обработки данных
A3 также является первой виртуальной машиной, в которой графические процессоры будут использовать специально разработанные Google VPU со скоростью 200 Гбит/с, что позволяет в десять раз увеличить пропускную способность сети по сравнению с предыдущими виртуальными машинами A2.
A3 также будет использовать центр обработки данных Google Jupiter, который может масштабироваться до десятков тысяч взаимосвязанных графических процессоров и «позволяет использовать реконфигурируемые оптические каналы с полной пропускной способностью, которые могут регулировать топологию по запросу».
Google также утверждает, что «пропускная способность рабочей нагрузки... неотличима от более дорогих готовых неблокирующих сетевых структур, что приводит к более низкой совокупной стоимости владения». A3 также «обеспечивает до 26 экзафлопс производительности ИИ, что значительно сокращает время и затраты на обучение больших моделей машинного обучения».
Когда дело доходит до рабочих нагрузок логического вывода, а это реальная работа, которую выполняет генеративный ИИ, Google снова делает еще одно смелое заявление о том, что A3 достигает 30-кратного повышения производительности логического вывода по сравнению с A2.
В дополнение к восьми H100 с пропускной способностью пополам 3,6 ТБ/с между ними, другие выдающиеся характеристики A3 включают процессоры Intel Xeon Scalable 4-го поколения следующего поколения и 2 ТБ основной памяти в модулях DIMM DDR5 4800 МГц.
«Виртуальные машины Google Cloud A3 на базе графических процессоров NVIDIA H100 нового поколения ускорят обучение и обслуживание генеративных приложений ИИ, — сказал Ян Бак, вице-президент по гипермасштабируемым и высокопроизводительным вычислениям в NVIDIA.
В дополнительном объявлении на Google I/O 2023 компания также сообщила что поддержка генеративного ИИ в Vertex AI теперь будет доступна большему количеству клиентов, что позволяет создавать модели машинного обучения в полностью управляемой инфраструктуре, которая избавляет от необходимости обслуживания.
Клиенты также могут развернуть A3 на Google Kubernetes Engine (GKE) и Compute Engine, что означает, что они могут получить поддержку по автомасштабированию и оркестровке рабочих нагрузок, а также право на автоматические обновления.
Похоже, что Google использует подход B2B, когда дело доходит до ИИ, вместо того, чтобы выпускать ИИ для всех, с которым можно поиграть, возможно, обжегшись на зловещем запуске своего конкурента ChatGPT, Google Bard. Тем не менее, он также анонсировал PaLM 2 на Google I/O, который является его преемником и предположительно более мощным, чем другие LLM, поэтому нам придется следить за этим пространством.
Оригинал