NVIDIA представила графический процессор Hopper H200 с 141 ГБ памяти HBM3e

Переведено с помощью DeepL

Пресс Релиз

SC23 - NVIDIA сегодня объявила об усовершенствовании ведущей в мире вычислительной платформы для ИИ, представив NVIDIA HGX H200.

NVIDIA представила графический процессор Hopper H200 с 141 ГБ памяти HBM3e

Основанная на архитектуре NVIDIA Hopper, платформа оснащена графическим процессором NVIDIA H200 Tensor Core с расширенной памятью для работы с огромными объемами данных для генеративного ИИ и высокопроизводительных вычислительных нагрузок.

NVIDIA H200 - первый GPU с поддержкой HBM3e - более быстрой и большой памяти для ускорения генеративного ИИ и больших языковых моделей, а также для научных вычислений в HPC.

Благодаря HBM3e NVIDIA H200 обеспечивает 141 ГБ памяти со скоростью 4,8 терабайт в секунду, что почти вдвое больше по объему и в 2,4 раза больше по пропускной способности по сравнению с предшественником NVIDIA A100.

Начало поставок систем на базе H200 от ведущих мировых производителей серверов и поставщиков облачных услуг ожидается во втором квартале 2024 года.

Для создания интеллекта с помощью генеративного ИИ и HPC-приложений необходимо эффективно обрабатывать огромные объемы данных на высокой скорости с использованием большой и быстрой памяти GPU.

С NVIDIA H200 ведущая в отрасли комплексная суперкомпьютерная платформа для ИИ стала еще быстрее для решения самых важных задач в мире.

Ян Бак - Вице-президент по гипермасштабированию и HPC в NVIDIA

Постоянные инновации, постоянные скачки производительности

Архитектура NVIDIA Hopper обеспечивает беспрецедентный скачок производительности по сравнению с предшественником и продолжает поднимать планку благодаря постоянным программным улучшениям в H100, включая недавний выпуск мощных библиотек с открытым исходным кодом, таких как NVIDIA TensorRT - LLM.

Внедрение H200 приведет к дальнейшему росту производительности, включая почти двукратное увеличение скорости вывода на Llama 2, LLM с 70 миллиардами параметров, по сравнению с H100.

Ожидается, что в последующих обновлениях программного обеспечения H200 еще больше увеличит производительность и улучшит ее.

Форм-факторы NVIDIA H200

NVIDIA H200 будет доступна в серверных платах NVIDIA HGX H200 с четырех- и восьмисторонней конфигурацией, которые совместимы как с аппаратным, так и с программным обеспечением систем HGX H100.

Он также доступен в суперчипе NVIDIA GH200 Grace Hopper с HBM3e, анонсированном в августе.

Благодаря этим возможностям H200 может быть развернут в любом типе ЦОД, включая локальные, облачные, гибридные и граничные.

Глобальная экосистема партнеров NVIDIA по производству серверов, включая ASRock Rack, ASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron и Wiwynn, может обновить свои существующие системы на H200.

Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure станут одними из первых поставщиков облачных услуг, которые со следующего года начнут развертывать инстансы на базе H200, а также CoreWeave, Lambda и Vultr.

Благодаря высокоскоростным межсоединениям NVIDIA NVLink и NVSwitch HGX H200 обеспечивает высочайшую производительность при выполнении различных прикладных рабочих нагрузок, включая обучение и вывод LLM для самых больших моделей, превышающих 175 миллиардов параметров.

Восьмиканальный HGX H200 обеспечивает более32 петафлопс вычислений FP8 для глубокого обучения и 1,1 ТБ суммарной памяти с высокой пропускной способностью для высочайшей производительности в генеративных приложениях ИИ и высокопроизводительных вычислениях.

В паре с процессорами NVIDIA Grace со сверхбыстрым интерфейсом NVLink-C2C H200 образует суперчип GH200 Grace Hopper с HBM3e - интегрированный модуль, предназначенный для работы с приложениями HPC и ИИ гигантского масштаба.

Ускорение ИИ с помощью полнофункционального ПО NVIDIA

Платформа ускоренных вычислений NVIDIA поддерживается мощными программными инструментами, которые позволяют разработчикам и предприятиям создавать и ускорять готовые к производству приложения от ИИ до HPC.

В их число входит пакет программ NVIDIA AI Enterprise для таких рабочих нагрузок, как речь, рекомендательные системы и гипермасштабные выводы.

Доступность

NVIDIA H200 будет доступен мировым производителям систем и поставщикам облачных услуг начиная со второго квартала 2024 года.

44
22 комментария

@Mao вот с такой штукой можно будет генерить и общаться в чат-боте, все на лету и оффлайн

3
Ответить

И так можно. Тем более если использовать LCM

3
Ответить

Не ну так то 13b модели на 12гб в 4bit режиме тоже на лету общаются. Хотя конечно покрутить на таком всякие здоровенные модели точно вкусно

2
Ответить

Я даже придумать не могу для чего сколько может понадобиться, возможно там выше написано для чего, но я прям не вчитывалась. Но думаю этот монстр будет стоить как машина.

1
Ответить

Алана Вейка потянет, я думаю

1
Ответить

Комментарий недоступен

1
Ответить

Блин, ты первее написал.

Ответить