Tehnografi.com - Технологические новости, обзоры и советы

Nvidia DGX SuperPod – новый суперкомпьютер Volta 96 × 16 GPU


Nvidia DGX SuperPod представляет собой суперкомпьютер Volta 96 × 16 GPU новый 1

Nvidia представила свой суперкомпьютер на ISC High Performance на главном мероприятии во Франкфурте, которое сразу поднялось на 22-е место в мировом рейтинге. Тем не менее, еще более интересным, чем его производительность, является фокус DGX SuperPOD: он соединяет 96 DGX-2, которые были представлены год назад.

Как объясняет Nvidia, из 96 отдельных компонентов, каждый из которых настроен на 16 Вольтных графических процессоров (Tesla V100 32 ГБ), SuperXPX DGX в первую очередь предназначен для вычислений AI.

На DGX-2 81 920 шейдеров из 16 GPU подключены через NVSwitch, который, в свою очередь, включает 2 миллиарда транзисторов. Каждый DGX2 использует Intel Xeon Platinum 8174 с 24 ядрами. Для представления системы кубов, Nvidia известна как покупная цена около 400 000 долларов до уплаты налогов. SuperPOD DGX насчитывает почти 40 миллионов долларов.

Перейдя на архитектуру ARM для будущего суперкомпьютера exascale, группа Nvidia демонстрирует гибкость решений для ускорения графического процессора с искусственным интеллектом, объявляя о выходе мощного суперкомпьютера DGX SuperPOD.


Nvidia DGX SuperPod - новый суперкомпьютер Volta 96 × 16 GPU 1

Обладая вычислительной мощностью 9,4 петафлопс, он занимает 22-е место среди самых мощных суперкомпьютеров в мире, но требует только трех недель развертывания по сравнению с 6-9 месяцами для суперкомпьютеров со стандартной архитектурой. серверная база.

Это основано на 96 системах Nvidia DGX-2H, каждая из которых включает в себя 16 ускорителей Nvidia Tesla V100 (т. Е. 1536 Tesla V100 для всей системы) и взаимосвязана по технологии Mellanox с преимуществами модульной конструкции.

Основной целью DGX SuperPOD является обучение глубокой нейронной сети будущего искусственного интеллекта на автономном автомобильном рынке. С 1 ТБ данных, генерируемых каждый день каждым транспортным средством и отслеживаемых в течение нескольких лет, это огромное количество данных, которые необходимо обработать и проанализировать, чтобы уменьшить потенциальные недостатки AI в определенных сценариях и переобучить сеть. нейроны, чтобы сделать его более эффективным.

Nvidia представляет вычислительную мощность на примере обучения нейронной сети ResNet-50 менее чем за 2 минуты, когда в 2015 году на это уходит 25 дней, когда он отвечает за обработку графического процессора Nvidia K80.