Tehnografi.com - Технологические новости, обзоры и советы
[adinserter block="67"]

Intel Каскадное Озеро с DL Boost идет в ногу с Nvidia Titan RTX в тестах AI

Этот сайт может зарабатывать партнерские комиссии по ссылкам на этой странице. Условия эксплуатации.

В течение последних нескольких лет Intel обсуждала свои серверы Cascade Lake с DL Boost (также известным как VNNI, Vector Neural Net Instructions). Эти новые возможности являются подмножеством AVX-512 и предназначены специально для ускорения работы процессора в приложениях AI. Исторически сложилось так, что многие приложения для искусственного интеллекта предпочитали GPU перед CPU. Архитектура графических процессоров – массивно параллельных процессоров с низкой однопоточной производительностью – гораздо лучше подходит для графических процессоров, чем для процессоров. Процессоры предлагают гораздо больше ресурсов выполнения для каждого потока, но даже современные многоядерные процессоры затмеваются параллелизмом, доступным в высокопроизводительном ядре GPU.

Anandtech сравнила производительность Cascade Lake, Epyc 7601 (который вскоре превзойдет 7-нм процессоры AMD в Риме, но по-прежнему является ведущим сегодня серверным ядром AMD) и RTX Titan. В статье превосходного Йохана Де Геласа обсуждаются различные типы нейронных сетей, помимо CNN (Convolutional Neural Networks), которые обычно сравниваются, и как ключевая часть стратегии Intel заключается в конкуренции с Nvidia в рабочих нагрузках, где графические процессоры не так сильны. или еще не могут удовлетворить растущие потребности рынка из-за ограничений по объему памяти (графические процессоры все еще не могут соответствовать процессорам здесь), использованию «легких» моделей ИИ, которые не требуют длительного обучения, или моделей ИИ, которые зависят от статистические модели нейронных сетей.

Рост доходов центров обработки данных является важнейшим компонентом общего стремления Intel к искусственному интеллекту и машинному обучению. Между тем, Nvidia стремится защитить рынок, на котором она в настоящее время конкурирует практически в одиночку. Стратегия Intel в области искусственного интеллекта широка и включает в себя несколько продуктов, от Movidius и Nervana до DL Boost на Xeon, до грядущей линейки графических процессоров Xe. Nvidia стремится показать, что графические процессоры могут использоваться для обработки вычислений ИИ в более широком диапазоне рабочих нагрузок. Intel внедряет новые возможности искусственного интеллекта в существующие продукты, внедряет новое оборудование, которое, как она надеется, повлияет на рынок, и пытается создать свой первый серьезный графический процессор, чтобы бросить вызов работе AMD и Nvidia в потребительском пространстве.

В целом тесты Anandtech показывают, что разрыв между Intel и Nvidia остается широким – даже с DL Boost. На этом графике теста с рекуррентной нейронной сетью в качестве нейронной сети использовалась сеть с кратковременной памятью (LSTM). Тип RNN, LSTM избирательно «запоминает» шаблоны в течение определенного промежутка времени ». Anandtech также использовала три различные конфигурации для тестирования – готовый Tensorflow с conda, оптимизированный Intel Tensorflow с PyPi и версия Tensorflow, оптимизированная из исходного кода с использованием Bazel, с использованием самой последней версии Tensorflow.

Изображение Anandtech

Изображение Anandtech

Эта пара изображений отражает относительное масштабирование между процессорами, а также сравнение с RTX Titan. Производительность «из коробки» на AMD была довольно плохой, хотя с оптимизированным кодом она улучшилась. Производительность Intel резко возросла, когда была протестирована версия с оптимизированным исходным кодом, но даже версия с оптимизированным исходным кодом не очень хорошо соответствовала производительности Titan RTX. Де Гелас отмечает: «Во-вторых, мы были очень удивлены, что наш Titan RTX был менее чем в 3 раза быстрее, чем наша установка с двойным Xeon», что говорит вам кое-что о том, как эти сравнения выполняются в большой статье.

DL Boost недостаточно, чтобы сократить разрыв между Intel и Nvidia, но, честно говоря, этого, вероятно, никогда не должно было быть. Цель Intel – повысить производительность AI довольно на Xeon, чтобы сделать эти рабочие нагрузки правдоподобными на серверах, которые в основном будут использоваться для других целей, или при создании моделей искусственного интеллекта, которые не соответствуют ограничениям современного графического процессора. Долгосрочная цель компании – конкурировать на рынке искусственного интеллекта с разнообразным оборудованием, а не только с Xeons. Поскольку Xe еще не совсем готов, конкурировать в пространстве HPC сейчас означает конкурировать с Xeon.

Для тех из вас, кто интересуется AMD, AMD на самом деле не говорит о запуске рабочих нагрузок ИИ на процессорах Epyc, а сосредоточилась на своей инициативе RocM по запуску кода CUDA в OpenCL. AMD не слишком много говорит об этой стороне своего бизнеса, но Nvidia доминирует на рынке приложений для искусственного интеллекта и графических процессоров HPC. И AMD, и Intel хотят кусочек пространства. Прямо сейчас оба, кажется, борются в гору, чтобы требовать одного.

Сейчас читаю:

Add comment