null

Использование LRDIMM в HPC

В продолжение размышления мысли описанной в одной из моих предыдущих заметок "Выбор конфигурации оперативной памяти для центрального процессора на архитектуре x86-64", а данной небольшой заметке затрону тему актуальности использования LRDIMM в современных задачах требующих высокой производительности HPC.
Безусловно, рассматривая концептуально лишний узел в виде управляющего буфера IMB( Isolation Memory Buffer component) задержки будут увеличиваться, и это факт.

Но любую вещь, в частности и буфер LRDIMM нужно рассматриавать системно, как элемент единого целого!


Системно, использование буфера IMB позволяет сократить электрическую нагрузку на канал памяти в сопоставлении с регистровыми (RDIMM) модулями при тех же равных характеристиках (и даже существено большими объемами) за счет мультипликации рангов (Rank Multiplication) - соединение нескольких рангов в один логический ранг большего размера тем самым сохранив исходную рабочую частоту на канал. 
Из документа приводится наглядная диаграмма нагрузок two quad-rank LRDIMMs in the 2 DIMM perchannel configuration, которую я приведу здесь же.

Описанная ранее задержка за счет использования "промежуточного" IMB никуда не девается, но все "копейки" в цифрах производительсноcти по тестам DIMM vs LRDIMM перебиваются тем объемом, который достигается LRDIMM с учетом современных реалий ПО и методов его разработки.

Касательно HPC памяти, зачастую, нужно много, и надо ставить LRDIMM - все будет летать,а эти показатели минимально подвержены влиянию в реалтайме и различных инженерных вычислениях. Но только тогда, когда памяти нужно много.

Смотря шире области HPC, при использовании LRDIMM выигрыш в сферах с хранением данных в ОЗУ (такие современные тенденции такие как БД in-memory и тп) по сравнению с RDIMM безусловен.

С более подробной информацией рекомендую ознакомиться в White Paper Introducing LRDIMM – A NewClass of Memory Modules.

И так же благодарю моего коллегу Дмитрия Шешукова за активное участие в полемике по данному вопросу.