Кластер Gromacs

Задача: проектирование, тестирование и поставка программно-аппаратного вычислительного комплекса, предназначенного для работ по компьютерному моделированию. В качестве программного обеспечения планировалось использовать среду  моделирования Gromacs

 

На первом этапе менеджер проекта совместно с заказчиком определяет задачи проекта и выдвигает технические требования к оборудованию В итоге совместными усилиями формируеться техническое задание (ТЗ)

    • Вычислительные узлы с числом ядер не менее 56 (число ядер в каждом узле должно быть 8), частота ядер не менее 2,4ГГц.
    • Управляющий узел (front-end рабочая станция), с двухъядерным процессором с частотой не менее 2,8ГГц, оперативной памятью не менее 2Гб, двумя жёсткими дисками не менее 1Тб каждый.
    • Не менее трёх операторских рабочих станций с мониторами, связанных с управляющим узлом.
    • Программное обеспечение, необходимое для проведения параллельных высокопроизводительных вычислений.
    • Монтажный серверный шкаф, в котором будут располагаться основные узлы вычислительного комплекса.
    • Коммутатор не менее чем на 26 портов.
    • KVM-переключатель не менее чем на 16 портов.
    • Необходимое для коммутации системы пассивное сетевое оборудование (кабель-каналы, розетки, кабели) и монтажные материалы.
    • Источник бесперебойного питания (или несколько) для обеспечения отказоустойчивости оборудования.

 

Основной узел спроектирован на базе семи серверов IBM, исходя из пожеланий заказчика к наиболее высокой производительности в расчёте на ватт потребляемой электроэнергии, что обеспечивает высокую экономическую эффективность. Также немаловажными критериями, повлиявшими на выбор именно этого производителя, стали уровень надёжности, гарантийная политика производителя (3-летняя гарантия), функциональность и предоставление компанией IBM дополнительных скидок для проекта.

Управляющий рабочий узел (front-end рабочая станция) также реализован на сервере IBM.

По программному обеспечению изначально стояла задача запускать на кластере среду моделирования Gromacs.
Для этого нужны:
- Набор библиотек MPI (стандарт для высокопроизводительных систем, существует несколько реализаций, в том числе открытые MPICH2 и OpenMPI) для взаимодействия между узлами. Был выбран Oracle Message Passing Tookit (бывший Sun HPC ClusterTools). Он основан на OpenMPI и бесплатен, что позволяет сэкономить на программной части проекта в пользу аппаратной.
- Система постановки заданий и распределения ресурсов кластера. Как и в случае с MPI, в первую очередь интересовали бесплатные продукты, в частности сначала планировался PBS/Torque. Но в итоге после запуска тестовой системы и сравнения результатов работы был выбран Oracle Grid Engine (он бесплатен до определенной версии). 
Итак, решение состоит из Oracle Message Passing Tookit и Oracle Grid Engine.

 

Последним этапом для рассматриваемого примера стал подбор оставшихся элементов проекта:

 - операторские рабочие места – по критериям функциональность/тех. характеристики/цена были выбраны высокопроизводительные рабочие станции Fujitsu Celsius дополненные мощными видеоадаптерами семейства NVIDIA Quadro для работы в программных средах по моделированию и надёжные мониторы Dell.

 - монтажный шкаф 42U, рассчитанный на нагрузку до 1000 кг и 5-летней гарантией производителя.

 - источник бесперебойного питания, рассчитанный на максимальную выходную мощность 4200Вт/6000ВА. 

 - 26-портовый коммутатор, KVM-переключатель.

 - Пассивное сетевое оборудование и прочие монтажные материалы.