Вперед: 2.9.3. Работа с вычислительными ресурсами через диспетчерскую систему
Назад: 2.9.1. Общая характеристика систем управления заданиями
К содержанию: Оглавление
2.9.2. Конфигурация PBS на кластерах ЦКП ЮГИНФО ЮФУ
В настоящее время системой PBS в суперкомпьютерном центре ЮФУ обслуживаются
следующие вычислительные ресурсы:
- TP - Linux-кластер, состоящий из 16 вычислительных узлов, соединенных
скоростной коммуникационной сетью DDR Infiniband (скорость передачи
данных около 1400 Мб/сек, латентность 3.1 мксек). Каждый вычислительный
узел представляет собой компьютер с двумя 4-х ядерными процессорами Intel
Xeon E5345 2.33GHz и оперативной памятью 16Гбайт. Компилиция и отладка
программ выполняется на управляющем компьютере rsufs.
- IBMX - Linux-кластер, состоящий из 13 вычислительных узлов,
соединенных скоростной коммуникационной сетью DDR Infiniband . Каждый
вычислительный узел представляет собой компьютер с одним 2-х ядерных
процессором Intel Xeon 5160 c тактовой частотой 3.0 Ггц и оперативной
памятью 8Гбайт. Производительность каждого вычислительного узла на тесте
Linpack составляет 21 Gflops, а всего кластера в целом 252 Gflops.
- WSD - кластер из 13-ти рабочих станций DELL c двух ядерными
процессорами Intel Core 2 Duo E6750 @ 2.66GHz, оперативной памятью 4 Гб и
коммуникационной сетью Gigabit Ethernet. Не рекомендуется запускать
параллельные программы с интенсивным обменом данных.
В соответствии с этим создано три очереди, по одной для каждой архитектуры с
именами TP, IBMX, WSD. Внутри каждой из очередей дополнительного разбиения
(например, по времени решения задачи) не сделано. Используется устанавливаемый
по умолчанию планировщик FIFO (первый вошел первый вышел),
сконфигурированный для эксклюзивного выполнения одного счетного процесса на
каждом из узлов. PBS автоматически распределяет задания по свободным узлам
заданной архитектуры.
Каждую из программ, запускаемую на кластере можно отнести к одному из
четырех типов.
- Обычная однопроцессорная последовательная программа занимает один узел и
задействует одно ядро, и ни каким образом не может использовать
дополнительные ядра.
- Параллельная многонитевая OpenMP программа. Занимает один узел и
задействует несколько ядер. По умолчанию захватывает все ядра узла. Не
всегда использование программой всех ядер в узле позволяет получить
максимальную производительность. Регулируется количество ядер занимаемых
программой переменной окружения OMP_NUM_THREADS. Она может быть
задана либо в конфигурационном файле пользователя .bashrc или в
запускающем скрипте.
- Параллельная многоузловая MPI программа. Захватывает несколько узлов, в
каждом из которых может быть задействовано либо одно, либо несколько ядер.
(Это возможно, если на узле запускается несколько MPI процессов. Например, можно заказать
2 узла, но командой mpirun запустить 4 процесса).
- Гибридная многоузловая многонитевая MPI+OpenMP программа. Захватывает
несколько узлов, в каждом из которых может быть задействовано несколько
ядер (путем выполнения многонитевого процесса). Для таких программ только
эмпирическим путем можно установить оптимальное число нитей на узле.
Описанное выше многообразие типов программ и вычислительных кластеров прекрасно управляется единой диспетчерской системой семейства OpenPBS
(Torque), установленной на специально выделенном сервере, не входящего в состав ни одного из кластеров.
Вперед: 2.9.3. Работа с вычислительными ресурсами через диспетчерскую систему
Назад: 2.9.1. Общая характеристика систем управления заданиями
К содержанию: Оглавление