10
Исследование эффективности параллельного алгоритма Монте-Карло моделирования внутренних свободномолекулярных течений Хохлов И.А. 4-й курс Московский физико-технический институт (государственный университет) Кафедра компьютерного моделирования ФАЛТ Жуковский, 2008

Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

  • Upload
    shanon

  • View
    53

  • Download
    2

Embed Size (px)

DESCRIPTION

Исследование эффективности параллельного алгоритма Монте-Карло моделирования внутренних свободномолекулярных течений. Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет) Кафедра компьютерного моделирования ФАЛТ Жуковский, 2008. Введение. - PowerPoint PPT Presentation

Citation preview

Page 1: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

Исследование эффективностипараллельного алгоритма Монте-Карломоделирования внутренних свободномолекулярных течений

Хохлов И.А.

4-й курс

Московский физико-технический институт(государственный университет)

Кафедра компьютерного моделирования ФАЛТ

Жуковский, 2008

Page 2: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

2

Введение

Актуальной проблемой математического моделирования является создание эффективных

параллельных алгоритмов, реализующих метод Монте-Карло.

Во многих случаях параллелизация алгоритма Монте-Карло выполняется путем разделения задачи

на статистически независимые реализации с одинаковыми входными параметрами. Результаты

таких реализаций суммируются, что дает возможность получить более точный результат за

меньшее время.

Фундаментальной проблемой программной реализации алгоритма Монте-Карло остается проблема

эффективности алгоритма на конкретной аппаратно-программной платформе при различном

соотношении затрат на обмен данными и затрат на получение этих данных. При изучении

эффективности того или иного параллельного алгоритма этот вопрос часто остается недостаточно

проясненным на фоне нечеткой балансировки вычислительной нагрузки на узлы

многопроцессорной системы. Чтобы свести к минимуму этот фактор и изучить влияние

особенностей платформы и библиотеки, в настоящей работе рассмотрена задача о

свободномолекулярном внутреннем течении газа. Соответствующий алгоритм позволяет

достигнуть практически идеального распределения нагрузки по параллельным процессам,

оставляя возможность регулирования величины этой нагрузки и объема пересылаемых данных.

Результат такого исследования актуален в контексте изучения эффективности MPI-алгоритмов на

платформах с общей памятью (SMP).

Page 3: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

3

Цель работы

Исследование эффективности MPI-алгоритмов на платформах с общей памятью (SMP)

Выявление влияния вычислительной архитектуры на эффективность параллельного алгоритма

Page 4: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

4

План работы Применение метода Монте-Карло в динамике разреженного газа,

особенности параллелизации его алгоритма на современных аппаратно-программных платформах

Задача о взаимодействии тел в свободномолекулярном режиме, алгоритм метода Монте-Карло

Исследование эффективности параллельного алгоритма

Page 5: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

5

Метод Монте-Карло Метод Mонте-Карло – это численный метод

моделирования широкого круга явлений и решения математических задач, связанный с получением и преобразованием случайных величин

Схема методов Монте-Карло основана, во-первых, на получении так называемой стандартной случайной величины, т.е. случайной величины, равномерно распределенной в промежутке [0, 1]; во-вторых, на методах, с помощью которых реализации случайных величин с различными законами распределения выражаются через реализации стандартной случайной величины с равномерным законом распределения; в-третьих, задача метода Монте-Карло после получения ряда реализаций интересующей нас случайной величины заключается в получении некоторых сведений о ее распределении

1

1(ξ ... ξ )Na

N

1

1ξ ξ ε 1 γ

N

ii

P MN

ε δ γN

Page 6: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

6

Задача о взаимодействии тел

2

3/ 2, , exp , ( ) 022π

rr w w

ww

nf t

RTRT

ξx ξ ξ n x

, ,i w r wN t N tx x

1. Задание параметров расчета: радиусов и температур

тел

2. Задание начальных координат и скоростей частиц

3. Вычисление координат частицы при пролете за

время min(tc,t) (tc - время до столкновения с

ближайшим телом, t – шаг по времени), в случае

столкновения суммирование переданного телу

импульса

4. Вычисление скорости частицы после отражения от

тела, суммирование реактивного импульса

5. Повторение пп. 3-4 для частицы до истечения t (tc

< t)

6. Повторение пп. 3-5 для всех частиц до истечения

времени эволюции T=k t (k~1000)

7. Вычисление средних, запись результатов

Page 7: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

7

Подходы к параллелизации Алгоритм параллельных статистически независимых

испытаний (ПСНИ) Алгоритм параллелизации по данным (ППД) Алгоритм двухуровневой параллелизации со

статической балансировкой (ДУП СБ) Алгоритм двухуровневой параллелизации с

динамическим реаллокированием процессоров (ДУП ДБ)

Page 8: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

Тестовая система

Исследования проводились на вычислительном сервере кафедры компьютерного моделирования ФАЛТ МФТИ. Конфигурация сервера: 4 процессора Intel Itanium 2 1.5 GHz (Madison), 8 GB DIMM DDR ECC, HDD 2xSCSI 73GB. Кэш-память L2 – 256 KB, L3 – 6 MB. На сервере установлена операционная система Red Hat Enterprise Linux 4, использовался компилятор GCC версии 3.4.6 и библиотека LAM/MPI версии 7.0.6.

8

Page 9: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

9

Исследование эффективности

0

100

200

300

400

500

600

700

800

0 2 4 6 8 10 12 14

На верхней диаграмме представлена

зависимость скорости передачи пакета данных от объема передаваемых данных. На нижней диаграмме представлено относительное ускорение в зависимости от количества процессов (включая управляющий).Для 16000 и 32000 частиц ускорение больше теоретического, что обусловлено влиянием кэш-памяти процессора. Скачок скорости пересылки возможно связан с архитектурой процессора, или из-за реализации библиотеки MPI. Так же время расчета значительно уменьшается при использовании

флагов оптимизации. 0

0.5

1

1.5

2

2.5

3

3.5

1 2 3 4

16000

32000

64000

128000

256000

Page 10: Хохлов И.А. 4- й курс Московский физико-технический институт (государственный университет)

10

Выводы

Алгоритм параллелизации по данным на SMP системе показал высокую эффективность, близкую к 100% (96% – 118%). При малом объеме задачи заметно влияние кэш-памяти процессора L2.

Скорость передачи данных существенно зависит от объема передаваемых данных. Малые объемы информации передаются быстро, после определенного объема данных скорость передачи резко падает, после чего медленно растет по практически линейному закону.

Оптимизация исполняемого кода программы под архитектуру вычислительной системы (использование флагов оптимизации компилятора) дает значительный прирост производительности (до 70%).