WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

загрузка...
   Добро пожаловать!

Pages:     | 1 ||

На части границы расчетной области задаются условия втекающего (невозмущенного) потока. В случае моделирования задач, имеющих явную симметрию, на одной или нескольких частях границы задаются соответствующие граничные условия. На оставшейся части границы задаются «мягкие» условия, позволяющие потоку газа свободно вытекать из расчетной области. Граничные условия на поверхности объекта не позволяют потоку газа проникать внутрь. Течение считается квазистационарным, расчет проводится на установление решения. В качестве начальных условий используются параметры невозмущенного потока [2].

Во второй главе рассматривается численный алгоритм расчета сверхзвуковых течений.

Конечно-разностные аппроксимации КГД системы строятся в потоковой форме, используя вектор плотности потока массы jm, тензор вязких напряжений и вектор теплового потока q, соответствующие законам сохранения (1)-(3). Инвариантная форма записи КГД системы позволяет конструировать численные схемы для любой ортогональной системы координат для структурированных и неструктурированных расчетных сеток.

Для численного решения задачи используются сетки по времени и пространству. Газодинамические параметры (, u, E, p, T) определяются в узлах пространственной сетки. Значения газодинамических переменных в центрах ячеек определяются как арифметические средние значений в прилегающих узлах.

Для пространственной дискретизации используются неструктурированные адаптивные локально-сгущающиеся к особенностям решения сетки (треугольные и гибридные в двухмерном случае и тетраэдральные в трехмерном). Локальное сгущение позволяет оптимально сбалансировать точность расчета и вычислительную сложность и является ключевым фактором для трехмерного расчета, характеризующегося большим числом узлов сетки даже для простейших задач. При расчете модельных задач использовались сетки, содержащие от 100 тысяч до 2 миллионов узлов.

Процедура подготовки сетки для параллельных расчетов подробно описана в третьей главе.

Явная по времени численная схема, основанная на КГД уравнениях, строится методом контрольных объемов (МКО). Значения газодинамических переменных определяются в узлах сетки, вокруг которых строятся барицентрические контрольные объемы (Рисунки 2,3,4). Контрольные объемы полностью покрывают всю расчетную область без промежутков и пересечений. Пространственные производные аппроксимируются со вторым порядком точности, производные по времени – с первым порядком точности.

C P P A B P PK Рисунок 2. Пример контрольного объема вокруг узла A на гибридной двухмерной сетке Рисунок 3. Тетраэдральная ячейка и грани барицентрического контрольного объема Рисунок 4. Регион тетраэдральной сетки и пример контрольного объема Ограничение на временной шаг для такого рода схем определяется условием Куранта, которое имеет вид:

hmin t = (6) cmax где hmin - минимальное ребро треугольника в сетке, - числовой коэффициент. Критерий завершения расчета выбран на основе величины приращения плотности на временном шаге:

next - prev (7) t В третьей главе подробно освещаются алгоритмы параллелизации, описывается состав и функции программного комплекса.

Параллелизация КГД вычислительного кода производится с использованием метода геометрического параллелизма. Вся расчетная область разбивается на подобласти с примерно равным количеством узлов сетки. Количество таких подобластей соответствует количеству вычислительных ядер конкретной параллельной системы, которые планируется использовать в данном запуске. Разбиение на подобласти проводится таким образом, чтобы минимизировать количество общих (граничных) узлов между подобластями и, как следствие, объем передаваемой между вычислителями информации. Далее подобласти распределяются между различными узлами кластера в случае систем с распределенной памятью, а так же между вычислительными ядрами системы с общей памятью, причем для гибридных систем (когда один вычислительный узел распределенного кластера является параллельной системой с общей памятью) применяются оба типа распараллеливания. Для распараллеливания в рамках модели распределенной памяти применяется библиотека MPI, для модели общей памяти используется библиотека OpenMP. Все расчетные модули программного комплекса написаны на C++ и являются кросс-платформенными.

Балансировка загрузки осуществляется статически на этапе разбиения сетки. При этом составляются списки общих расчетных узлов сетки для пересылки между узлами вычислительной системы. Для разбиения расчетной области на домены используются библиотека Metis и ее параллельная версия ParMetis. При разбиении оптимизируется максимальное количество передаваемой между соседними вычислителями информации таким образом, чтобы снизить накладные расходы на пересылку данных.

Считывание начальных данных для расчета осуществляется на главном (нулевом) узле вычислительной сети, после чего данные передаются на остальные вычислительные модули в соответствии с заранее определенным разбиением расчетной области. Периодически, с заранее определенным интервалом, либо при выполнении критерия завершения расчета выполняется сбор информации со всех узлов и сохранение ее в файлах результатов на главном узле вычислительной системы.

Для измерения эффективности параллельных алгоритмов использовалась следующая методика. Производился замер среднего времени, затрачиваемого на выполнение одного временного шага по КГД уравнениям.

Усреднение проводилось на интервале в 4096 шагов. Такое среднее «шаговое» время на исследуемой конфигурации (количестве процессоров) сопоставлялось со средним «шаговым» временем при использовании только одного узла вычислительной системы (для систем МВС-100К и СКИФ один узел – это 8 процессоров, для системы IMM2 – два процессора). Для расчета эффективности распараллеливания применялась следующая формула:

t1 P Efficiency = 100%, (8) tN N где t1 – среднее время итерации при использовании одного узла ВС, P – количество процессоров на одном узле; tN – среднее время итерации на N процессорах, N – количество процессоров, на которых запускается исследуемая конфигурация.

Характеристики использованных вычислительных систем:

Кластер IMM2 (ИММ РАН): 26 вычислительных узлов, включающих по процессора Intel Xeon 3ГГц; пиковая производительность 300 GFlop/s;

пиковая пропускная способность 100 Мбит/с.

Суперкомпьютер МВС-100К (МСЦ РАН): 470 вычислительных узлов, включающих по 2 процессора Intel Xeon 3ГГц (8 ядер) и 4Гб ОЗУ; пиковая производительность 45 TFlop/s; пиковая пропускная способность Мбайт/с.

Суперкомпьютер СКИФ (МГУ): 630 вычислительных узлов, включающих по 2 процессора Intel Xeon 3ГГц (8 ядер) и 8Гб ОЗУ; пиковая производительность 60 TFlop/s; пиковая пропускная способность Мбайт/с.

Эффективность параллельного кода исследовалась на системах различной производительности, от бюджетных кластеров, состоящих из нескольких десятков процессоров, объединенных сетью Ethernet, до высокопроизводительных вычислительных систем на базе нескольких тысяч процессоров, объединенных сетями Myrinet, Infiniband. Программный комплекс продемонстрировал высокую эффективность параллельных алгоритмов, особенно для задач большого объема. Ниже приводятся графики эффективности параллелизации КГД алгоритма на различных параллельных вычислительных системах (Рисунки 5,6,7):

сетка 20К узлов сетка 80К узлов сетка 500К узлов 0 100 200 Число процессоров Рисунок 5. Анализ эффективности параллелизации КГД алгоритма для 2D задач на вычислительном комплексе МВС-100К (МСЦ РАН) Эффективность, % 128 256 384 Число процессоров Рисунок 6. Анализ эффективности параллелизации КГД алгоритма для 3D задач средствами MPI на вычислительном комплексе СКИФ (МГУ) Рисунок 7. Сравнительная эффективность параллелизации КГД алгоритма для 3D задач средствами MPI и MPI+OpenMP на вычислительном комплексе МВС-100К (МСЦ РАН) Эффективность, % В конце третьей главы подробно описывается состав программного комплекса, излагаются детали реализации алгоритмов, выполнен обзор программных средств обработки и визуализации результатов расчета.

Разработанный программный комплекс включает:

• Редактор геометрии (для задания расчетной области и исследуемого объекта) • Программу генерации адаптивных локально сгущающихся неструктурированных сеток • Расчетный модуль для параллельных ВС, включающий блок расчета газодинамических уравнений и блок расчета радиационной газовой динамики Основными форматами файлов результатов являются файл.node (библиотеки TetGen) и.plt файлы для визуализации в TecPlot.

В четвертой главе приводятся результаты моделирования тестовых задач. Проведено сопоставление с известными результатами точных решений и экспериментов. Приведем параметры одной из модельных задач:

- Температура воздуха в невозмущенном потоке (T0): 266 K - Температура внутри фронта ударной волны (T1): 2500-5500 K - Давление воздуха в невозмущенном потоке (P0): 43 Па - Плотность воздуха в невозмущенном потоке (0): 5,63·10-4 кг/м- Характерный размер задачи (L0): 4 м - Число Маха: Пример расчета показан на рисунке 8, изображены изолинии числа Маха вокруг объекта.

Рисунок 8. Изолинии числа Маха вокруг модели спускаемого аппарата Apollo при скорости набегающего потока 12 Ма В заключении приведены основные результаты диссертации, выносимые на защиту; сформулированы основные выводы и обозначены перспективы для дальнейшей работы.

ЛИТЕРАТУРА 1. Gnoffo P.A., K.J. Weilmuenster, H.H. Hamilton II, D.R. Olynick, E. Venkatapathy. Computational Aerothermodynamic Design Issues for Hypersonic Vehicles, Journal of Spacecraft and Rockets, vol. 36, no. 1, January–February 1999, pp. 21–43.

2. Т.Г. Елизарова. Квазигазодинамические уравнения и методы расчета вязких течений. – М: Научный мир, 2007. – 352 с.

Y X Z 3. Шеретов Ю.В. Анализ устойчивости модифицированной кинетическисогласованной схемы в акустическом приближении // Применение функционального анализа в теории приближений. – Тверь: Тверской государственный университет, 2004. – 147-160.

4. Елизарова Т.Г., Соколова М.Е. Численный алгоритм расчета сверхзвуковых течений, основанный на квазигазодинамических уравнениях. Вестник Московского университета, серия 3. Физика.

Астрономия, 2004, N 1, с. 10-15.

5. Т.А. Кудряшова, С.В. Поляков, Э.М. Кононов. Расчёт поля радиационного излучения газа вокруг спускаемого аппарата. // Математическое моделирование, 2008, 20(10), с. 1-12 (принята к печати).

6. William L. Kleb, K. James Weilmuenster. A High Angle of Attack Inviscid Shuttle Orbiter Computation. NASA TM 107606, Apr. 1992.

7. William L. Ko, Leslie Gong, Robert D. Quinn. Hypothetical Reentry Thermostructural Performance of Space Shuttle Orbiter With Missing or Eroded Thermal Protection Tiles. NASA TM-2004-212850. July 2004.

ОСНОВНЫЕ РЕЗУЛЬТАТЫ РАБОТЫ 1. Предложен новый параллельный численный алгоритм решения газодинамической задачи на основе КГД уравнений на нерегулярных сетках большой размерности.

2. Предложена методика задания областей сложной формы с помощью сплайнов.

3. Разработаны алгоритмы генерации сеток различного типа:

треугольных, тетраэдральных и гибридных (сочетающих ячейки треугольной и прямоугольной формы).

4. Разработанные алгоритмы реализованы в виде комплекса параллельных программ для МВС различной архитектуры.

5. Получены результаты расчетов модельных двух- и трехмерных задач на сетках различного типа.

ПУБЛИКАЦИИ ПО ТЕМЕ ДИССЕРТАЦИИ 1. B.N. Chetverushkin, S.V. Polyakov, T.A. Kudryashova, E.M. Kononov, A.A. Sverdlin, Numerical Simulation of 2D Radiative Heat Transfer for Reentry Vehicles, Proc. Parallel CFD 2005 Conference, Elsevier, 2006, pp.

293-299.

2. Sergey Polyakov, Tatiana Kudryashova, Alexander Sverdlin, Eldar Kononov. Parallel Computation of Radiation Transport around Reentry Vehicle. / CD-proceedings of "West-East High Speed Flow Field Conference (WEHSFF 2007)" (November 19-22, 2007, Moscow, Russia), 2007, pp. 1-8.

3. Т.А. Кудряшова, С.В. Поляков, А.А. Свердлин. Расчёт параметров течения газа вокруг спускаемого аппарата. // Математическое моделирование, 2008, 20(8), с. 119-128.

Pages:     | 1 ||






© 2011 www.dissers.ru - «Бесплатная электронная библиотека»