WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     ||
|

На рис. 1 показаны результаты измерений эффективности распараллеливания программы RT. Использовались различные алгоритмы плаБалансирующий Fishing Модифицированный Fishing 0 50 100 150 200 Число узлов Рис. 1: Эффективность работы программы RT.

нирования. Коэффициент эффективности (КЭ) распараллеливания программы на N узлах определяется по формуле КЭN = T1/(N · TN).

Программа prgdemo моделирует поведение программного комплекса Vortex, предназначенного для моделирования двумерного нестационарного обтекания твердых тел потоком несжимаемой среды с использованием метода дискретных вихрей и метода вязких вихревых доменов. Программа prgdemo обладает параллелизмом типа scatter-gather, когда на несколько узлов рассылаются входные данные, которые затем обрабатываются и результаты собираются на исходном узле. Похожие алгоритмы используются во многих итеративных задачах. Результаты измерений эффективности распараллеливания prgdemo показаны на рис. 2.

Планировщик Fishing имеет ряд параметров. В разделе 5.6 изучается влияние этих параметров на исполнение параллельных программ и выбираются их оптимальные значения в определенных условиях.

Коэффициент эффективности, % Балансирующий Fishing Модифицированный Fishing 1 8 16 32 48 64 80 96 112 128 144 160 176 192 208 224 240 Число узлов Рис. 2: Эффективность работы модельной программы prgdemo.

Произведено две серии экспериментов: в первом число создаваемых для построения изображения задач составляло 221, во втором 211. Таким образом, исследовалось поведение планировщика Fishing при различных значениях параметров как на крупных, так и на мелких задачах. Все запуски производились с использованием 64 узлов. Параметр ttl принимал значения от 1 до 24 (28 в случае jobsize=1024), параметр delay значения 0.001, 0.01, 0.1, 0.5 и 1.0 секунды. Результаты измерений приведены в тексте диссертации.

Исходя из результатов измерений, в качестве значений по умолчанию для планировщика Fishing были выбраны значения ttl=10 и delay=0.секунды. Отмечено также, что при запуске на коммуникационной сети с низкой пропускной способностью, значение delay может быть увеличено до 0.1 секунды с целью уменьшения нагрузки на сеть.

В последние годы наблюдается активное развитие вычислительный Коэффициент эффективности, % систем, построенных по технологии GRID. В этой связи, особый интерес представляет исследование разработанных планировщиков в условиях распределенной гетерогенной вычислительной среды.

Измерения проводились на неоднородной распределенной системе, состоящей из двух вычислительных кластеров, являющихся частью GRID полигона, рассредоточенного на сети МГУ-РАН. Один из таких кластеров расположен в НИИ Механики МГУ и состоит из 8 двухпроцессорных узлов AMD Athlon MP 1800+. В качестве коммуникационной среды используется SCI. Второй кластер НКС-160 установлен в Суперкомпьютерном центре ВМиМГ СО РАН в Новосибирске. Он состоит из 80 вычислительных модулей HP Integrity rx1620, каждый из которых содержит два процессора Intel Itanium 2 1.6 ГГц. Узлы связаны посредством высокопроизводительной коммуникационной сети InfiniBand. Для связи между кластерами использовалась виртуальная сеть, организованная через Интернет. Ее пропускная способность составляла 1.2 Мбайт/с, а задержка доставки пакетов 50 мс.

Измерения производились на следующих программах:

• тестовая программа fib, вычисляющая значения чисел Фибоначчи рекурсивным методом, с параметром 42;

• программа RT, со сценой, содержащей 820 объектов, и разрешением выходного изображения 20482048 пикселов.

Для оценки теоретически достижимого времени исполнения программы на двух кластерах использовалась формула Tтеор = (1/T1 + 1/T2)-1, где Ti время исполнения программы на кластерах, а Tтеор время ее исполнения при максимальной утилизации вычислительных ресурсов двух кластеров. Коэффициент эффективности (КЭ) определялся как отношение Tтеор к наблюдаемому времени исполнения.

Табл. 1 и 2 содержат результаты измерений времени исполнения программы на отдельных кластерах, при совместном запуске, а также оценПрограмма T1, c T2, c Теоретически достижимое время, c T1+2, с КЭ, % fib(42) 130.73 126.28 64.23 67.00 95.RT, 20482048 68.84 60.58 32.22 35.57 90.Таблица 1: Время исполнения программы на 16 + 26 процессорах.

Программа T1, c T2, c Теоретически достижимое время, c T1+2, с КЭ, % fib(42) 130.73 33.51 26.67 31.08 85.RT, 20482048 68.84 18.33 14.48 17.80 81.Таблица 2: Время исполнения программы на 16 + 100 процессорах.

ку идеального времени исполнения согласно указанной выше формуле.

Можно отметить, что при при вычислениях на 16+26 процессорах реальное время исполнения близко к теоретически достижимому, что свидетельствует об эффективном распределении работы планировщиком. Программа RT производит большое число пересылок (на 16+26 процессорах общий объем пересылаемых данных составил 47 Мбайт), что приводит к меньшему, чем у программы fib, коэффициенту эффективности.

В разделе 5.9 отмечено, что были произведены тестовые запуски на модельных и практически важных прикладных задачах, а также исследования влияния различных параметров планировщиков на эффективность исполнения программ. Испытания на неоднородных распределенных вычислительных установках показали, что разработанные планировщики достигают эффективность исполнения, близкую к максимальной.

Основные результаты работы В диссертационной работе получены следующие основные результаты:

• разработана математическая модель, представляющая параллельную программу в виде ориентированного ациклического графа подзадач и описывающая процесс исполнения такой программы в распределенных системах и в системах с различной производительностью узлов; получены оценки времени исполнения параллельных программ в таких системах;

• разработаны и программно реализованы с использованием системы автоматизированного динамического распараллеливания NewTS два алгоритма планирования, основанные на методах балансировки нагрузки и заимствования заданий, уменьшающие нагрузку на коммуникационную сеть и общее время исполнения вычислительных приложений, в том числе в распределенных системах;

• разработан и реализован в системе NewTS механизм исполнения порождаемых задач, основанный на анализе загруженности узлов, снижающий системные накладные расходы при исполнении мелкозернистых параллельных программ.

Публикации по теме диссертации Основные результаты работы изложены в следующих публикациях.

1. Степанов Е. А. Метапланирование в открытой Т-системе: механизмы, модели и инструментальные средства // Тез. докл. науч.

конф. Ломоносовские чтения (18–28 апреля, МГУ им. Ломоносова, Москва). М.: Изд-во Московского университета, 2005. С. 174.

2. Степанов Е. А. Планирование в OpenTS системе автоматического динамического распараллеливания // Информационные технологии и программирование: Межвузовский сборник статей. Под ред.

В. А. Васенина, Д. Л. Ревизникова, Е. А. Роганова. Вып. 2 (14).

М.: МГИУ, 2005. С. 31–42.

3. Степанов Е. А. Автоматический выбор гранулы параллелизма в системе автоматического динамического распараллеливания // Тез.

докл. науч. конф. Ломоносовские чтения (17–27 апреля, МГУ им. Ломоносова, Москва). М.: Изд-во Московского университета, 2006. С. 135–136.

4. Степанов Е. А. Новые механизмы планирования в системе автоматического динамического распараллеливания программ // Тезисы III Междунар. конф. по проблемам управления МКПУ-2006 (20–июня 2006, ИПУ РАН, Москва). М.: Ин-т проблем управления, 2006. С. 138.

5. Конев И. М., Степанов Е. А. Автоматизация динамического распараллеливания программ: планирование, управление памятью, работа в гетерогенной среде // Информационные технологии. 2007.

№ 10. С. 71–73.

6. Степанов Е. А. Математическая модель планирования в системах автоматизированного динамического распараллеливания // Тез. докл. науч. конф. Ломоносовские чтения (16–25 апреля, МГУ им.

М. В. Ломоносова, Москва). М.: Изд-во Московского университета, 2007. С. 141.

7. Конев И. М., Степанов Е. А. Автоматизация динамического распараллеливания программ: планирование, управление памятью, работа в гетерогенной среде // Приложение к журналу Информационные технологии. № 10. М.: Изд-во Новые технологии, 2007.

32 с.

В работе 7 автору настоящей диссертации принадлежат разделы Введение, Планирование исполнения программ и Включение задач.

Pages:     ||
|



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.