WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

загрузка...
   Добро пожаловать!

Pages:     | 1 | 2 ||

Таблица 1. Производительность компонентов эталонного и исследуемого узла Характеристики компонентов узла Значения Значения Коэффициент характеристик характеристик ускорения компонентов компонентов эталонного исследуемого узла (n1) узла (n2) Процессор, опер. с целыми числами 7726 MIPS 7710 MIPS Процессор, опер. с веществ. числами 4471 Mflops 4410 Mflops 0,Кэш L1, латентность* 1,4 нс 1,1 нс 1,Кэш L1, пропускная способность 22300 Mb/s 22106 Mb/s 0,Кэш L2, латентность* 8 нс 5 нс 1,Кэш L2, пропускная способность 12800 Mb/s 11968 Mb/s 0,Память, латентность* 22 нс 39 нс 0,Память, пропускная способность 4471 Mb/s 3477 Mb/s 0,Жесткий диск, произвольный доступ 22 ms 20 ms 0,Жесткий диск, скорость чтения 52 Mb/s 49 Mb/s 0,Жесткий диск, скорость записи 32 Mb/s 30 Mb/s 0,Сеть, потребность в выч. мощности 20% 20% Сеть, латентность* 16 ms 16 ms Сеть, пропускная способность 4471 Kb/s 4471 Kb/s Коэффициент ускорения рассчитывается как отношение значений характеристик компонентов исследуемого узла к значениям характеристик компонентов эталонного узла. Элементы, помеченные знаком «*», рассчитываются в обратном соотношении.

Спецификации модулей m1 и m2, полученные в ходе динамического анализа на эталонном узле, приведены в табл. 2.

Таблица 2. Спецификация модулей m1 и mПараметр спецификации модуля Модуль m1 Модуль mCPU_CLK_UNHALTED.CORE 3 082 428 099 668 4 005 158 239 INST_RETIRED.ANY 1 072 275 919 359 1 408 859 794 L1I_MISSES 40 329 413 833 87 397 645 L1D_CACHE_LD.MESI 320 967 117 799 505 189 980 L1D_CACHE_ST.MESI 231 959 667 895 388 209 800 L2_RQSTS.SELF.ANY.MESI 47 480 143 712 50 758 606 L2_RQSTS.SELF.ANY.I_STATE 3 676 625 688 4 352 637 L2_LINES_IN.SELF.ANY 6 277 805 018 6 276 653 L2_IFETCH.SELF.I_STATE 10 022 453 722 11 295 008 HDD, общее количество байт 620 000 820 HDD, количество байт считано 340 000 401 HDD, количество байт записано 280 000 220 Вычислений с плавающей запятой 0% 0% Исходное время работы модулей m1 и m2 на узле n1 при вычислении одной из булевых моделей:

Т(m1,n1) = 1062,9 сек, Т(m2,n1) = 1292,1 сек.

Определен вклад каждого из элементов узла n1 в общее время работы модулей m1 и m2:

TP(m1,n1) = 403,44 сек, TM(m1,n1) = 658,40 сек, TN(m1,n1) = 0,14 сек, TD(m1,n1) = 0,015 сек;

TP(m2,n1) = 413,44 сек, TM(m2,n1) = 878,78 сек, TN(m2,n1) = 0,18 сек, TD(m2,n1) = 0,015 сек.

Размер кэшей L1 и L2 на узле n2 вдвое меньше, чем на узле n1. Поэтому количество промахов увеличится в k = 2 раз для обоих кэшей8. Учитывая коэффициент ускорения производительности компонентов исследуемого узла, найдем время работы его компонентов:

TP(m1,n1) = 402,60 сек, TM(m1,n1) = 1024,11 сек, TN(m1,n1) = 0,14 сек, TD(m1,n1) = 0,015 сек;

TP(m2,n1) = 412,16 сек, TM(m2,n1) = 1370,90 сек, TN(m2,n1) = 0,18 сек, TD(m2,n1) = 0,015 сек.

Вычислим умножающий коэффициент, получаемый при переносе модулей m1 и m2 c узла n1 на узел n2:

A(m1,n1,n2)= T(m1,n2)/ T(m1,n1) = 1,34; A(m2,n1,n2)= T(m2,n2)/ T(m2,n1) = 1,37.

Результаты проведения эксперимента для решения 240 булевых моделей приведены в табл. 3.

Таблица 3. Сравнение результатов прогноза и реального эксперимента Эксперимент Модуль m1 Модуль mИсходное время решения задач на узле n1 (суммарное) 244 608 сек 291 288 сек Прогнозируемое время решения задач на узле n2 (суммарное) 328 648 сек 401 952 сек Реальное время решения задач на узле n2 (суммарное) 300 864 сек 463 680 сек Погрешность 9,2% 13,3% На рис. 5 изображены показатели погрешностей прогнозов для модулей m1 и m2, значения которых отображены треугольниками и квадратами, соответственно. Объем выборки для каждого модуля составил 20 прогнозов. Соответствующие графики трендов построены по степенным уравнениям регрессии.

Рис. 5. Погрешность прогнозирования времени решения задач В третьем разделе описан вычислительный эксперимент9 по моделированию работы КСМП для решения СБУ продолжительностью 1 год. Цель экспери См., например, работу Hartstein A. Cache miss behavior: is it 2 / A. Hartstein, V. Srinivasan, T.R. Puzak, P.G. Emma // Proceedings of the 3rd conference on Computing frontiers. – USA: ACM, 2006. – P. 313-320.

Планирование вычислительного эксперимента основано на методике, представленной в работе: Советов Б.Я. Моделирование систем. Пятое издание / Б.Я. Советов, С.А. Яковлев. – М.: Высшая школа, 2007. – 344 с.

мента – определить выходные характеристики КСМП для решения СБУ. В качестве входных задач выбраны 2000 файлов булевых моделей, поступающих в систему в соответствии с равномерным законом распределения случайной величины в интервалах от 1 до 2 раз в сутки (вариант № 1), от 1 до 2 раз в час (вариант № 2) и от 2 до 5 раз в час (вариант № 3). Время решения каждой модели не более 30 минут. Каждый вариант включает в себя три плана решения задачи. Вероятности выбора планов 1–3 заданы следующим образом: p1 = 0, p2 = 0,5, p3 = 0,5.

Тип системы: восстанавливаемая система с рестартом. Максимальное количество последовательных восстановлений на каждый модуль: 2. Интервал между восстановлениями: 12 часов. Общее время моделирования системы: 1 год. Количество экспериментов с моделью: 1000. Результаты показаны в табл. 4.

Таблица 4. Результаты моделирования КСМП для решения СБУ Показатель Вариант № 1 Вариант № 2 Вариант № Среднее z 538,36 13358,12 26470,Среднее zdf 8,41 244,18 488,Среднее zcr 0 0 20,Среднее Te 490 сек 490 сек 490 сек Среднее Tq 675 сек 790 сек 797 сек Максимальная длина очереди 3 48 Kt 0,73 0,62 0,Kв 1 1 0,Kp 1 1 0,Среднее количество отказов 6,2 6,2 6,Результаты эксперимента показывают, что при увеличении числа поступивших задач z число задач с отказами вычислительных ресурсов zdf увеличивается. При высокоинтенсивном поступлении задач (вариант № 3) исследуемая система не справляется с потоком задач, коэффициент восстанавливаемости процесса решения задачи Kв падает до 0,96 и среднее количество нерешенных задач достигает 20,6.

В четвертом разделе главы выполнен сравнительный анализ локального и распределенного процессов моделирования. Рассмотрена задача моделирования использования основных ресурсов узла вычислительного кластера (процессорного времени CPU и места на жестком диске HDD). Определены интенсивности обмена между сегментами, при которых применение средств и методов распределенного моделирования повышает производительность системы моделирования.

В заключении сформулированы основные результаты, полученные в рамках диссертационной работы.

Приложения включают исходные тексты алгоритмов функционирования модулей серверной и клиентской части коммуникационной библиотеки, исходные тексты имитационной модели на языке GPSS, пример экспериментальных данных о модулях КСМП для решения СБУ, а также другие дополнительные материалы.

ОСНОВНЫЕ РЕЗУЛЬТАТЫ ДИССЕРТАЦИИ 1. Предложена технология анализа эффективности функционирования КСМП, базирующаяся на построении распределенной имитационной модели КСМП, которая обеспечивает (в отличие от известных) детальный учет как характеристик предметной области, так и особенностей программно-аппаратной архитектуры КСМП.

2. Разработана коммуникационная библиотека распределенного имитационного моделирования для систем семейства GPSS, включающая методы синхронизации времени, обмена данными и создания КТ. Реализованная библиотека применяется для разработки распределенных GPSS-моделей, предназначенных как для использования в составе ИК СИРИУС, так и для проведения независимых экспериментов.

3. Реализован ИК СИРИУС, обеспечивающий поддержку основных этапов анализа КСМП, включая графическое описание предметной области и программно-аппаратной архитектуры КСМП, а также автоматизацию построения и выполнения на вычислительных кластерах распределенных имитационных GPSSмоделей.

СПИСОК ПУБЛИКАЦИЙ ПО ТЕМЕ ДИССЕРТАЦИИ

1. Александров А.А. Коммуникационная библиотека для построения распределенной модели системы массового обслуживания / А.А. Александров // Вестник ТГУ. Приложение. – 2006. – № 18. – C. 258-261.

2. Опарин Г.А. Графическая инструментальная среда для описания модели распределенной вычислительной системы / Г.А. Опарин, А.Г. Феоктистов, А.А. Александров // Вестник ИрГТУ. – 2006. – Т. 3. – № 2 (26). – C. 35-40.

3. Александров А.А., Феоктистов А.Г., Дмитриев В.И. Распределенная имитационная модель вычислительного кластера: Свидетельство об официальной регистрации программы для ЭВМ № 2009610134. – М.: Федеральная служба по интеллектуальной собственности, патентам и товарным знакам, 2009.

4. Александров А.А., Феоктистов А.Г. Коммуникационная библиотека для распределенного моделирования (КБРМ): Свидетельство об официальной регистрации программы для ЭВМ № 2007611626. – М.: Федеральная служба по интеллектуальной собственности, патентам и товарным знакам, 2007.

5. Александров А.А. Организация распределенного имитационного моделирования / А.А. Александров // Математическое моделирование и информационные технологии: Материалы VII Школы-семинара молодых ученых. – Иркутск: ИДСТУ СО РАН, 2005. – C. 6.

6. Александров А.А. Создание контрольных точек при моделировании в системе GPSS World / А.А. Александров // Математическое моделирование и информационные технологии: Материалы VIII Школы-семинара молодых ученых. – Иркутск: ИДСТУ СО РАН, 2006. – C. 10-13.

7. Инструментальные средства организации распределенных вычислений на кластерах невыделенных рабочих станций / Феоктистов А.Г., Александров А.А., Корсуков А.С., Ларина А.В. // Ляпуновские чтения: Материалы конф.

– Иркутск: ИДСТУ СО РАН, 2007. – C. 37.

8. Феоктистов А.Г. Обеспечение надежности распределенной вычислительной среды имитационного моделирования / А.Г. Феоктистов, А.А. Александров // Моделирование. Теория, методы и средства: Материалы VI Междунар.

науч.-практ. конф. – Новочеркасск: Изд-во ЮРГТУ, 2006. – Ч. 5. – C. 25-28.

9. Феоктистов А.Г. Организация распределенного имитационного моделирования в GRID-системе / А.Г. Феоктистов, А.А. Александров, А.С. Корсуков // Параллельные вычислительные технологии: Тр. I Междунар. науч.-практ.

конф. – Челябинск: Изд-во ЮУрГУ, 2007. – Т. 2. – C. 28-36.

10. Феоктистов А.Г. Оценка эффективности декомпозиции GPSS-моделей в распределенной вычислительной среде / А.Г. Феоктистов, А.А. Александров, А.В. Ларина // Идентификация систем и задачи управления: Тр. VI Междунар. конф. – М.: Изд-во ИПУ РАН, 2007. – С. 771-775.

11. Феоктистов А.Г. Применение HLA для организации распределенной среды имитационного моделирования / А.Г. Феоктистов, А.А. Александров // Информационные и математические технологии в науке и управлении: Тр.

XII Байкальской Всерос. конф. «Информационные и математические технологии в науке и управлении». – Иркутск: Изд-во ИСЭМ СО РАН, 2007. – Ч. 2. – C. 26-33.

12. Феоктистов А.Г. Распределенное имитационное моделирование в САТУРНсреде / А.Г. Феоктистов, А.А. Александров // Ляпуновские чтения: Материалы конф. – Иркутск: ИДСТУ СО РАН, 2004. – C. 42.

13. Феоктистов А.Г. Распределенное имитационное моделирование вычислений в САТУРН-среде на основе системы взаимодействующих агентов / А.Г. Феоктистов, А.А. Александров // Моделирование. Теория, методы и средства:

Материалы V Междунар. науч.-практ. конф. – Новочеркасск: Изд-во ЮРГТУ, 2005. – Ч. 3. – C. 28-32.

14. Феоктистов А.Г. Распределенное имитационное моделирование систем модульного программирования / А.Г. Феоктистов, А.А. Александров // Математическое моделирование и информационные технологии: Материалы VI Школы-семинара молодых ученых. – Иркутск: ИДСТУ СО РАН, 2005. – C. 38-39.

15. Феоктистов А.Г. Средства выполнения распределенной GPSS – модели на вычислительном кластере / А.Г. Феоктистов, А.А. Александров, А.С.

Корсуков // Инфокоммуникационные и вычислительные технологии и системы: Материалы II Всерос. конф. с междунар. участием. – Улан-Удэ:

Изд-во Бурятского университета, 2006. – Т. 2. – C. 166-173.

Редакционно-издательский отдел Института динамики систем и теории управления СО РАН 664033, Иркутск, Лермонтова, Подписано к печати 10.08.2009 г.

Формат бумаги 6084 1/16, объем 1 п.л.

Заказ № 2. Тираж 100 экз.

Отпечатано в ИДСТУ СО РАН

Pages:     | 1 | 2 ||






© 2011 www.dissers.ru - «Бесплатная электронная библиотека»