WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

 

Московский Государственный Технический Университет имени Н. Э. Баумана

На правах рукописи        

Иванов Игорь Потапович

математические модели, методы анализа и управления в корпоративных сетях

Специальность 05.13.15 – Вычислительные машины, комплексы и компьютерные сети

Автореферат

диссертации на соискание ученой степени

доктора технических наук

Москва 2010

Работа выполнена в Государственном образовательном учреждении высшего профессионального образования «Московский Государственный Технический Университет имени Н. Э. Баумана»

Официальные оппоненты: 

заслуженный деятель науки РФ,

доктор технических наук, профессор

                                       Олейников Александр Яковлевич

                                       доктор технических наук, профессор

                                       Ретинская Ирина Владимировна

                                       доктор технических наук, профессор

                                       Саксонов  Евгений Александрович

Ведущая организация:

                                       Федеральное государственное учреждение

                                       Российский научный центр

                                       «Курчатовский институт»

Защита состоится « 19 » октября 2010 года в  12.00  часов на заседании диссертационного совета  Д  212.133.03 Московского государственного института электроники и математики (технического университета) по адресу: 109028 Москва, Б. Трехсвятительский пер., д.3 МИЭМ.

С диссертацией можно ознакомиться в библиотеке университета

Автореферат разослан «____» _______________2010 года

Ученый секретарь диссертационного совета, к.т.н., доцент

________________________ Ю.Л. Леохин

Общая характеристика работы

Актуальность проблемы

Развитие и широкое внедрение информационно-коммуникационных технологий во все сферы человеческой деятельности проявляется в локальных и глобальных компьютерных сетях. Изменение характера передаваемой информации, ее объемов и  интенсивности может привести к возникновению блокировок и перегрузок в компьютерных сетях, несмотря на тенденцию к повышению их пропускной способности, следовательно, совершенствование методов анализа и управления в корпоративных сетях, направленных на повышение их производительности, остается актуальной проблемой и в настоящее время.  Разнообразие передаваемой информации, ее интенсивность и объем приводят ко все большему отличию существующих математических моделей источников информации, коммуникационных узлов сетей и самого трафика, разработанных для сетей первых поколений, от реально наблюдаемых результатов их функционирования на современном этапе. Серьезным препятствием для исследования трафика в корпоративных сетях является также закрытость и ограниченность методик анализа процессов в узлах сетей, используемых в дорогостоящих зарубежных разработках. Поэтому разработка научных методов и алгоритмов создания структур и топологий транспортных подсистем корпоративных сетей, методов анализа функционирования коммутационных и оконечных узлов этих подсистем и их отдельных сегментов, развитие и совершенствование технологий управления трафиком передаваемой информации, реализуемых на штатном сетевом оборудовании и с помощью типового аппаратно-программного  обеспечения, доступного сетевым администраторам и интеграторам, является актуальной задачей для повышения уровня автоматизации всех информационных процессов в многоплановой деятельности предприятий и организаций любых масштабов.

Решением  ряда задач, относящихся к данной проблеме занимаются научно-исследовательские подразделения многих российских и зарубежных университетов и НИИ: Государственный научно-исследовательский институт информационных технологий и телекоммуникаций "Информика", Санкт-Петербургский государственный институт информационных технологий, точной механики и оптики (технический университет), Российский НИИ развития общественных сетей, Московский государственный технический университет им. Н.Э. Баумана, Санкт-Петербургский государственный университет телекоммуникаций им. проф. М. А. Бонч-Бруевича, Московский государственный университет им М. В Ломоносова, Московский институт электроники и математики (технический университет), Тамбовский государственный технический университет, Центральный научно-исследовательский институт робототехники и технической кибернетики, Уфимский государственный авиационный технический университет, Новгородский государственный университет, Самарский государственный аэрокосмический университет, Санкт-Петербургский государственный университет, Global Information Grid, Cisco Systems Inc, Factiva (совместное предприятие Dow Jones и Reuters), General Dynamics, HP, Honeywell, IBM, Microsoft, Northrop Grumman, Oracle, Raytheon, Sun и др. Несмотря на это, в открытой печати и ресурсах Internet практически отсутствуют методы анализа и синтеза транспортных подсистем корпоративных сетей предприятий, что негативно влияет на внедрение и освоение новых информационных технологий для решения важных народно-хозяйственных задач во всех отраслях.

Цели и задачи исследований

Целью диссертации является создание научных основ для проектирования, разработки и создания высокопроизводительных транспортных подсистем  корпоративных сетей, их сопровождение и модернизации в процессе эксплуатации. Для этого необходима разработка математических моделей источников информации, нагружающих транспортную подсистему (т.е. математических моделей трафика на уровне доступа), математических моделей трафика в сегментах уровней распределения и ядра (т.е. после прохождения кадров через каскады коммутаторов, что в свою очередь требует разработки их математических моделей), методов регулирования интенсивностью трафика на интерфейсах источников  и учет доступности ресурсов при проектировании топологии транспортной подсистемы.

Для достижения поставленной цели на базе анализа современного состояния стека протоколов TCP/IP проведена ее декомпозиция, в результате чего достижение этой цели обеспечивается решением следующих задач:

  1. Анализ структур транспортных подсистем современных корпоративных сетей, технологий взаимодействия их оконечных и транзитных узлов.
  2. Разработка математических моделей источников и стоков информации для характеризации нагрузки на транспортную подсистему.
  3. Развитие методов статистического анализа и мониторинга трафика в сегментах корпоративных сетей.
  4. Разработка математических моделей транзитных узлов (коммутаторов) корпоративных сетей с учетом их влияния на трафик в различных иерархических уровнях сети.
  5. Анализ и развитие методов и технологий управления объемами и интенсивностью трафика, переносимого транспортной подсистемой.
  6. Разработка методов анализа доступности общих ресурсов корпоративных сетей с целью снижения вероятности блокировок в транспортных подсистемах и повышения производительности корпоративных сетей.

Методы исследования

Для решения поставленных задач используются современные методы теории информации и теоретической информатики, математические методы теории вероятностей, теории очередей и массового обслуживания, планирования эксперимента и статистической обработки результатов экспериментальных данных.

Научная новизна результатов

1. Разработана новая математическая модель трафика в сегментах транспортной подсистемы с длительностью кадров, распределенной по закону Бернулли для технологии Ethernet, интенсивность поступления которых соответствует мультиплексированным и демультиплексированным регулярным потокам, позиционированным по Пуассону в отсутствие блокировок.

2. Предложена новая математическая модель коммутаторов в корпоративных сетях, как основных транзитных узлов транспортных подсистем в их различных иерархических уровнях.

3. Разработан новый метод регулирования интенсивности трафика в сегментах транспортной подсистемы путем пролонгации процессов в источниках информации, опирающийся на логику алгоритма случайного раннего обнаружения.

4. Выведено правило доступности ресурсов для анализа типовых информационных процессов в разных уровнях иерархии транспортной подсистемы корпоративной сети.

5. Разработаны принципы построения структур транспортных подсистем корпоративных сетей, обеспечивающих повышение их производительности при снижении процента информационных потерь из-за блокировки кадров в общих ресурсах.

6. Разработаны методики, алгоритмы и программы для экспериментальных исследований транспортных подсистем корпоративных сетей предприятия.

Достоверность полученных результатов диссертации подтверждается:

  • применением фундаментальных положений теории автоматов, теории алгоритмов и теории связи;
  • использованием известных методов теории систем массового обслуживания, теории очередей и процессов восстановления;
  • сопоставлением полученных решений с общеизвестными достоверными результатами, опубликованными в литературе;
  • экспериментальными подтверждениями для процессов в транспортной подсистеме реальной корпоративной сети МГТУ им. Н. Э. Баумана.

Практическая значимость работы состоит в:

1. Разработанных алгоритмах и программах, дополняющих известные типовые процедуры статистических исследований сетевых характеристик.

2. Разработанном программном комплексе UDPPING для генерации нагрузки на транспортные подсистемы любых сетей и анализа пропускных способностей их сегментов.

3. Разработанных методиках определения характеристик коммутаторов корпоративных сетей без остановки их функционирования в транспортных подсистемах.

4. Полученных математических моделях ряда промышленных коммутаторов конкретных фирм производителей, предлагаемых на рынке сетевого оборудования.

5. Конкретных рекомендациях по организации транспортных подсистем корпоративных сетей для снижения доли потерь информации.

Результаты работы реализованы под научным руководством автора в корпоративной сети МГТУ им. Н. Э. Баумана и используются при ее эксплуатации, модернизации и развитии. Отдельные разработки диссертации используются в корпоративных сетях Российского НИИ Развития Общественных Сетей и Российском научном центре «Курчатовский институт».

Основанием для выполнения работы явились исследования, проводимые автором лично и под его научным руководством с 1993 года по настоящее время в МГТУ им. Н. Э. Баумана в рамках следующих Федеральных программ: ФЦП «Интеграция науки и высшего образования России» (2002 – 2006 гг, направление 3.13 «Совместная разработка и адаптация вузами и исследовательскими организациями программ научно-методического обеспечения подготовки кадров в области суперкомпьютерных, информационных и наукоемких технологий», направление 4.16 «Развитие интегрированной сети с высокоскоростными телекоммуникационными каналами»), «Электронная Россия» (2002 – 2005 гг), «Развитие единой образовательной информационной среды» (2002 – 2005 гг), а также ряда госбюджетных и хоздоговорных НИР.

Апробация работы и публикации

Основные положения, представленные в диссертации докладывались и обсуждались на следующих научных мероприятиях: Телематика-2000: Международная НМК – Санкт-Петербург 2000 г, Создание телекоммуникационной среды высокопроизводительных технологий  в регионах России: состояние, проблемы ВНТС – Уфа  2000 г, Relarn – 2001: VIII конференция представителей региональных научно-образовательных сетей – Петрозаводск 2001 г, Телематика-2001: Международная НМК – Санкт-Петербург 2001 г, Relarn – 2002: IX конференция представителей региональных научно-образовательных сетей – Нижний Новгород 2002 г, «Информационные технологии в образовании»: Международная конференция  – Болгария 2002 г, Телематика-2003: Международная НМК – Санкт-Петербург 2003 г, Relarn – 2003: Х конференция представителей региональных научно-образовательных сетей – Санкт-Петербург 2003 г, V Международная конференция памяти академика А. П. Ершова – Новосибирск 2003 г, Современные наукоемкие технологии в промышленности России: высокопроизводительные вычисления и CALS-технологии ВНТС – Уфа 2004 г. Результаты диссертации изложены в 10-ти статьях, опубликованных в журналах, рекомендованных ВАК РФ, 1-ом научном издании, 2-х статьях в других журналах, 10-ти трудах конференций, 2-х учебно-методических пособиях и в 23-х отчетах по госбюджетным и хоздоговорным НИР, в которых диссертант являлся научным руководителем.

Структура и объем работы

Диссертация состоит из введения, 5 глав, основных выводов и результатов и списка использованных источников. Работа изложена на 249-ти страницах машинописного текста, содержит 37 рисунков и 15 таблиц. Библиографический список включает 108 наименований.

Основное содержание работы

Во введении обоснована актуальность работы, рассмотрена ее необходимость и своевременность, определены цели и задачи исследования, сформулирована научная новизна и выносимые на защиту положения, изложена структура диссертации.

В первой главе диссертации проведен анализ современного состояния стека протоколов TCP/IP, в результате которого установлено, что именно этот стек является основным для реализации в корпоративных сетях предприятий различных профилей и масштабов. Выявлено, что бурное развитие информационно-телекоммуникационных  технологий в последней трети XX века и в начале XXI столетия поставило новые задачи в области разработки и проектирования корпоративных сетей. Повсеместное проникновение технологий Internet/Intranet вывело на новый качественный уровень информационное взаимодействие структурных подразделений и отдельных пользователей в процессе функционирования предприятий и организаций различных масштабов практически во всех видах человеческой деятельности.

Стек протоколов TCP/IP де-факто вытеснил все остальные стеки практически во всех подсетях, составляющих Internet, и в корпоративных сетях предприятий. При этом на всех уровнях стека за его сорокалетнюю историю произошли и продолжают происходить существенные изменения, отражающие новые требования пользователей к количественным и качественным показателям информационного обеспечения в различных областях. Изначально ориентированный на передачу эластичного компьютерного трафика стек протоколов TCP/IP вполне успешно справился с проблемами, связанными с необходимостью доставки потребителю неэластичного трафика, характерного для приложений реального времени.

Успешное решение проблем переноса голосовой информации (IP-телефония), мультимедийной информации (видео- и аудиофайлы, IP-телевидение и радиовещание, IP-телеконференции и т.п.), информации по управлению системами реального времени (управление производственными процессами, охранные и противопожарные системы, системы мониторинга транспортных потоков и многое другое) оказалось возможным благодаря введению систем гарантированного качества обслуживания (QoS – Quality of Service), обеспечение которого затронуло все уровни стека протоколов TCP/IP.

Следует отметить наиболее существенные изменения, которые за последние двадцать лет произошли в технологии построения транспортных подсистем корпоративных сетей. На настоящее время моноканалы сетей шинной и кольцевой топологии практически полностью вытеснены иерархической (древовидной) топологией локальных сетей технологии Ethernet, построенных по принципу коммутации. При значительном удешевлении цены за порт (интерфейс) коммутаторы ЛВС фактически произвели революцию в проектировании корпоративных сетей. Переход от коаксиальных кабелей к витой паре способствовал еще большему удешевлению сетей Ethernet, а реализация технологий Fast Ethernet, Gigabit Ethernet и 10 Gigabit Ethernet (витая пара категории 6) дает основание для замены названия «стека протоколов TCP/IP» на «стек протоколов TCP/IP/Ethernet». Снижение стоимости волоконно-оптических линий связи окончательно сняло территориальные ограничения при построении корпоративных сетей, а ближайшие перспективы по внедрению технологии 40 Gigabit Ethernet и 100 Gigabit Ethernet позволяют вести речь о возможной конкуренции технологии IEEE 802.3 технологиям PDH (Plesiochronous Digital Hierarchy) и SDH (Synchronous Digital Hierarchy).

Прогресс в области микроэлектроники и, прежде всего, разработка специализированных интегральных схем ASIC (Application-specific Integrated Circuit) для развития коммуникационных технологий также оказал свое благотворное влияние. Коммутаторы, по существу являющиеся устройствами 2-го уровня эталонной модели ISO/OSI,  по своим интеллектуальным возможностям приблизились к маршрутизаторам, аппаратно реализуя алгоритмы, присущие сетевому уровню. В настоящее время наблюдается сближение сетевого и канального уровней модели ISO/OSI, широко используется MPLS (Multiprotocol Label Switching) в маршрутизации, практически во всех корпоративных сетях применяются коммутаторы 3-го уровня, появляются коммутаторы 4-го уровня. Существенно расширились интеллектуальные возможности и коммутаторов 2-го уровня, а именно: поддержка алгоритмов STA (Spanning Tree Algorithm), позволяющих резервировать сегменты ЛВС, обеспечение технологии VLAN (Virtual Local Area Network) для защиты от широковещательных штормов и повышения уровня защиты информации, классификация трафика в соответствии с уровнями QoS, управление объемом и интенсивностью трафика и т.п. Реализация коммутаторами дополнительных функций оказывает влияние на трафик информационного потока, проходящего через его интерфейсы. Выяснение характера этого влияния невозможно без соответствующих математических моделей коммутаторов в различных условиях их нагрузки.

В качестве основного объекта исследования выбрана корпоративная сеть МГТУ им. Н. Э. Баумана, которая являясь сложной гетерогенной системой как в отношении оконечных узлов, так и в отношении транзитных узлов, а также сред передачи информации представляет собой отличный полигон для исследования, анализа всех процессов, характерных для транспортных систем, реализующих физический, канальный и сетевой уровни эталонной модели ISO/OSI. Полученные результаты могут быть с высокой достоверностью распространены на корпоративные сети любых масштабов.

Декомпозиция проблемы создания методологии разработки транспортных подсистем корпоративных сетей включает в себя следующие задачи:

  • определение и характеризация нагрузки на транспортную подсистему корпоративной сети, т.е. исследование трафика источников информации при реализации различных сервисов в сети;
  • разработка математических моделей коммутаторов как основных элементов транспортных узлов корпоративной сети и анализ их влияния на трафик источников информационных потоков;
  • исследование существующих в настоящее время методов управления объемом и интенсивностью трафика информационных потоков и выработка рекомендаций по их применению в транзитных и оконечных узлах корпоративной сети;
  • разработка рекомендаций по организации неблокирующих транспортных систем и их различных структурных элементов на разных иерархических уровнях корпоративной сети.

Во второй главе диссертации классифицированы  методы описания нагрузки на транспортную подсистему (коммутационную систему) корпоративной сети, в результате чего выявлено, что процессы в узлах и сегментах транспортной подсистемы на микроуровне могут быть исследованы при наличии модели трафика, описывающей интенсивность поступления кадров в интерфейсы узлов и их длительность.

Любой оконечный узел сети имеет одно подключение к транспортной подсистеме, реализующее полнодуплексный режим обмена информацией (симплексный режим и half-duplex имеют место лишь в специальных сегментах корпоративной сети). Поэтому с точки зрения нагрузки на транспортную подсистему любой хост в сети может рассматриваться как система массового обслуживания с одним входом и одним выходом. При допущении Пуассоновского потока заявок на обслуживание, произвольном распределении времени их обслуживания (система M/G/1 нотации Кендалла) аналитическая модель описывается следующими соотношениями:

,        ,

,  ,

,  ,

где:         Ts  — среднеквадратичное отклонение среднего времени обслуживания TS;

— скорость поступления, то есть среднее количество поступающих в секунду запросов;

— среднее количество запросов, ожидающих обслуживания;

Т — среднее время ожидания;

r — среднее количество запросов в системе, ожидающих и обслуживаемых;

Tr — среднее время, которое запрос проводит в системе.

Допущение о Пуассоновском потоке заявок справедливо в клиент-серверных технологиях, если рассматривать поток запросов от множества клиентов к серверу. Вместе с тем, после установления TCP-соединений от сервера к клиенту возбуждается поток информационных кадров, размеры и интенсивностью которых определяется характером приложений. В этих же кадрах «попутной перевозкой» передается служебная информация TCP-соединения. В обратном направлении (от клиента к серверу) передаются служебные кадры подтверждения и управления TCP-соединением. Если на сетевом уровне используются алгоритмы «дырявого ведра» или «маркерного ведра», то выходной  поток кадров близок к регулярному по интенсивности. В этом случае следует ожидать и регулярности ответного потока подтверждений в TCP-соединениях. Размеры информационных кадров во многом определяются прикладным уровнем задействованных процессов, хотя для снижения накладных расходов в Internet размеры информационных кадров максимальны для большинства Web-сервисов. Для равноранговых процессов обмена информацией (P2P – Peer-to-Peer), все более популярных в сетях при распределенных Web-сервисах, характерна попеременная роль клиент-серверных потоков. Наконец, для служб с использованием UDP на транспортном уровне вообще отсутвуют потоки подтверждающих кадров.

Для выявления характеристик нагрузки, создаваемой хостами корпоративной сети на транспортную подсистему, спланирован и проведен комплекс экспериментальных исследований трафика входных и выходных информационных потоков клиент-серверных систем в корпоративной сети МГТУ им. Н. Э. Баумана, обеспечивающих общеуниверситетский сервис для различных типовых приложений. Эксперименты проводились в течение длительного периода времени в разные дни недели и в разное время с целью повышения их репрезентабильности. Экспериментальные исследования входных и выходных потоков хостов корпоративных сетей при их микросегментировании могут быть осуществлены штатными средствами коммутаторов.

Результаты обработки экспериментальных данных представлены в таблице 1.

Таблица 1.

Характеризация входных и выходных потоков информации серверов ЛВС

МГТУ им. Н. Э. Баумана

Сервер

,

кадр/с

Lcp,

Байт

p

q

ns.bmstu.ru

in

out

260

260

104

186

0,97

0,91

0,03

0,09

0,00022

0,00038

0,00027

0,00044

ftp.bmstu.ru

in

out

1527

2070

105

1288

0,97

0,16

0,03

0,84

0,0013

0,0213

0,0015

0,0217

iptv.bmstu.ru

in

out

2

306

63

1192

0,988

0,22

0,002

0,78

0,000012

0,029

0,000013

0,030

www.bmstu.ru

in

out

82

98

129

1416

0,95

0,07

0,05

0,93

0,00085

0,01

0,001

0,011

e-u.bmstu.ru

in

out

112

129

138

1432

0,95

0,06

0,05

0,94

0,00123

0,015

0,00145

0,015

db.bmstu.ru

in

out

15

18

115

619

0,96

0,62

0,04

0,38

0,00014

0,00089

0,00017

0,00093

Характеристики рассчитываются отдельно для входных (in) и выходных (out) потоков серверов (соответственно для выходных и входных потоков портов коммутатора, к которым микросегментно подключены сетевые адаптеры серверов). В информационных потоках явно просматривается многомодальность распределения длин кадров, а именно:

  • высокий процент присутствия кадров, по размерам близких к минимальному (Lmin = 60 байт для технологии Ethernet). Сюда относятся служебные кадры для установления и разрыва TCP-соединений, кадры подтверждений и т.д.;
  • высокий процент очень длинных кадров (Lmax = 1514 байт для технологии Ethernet), обеспечивающих максимальную производительность при передачи файлов больших размеров и мультимедийной информации;
  • небольшой процент кадров с размером от 500 до 600 байт, являющихся скорее всего «остатками» передаваемых файлов;
  • практически нулевой процент кадров прочих длин.

Если пренебречь невысоким (от 2 до 3 %) процентом кадров средней длины, то можно считать, что наиболее близким к реальности распределением размеров кадров в информационных потоках является дискретное распределение Бернулли, т.е. с вероятностью p размер кадра , а с вероятностью размер кадра . Величины p и q для модельного процесса легко устанавливаются по величине среднего размера кадра :

Значения p и q приводятся в соответствующих столбцах таблицы. Полезная нагрузка сети со стороны клиентов (in) или со стороны сервера (out), обозначенная как может быть подсчитана по формуле:

,

где        R – пропускная способность интерфейса (бит/с для технологии Gigabit Ethernet и бит/с  для технологии Fast Ethernet).

Реальная нагрузка на сеть должна учитывать накладные расходы технологии Ethernet, составляющие 24 байт на кадр, т.е.:

Для сервера ns.bmstu.ru, обеспечивающего выполнение службы доменных имен (транспортный протокол UDP – User Datagram Protocol), характерным является схожесть параметров нагрузки, создаваемой входным и выходным потоками. Это объясняется тем, что dns-запросы и dns-ответы помещаются в одном Ethernet кадре. Размер dns-ответа превышает размер dns-запроса. Нагрузка на сеть не превышает 0,05 % пропускной способности сегмента (R = 1000 Мбит/с).

Для файлового сервера ftp.bmstu.ru (транспортный протокол TCP, прикладной FTP – File Transfer Protocol) наблюдается существенная асимметрия входного и выходного потоков. На входе в сервер присутствуют короткие кадры подтверждений, кадры установления и разрыва TCP-соединений и небольшие кадры с запросами необходимых файлов. Сами файлы передаются длинными кадрами в исходящем потоке. Загрузка пропускной способности сегмента чуть более 2 %, что гарантирует отсутствие заторов в этом сегменте даже почти для 50-кратной пульсации трафика (R = 1000 Мбит/с).

Сервер iptv.bmstu.ru является потоковым (транспортный протокол UDP, прикладной RTP – Real-time Transport Protocol, R = 100 Мбит/с), поэтому его трафик определяется не только стремлением к повышению производительности, но и особенностью используемых алгоритмов сжатия видеоизображения MPEG-2 (Moving Picture Experts Group v. 2) и звука MP3 (MPEG-1/2/2.5 Layer 3).

Серверы www.bmstu.ru и e-u.bmstu.ru (web-серверы, транспортный протокол TCP, прикладной HTTP, R = 100 Мбит/с) реализуют технологию Intranet в корпоративной сети университета, для которой характерны короткие запросы клиентов и объемные ответы серверов, что проявляется в нагрузке (процент занятости пропускной способности на выходных потоках серверов на порядок выше, чем во входных их потоках).

Наконец сервер db.bmstu.ru (транспортный протокол TCP, R = 100 Мбит/с) обслуживает бухгалтерские подразделения университета (SQL-сервер). Для SQL-серверов также характерным является асимметрия потоков входной и выходной информации.

Входной трафик серверов является выходным трафиком клиентов, которым в рассматриваемый период времени понадобились информационные ресурсы университета, размещенные на данном сервере, и по характеристикам этих трафиков (произведение на ) можно судить о нагрузке, оказываемой на транспортную систему корпоративной сети со стороны клиентских хостов и серверов, а именно: объем трафика со стороны клиентов в общем на 2 порядка меньше общего объема трафика серверов, поэтому при анализе функционирования и при проектировании и создании транспортных подсистем следует ориентироваться на характеризацию трафика от серверов ЛВС. Клиент-серверные технологии в корпоративных сетях являются основными, при этом относительная доля Web-технологий достаточно высока и имеет тенденции к своему росту.

Общим выводом по результатам проведенных статистических исследований является утверждение о том, что основную нагрузку на сеть создают выходные потоки серверов, при этом на сегодняшний день следует отказаться от допущения экспоненциальности распределения размеров кадров, заменив его более близким к реальности дискретным распределением Бернулли. Получены расчетные зависимости определения по результатам экспериментов характеристик модельного трафика. Установлено, что самоподобные эффекты, присущие распределению длин передаваемых файлов, в транспортной подсистеме корпоративной сети проявляются появлением пауз в генерации выходного потока серверными процессами и лишь снижают нагрузку на интерфейсы коммутаторов, что позволяет не учитывать их на канальном уровне эталонной модели ISO/OSI.

В третьей главе диссертации установлены основные характеристики коммутаторов, влияющие на их производительность. Выявлены дополнительные функции коммутаторов, являющиеся обязательными в настоящее время для коммутаторов 2-го и 3-го уровней эталонной модели ISO/OSI, к которым следует отнести: поддержку алгоритма «покрывающего» дерева (STA), поддержку требований качества обслуживания (QoS), реализацию технологии построения виртуальных сетей (VLAN), поддержку какого-либо алгоритма борьбы с перегрузками в интерфейсах.

Разработана методика экспериментального определения времени продвижения кадров коммутатором (как правило, отсутствующего в характеристиках фирм-производителей), базирующаяся на использовании общепринятой для всех операционных систем компьютеров утилиты «ping», расширенной с целью увеличения точности измерения программой определения времени двойного оборота по состоянию счетчика тактов процессора, применяемого для проведения экспериментов компьютера. Двойное прохождение посылаемых кадров через исследуемые аппаратно-программные тракты и измерения на стороне компьютера-источника пакетов исключило проблему синхронизации процессов в оконечных узлах корпоративной сети. Статистические характеристики (моменты различных порядков) устанавливаются путем сравнения с результатами опорного эксперимента, состоящего в измерении времени двойного прохождения кадров между компьютерами, сетевые адаптеры которых взаимодействуют по кроссовой связи.

В результате статистических исследований ряда коммутаторов различных производителей в ненагруженном режиме установлена линейная зависимость времени от размера продвигаемого кадра, что позволяет рекомендовать в качестве математической модели коммутаторов полином первой степени длительности продвигаемого кадра. Математические модели исследуемых коммутаторов для ненагруженных режимов имеют вид (– размер кадра, измеряемый в байтах):

  • для коммутатора Cisco Catalyst 2950G:

(байт-тайм);

  • для коммутатора D-Link DES-1026G:

( байт-тайм);

  • для коммутатора 3Com Office Connect Dual Speed Switch 16 Plus (1-й и 2-й порты):

( байт-тайм);

  • для коммутатора 3Com Office Connect Dual Speed Switch 16 Plus (1-й и 16-й порты):

( байт-тайм);

Отличие значений А от единицы во всех математических моделях объясняется частичной конвейеризацией обработки кадров, при которой передача в выходной порт начинается до завершения полного приема кадра в буфер входного порта. Заметим также, что явная зависимость задержки кадров в коммутаторе фирмы 3Com от номеров коммутируемых портов свидетельствует о двухступенчатой иерархии конструкции этого коммутатора, в соответствии с которой все порты делятся на группы. Внутри каждой группы коммутация осуществляется быстрее, чем при коммутации портов, входящих в разные группы.

Несомненным достоинством предлагаемых моделей является их простота, допускающая их применение при использовании аналитических методов исследования и проектирования транспортных подсистем.

Проверка достоверности полученных математических моделей коммутаторов проводилась экспериментальными исследованиями их каскадов. Последовательное соединение коммутаторов Cisco Catalyst и 3Com (1-ый и 2-ой порты) для длин кадров 550 и 1062 байт дает расчетное значение TS  в 1163 и 2140 байт-тайм соответственно. Полученные значения для 10000 экспериментов составляют 1132 и 2160 байт-тайм, т.е. погрешность не превышает 3%. Для последовательного соединения коммутаторов Cisco Catalyst и 3Com (1-ый и 16-ой порты) на тех же длинах кадров расчетные значения – 1247 и 2217 байт-тайм, а экспериментальные значения – 1191 и 2253 байт-тайм, т.е. погрешность менее 5%. Для каскадного соединения трех коммутаторов эксперименты из 10000 замеров (в коммутаторе 3Com подсоединялись 1-й и 2-й порты) позволили установить значения задержки в 1755 и 3348 байт-тайм на длинах кадров 550 и 1062 байт. Расчетные значения для тех же длин кадров составляют 1803 и 3250 байт-тайм соответственно. При коммутации 1-го и 16-го портов коммутатора 3Com экспериментальные задержки оказались равными 1795 и 3407 байт-тайм, а расчетные значения 1887 и 3327 байт-тайм при тех же длинах кадров, т.е. во всех случаях каскадирования различия между экспериментальными и расчетными значениями не превосходили 5%.

Разработанные математические модели коммутаторов оказались работоспособными для штатных режимов их функционирования в транспортной подсистеме корпоративной сети, при которых ресурсы компьютера-источника и компьютера-приемника (а, следовательно, и ресурсы соответствующих портов коммутатора) не востребованы другими узлами корпоративной сети. Полученные результаты дали основание к рекомендации использования разработанной методики экспериментального определения необходимых статистических характеристик коммутаторов, используемых в реальных транспортных подсистемах корпоративных сетей, построенных по принципам коммутации, во время их работы. Выявлена возможность распространения разработанной экспериментальной методики на любые узлы сети при условии наличия результатов опорного эксперимента и адресуемости, т.е. при наличии IP-адреса или DNS (Domain Name System) имени сетевого узла и поддержке его программным обеспечением протокола ICMP (Internet Control Message Protocol). Более того проверено и экспериментально подтверждено рекуррентное применение разработанной методики.

Вывод о несущественном влиянии размеров очередей в интерфейсах, размеров таблиц коммутаций и прочих разделяемых ресурсов коммутатора на время продвижения кадра между его интерфейсами при условии отсутствия блокировки последних дает возможность определения значения в коммутаторах без их исключения из работы в транспортной подсистеме корпоративной сети, что и было сделано для интерфейсов коммутатора Cisco Catalyst 6500. Для портов с пропускной способностью 100 Мбит/с, находящихся на одном модуле (порты 3/47 и 3/48):

(байт-тайм),

а для портов на разных модулях (порты 3/48 и 4/48):

(байт-тайм).

Полученные в результате проведенных стендовых испытаний математические модели коммутаторов были проверены на коммутаторах, функционирующих в реальной корпоративной сети МГТУ им. Н. Э. Баумана. Вместе с тем было установлено, что при существенной загрузке ресурсов полученные экспериментальные значения RTT (Round Trip Time) могут существенно отличаться от аналитически определенных результатов. Это наблюдалось и при стендовых экспериментах для искусственно вызванных блокировок выходного интерфейса компьютера-приемника, что предопределяет необходимость в регулировании трафика в сегментах сети. Увеличение RTT имело место и при использовании в качестве компьютера-приемника какого-либо сервера корпоративной сети, что подтверждает известное положение о том, что на производительность корпоративных сетей  влияние производительности серверов более существенно, нежели производительность их транзитных узлов.

В четвертой главе рассмотрены вопросы управления корпоративными сетями. Подтверждено, что ресурсами, оказывающими влияние на производительность корпоративной сети, являются предельные пропускные способности интерфейсов транзитных и оконечных узлов сети, времена процессоров в граничных и транзитных узлах, затрачиваемые на обработку информации, и размеры буферной памяти во входных и выходных интерфейсах, выделяемые для организации различных дисциплин обслуживания очередей к общим ресурсам. Установлено, что мониторинг ресурсов может быть осуществлен на каждом интерфейсе узлов сети, однако, для централизованного управления трафиком в сегментах объем получаемой при этом информации из-за своей величины требует солидных вычислительных мощностей для ее обработки и выработки  надлежащих управляющих воздействий. Кроме того, сам сбор параметров, характеризующих занятость ресурсов, и адекватная обратная связь в свою очередь занимают сетевые ресурсы. Именно поэтому на практике применяются интегральные оценки степени загрузки ресурсов или распределенные методы управления интенсивностью трафика. Примером интегральной оценки степени загрузки ресурсов сети является измерение RTT на маршруте от источника к приемнику информации для определения необходимости повторной пересылки пакетов (из-за ошибок передачи или перегрузки, возникшей в каком-либо транспортном узле сети) в алгоритме Джекобсона транспортного протокола TCP. В качестве механизма регулирования используется алгоритм «обрубания хвостов» (DT – Drop Tail) или взвешенный алгоритм случайного раннего обнаружения (WRED – Weighted Random Early Detection) в совокупности с размером скользящего окна при предоставлении кредитов принимающей стороной. Основным недостатком этой технологии является ее полная непригодность для режима передачи информации без подтверждений, т.е. для дейтаграммных протоколов, доля которых в Internet растет в связи с расширением сервисов WWW.

Для измерения RTT на любых маршрутах транспортной подсистемы при дейтаграммных соединениях разработан программный комплекс UDPPING, проверка работоспособности которого осуществлялась на выделенном сегменте транспортной сети (рисунок 1). Все измерения проводились с погрешностью работы тактовых генераторов процессоров используемых компьютеров.

Рис. 1. Топологическая схема экспериментальной сети

Первый из запланированных экспериментов был предназначен для определения среднего значения RTT между хостами H1 и H3 при отсутствии иных потоков информации между всеми хостами. В последующих экспериментах между хостами H2 и H3 возбуждался UDP-трафик с различной интенсивностью, что меняло степень загрузки сегмента между коммутаторами SW1 и SW2 и граничного сегмента между интерфейсом коммутатора SW2 и хостом H3. Установлено, что для определения степени загрузки какого-либо сегмента в сети мы должны нагрузить этот сегмент трафиком, сравнимым по интенсивности с уже имеющимся, при этом реальная нагрузка выявляется с высокой достоверностью только при условии превышения суммы потребной пропускной способности для исследуемого и исследующего трафиков величины предельной пропускной способности сегмента.

Наряду с методами, базирующимися на измерениях RTT, в этой же главе проанализированы существующие методы и алгоритмы распределенного управления трафиком, применяемые на интерфейсах транзитных узлов. Установлено, что при этом ведется мониторинг исключительно занятости буферного пространства, т.к. недостаточная в данный момент времени потребная пропускная способность интерфейсов или недостаточная доля времени центрального процессора для управления передачей между интерфейсами компенсируется временной буферизацией пакетов во входных и выходных очередях, т.е. размеры очередей являются комплексным показателем загруженности ресурсов узлов. Наиболее простой метод управления трафиком базируется на алгоритме DT, при котором после 100 % заполнения буфера пакеты просто отбрасываются. Известные недостатки DT (излишние  повторные передачи, глобальная синхронизация, потеря информации в дейтаграммных протоколах и т.д.) привели к разработке WRED, который и по сей день функционирует на портах коммутаторов и маршрутизаторов.

Для уменьшения процента потерь кадров разработаная технология регулирования интенсивности трафика также опирается на локальный мониторинг занятости буферов очередей в интерфейсах транзитных узлов корпоративной сети. При этом в каждой очереди предложено установить некоторое граничное значение (порог). Если размер очереди превышает установленный порог, то аналогично методу WRED (оперирующему с входным кадром) в отношении источника входного кадра очереди осуществляется приостановка его деятельности, т.е. выдается управляющий кадр PAUSE. Разработанный метод может использоваться совместно с алгоритмами DT или WRED.

Для проверки возможности разработанной технологии была развернута экспериментальная сеть, нагрузка сегментов которой осуществлялась генерацией квазирегулярного трафика UDP сегментов, осуществляемой программными модулями, разработанными в рамках настоящей работы для измерения RTT между хостами сети. Функционирование трехпортового коммутатора имитировалось на персональном компьютере (PC-SW) специально разработанной программой (рисунок 2).

Рис. 2. Схема экспериментальной сети

При отсутствии механизма отсылки пауз наблюдалась ожидаемая ситуация по количеству потерянных из-за переполнения буферных пространств пакетов. Включенный механизм отсылки пауз подтвердил свою работоспособность для пороговых значений длин очередей. Если происходила приостановка (пауза) только одного из конфликтующих процессов генерации, то при выдерживании предельной пропускной способности выходного интерфейса хоста H3 происходило соответствующее снижение интенсивности генерации пакетов тем хостом, на который имитировалась отсылка управляющего кадра PAUSE. При отсылки управляющих пакетов  на источники и блокируемого, и блокирующего потоков имело место приблизительно одинаковое снижение реальной интенсивности генерации пакетов обоими хостами. При уровне порогового значения 0,75 очень редко наблюдались единичные потери пакетов из-за срабатывания алгоритма DT при придельной интенсивности генерации на обоих хостах (125 пакетов в секунду), что может быть объяснено только случайными факторами в работе операционной системы компьютеров. В целом полученные экспериментальные результаты показали принципиальную возможность управления интенсивностью трафика в сегментах коммутируемых корпоративных сетей с помощью механизма, сочетающего алгоритм случайного раннего обнаружения с отсылкой управляющего кадра PAUSE.

В пятой главе приводятся результаты экспериментальных исследований трафика в сегментах уровня распределения и магистрали транспортной подсистемы корпоративной сети МГТУ им. Н. Э. Баумана. Статистический анализ результатов экспериментов показал удвоение общего объема трафика за последние два года, а доля трафика, переносимого по протоколу UDP выросла более, чем в три раза. Выявленные тенденции, по-видимому, будут сохраняться в ближайшие годы, что объясняется ростом номенклатуры сервисов, базирующихся на прикладных протоколах реального времени (IP-телефония, IP-видеоконференции, IP-телевидение и радиовещание, видеонаблюдение, охранная и противопожарная сигнализация и т.п.)

Статистическое экспериментальное исследование длин пакетов в различных магистральных сегментах ЛВС МГТУ им. Н. Э. Баумана осуществлялось аналогично анализу принадлежности пакетов различным протоколам в разные дни недели в разное время суток. В сегментах, подключенных к портам коммутатора Cisco Catalyst 6500, использовался модуль NAM (Network Analysis Module), обеспечивающий зеркализацию трафика любого интерфейса с последующей необходимой обработкой. Для сегментов, не имеющих непосредственного подключения к коммутатору Cisco Catalyst 6500, с этой целью использовалась программа tcpdump под операционной системой FreeBSD версии 7.0. Предварительно также осуществлялась зеркализация исследуемого интерфейса. В современных коммутаторах фирмы Cisco для захвата трафика могут быть использованы команды операционной системы IOS (Internetwork Operating System). В частности команда «tshark», дополненная программой статистического анализа, позволила установить гистограммы распределения длин кадров во входящем и исходящем потоках коммутаторов Cisco Catalyst, на которых построено ядро ЛВС МГТУ им. Н. Э. Баумана.

Для повышения репрезентативности наблюдения проводились в разные дни недели в разное время суток (за исключением воскресенья). Ежедневно анализировалось по 10 000 кадров в каждом сегменте в периоды с 900 до 1000, с 1400 до 1500 и с 1800 до 1900. Исследовался трафик в трех внутренних сегментах ядра корпоративной сети, а также во внешнем сегменте, осуществляющем транспорт между корпоративной сетью университета и его провайдером (RunNET).

Для всех сегментов наблюдалась явная асимметрия длин кадров во входящих и исходящих потоках  портов коммутатора Cisco Catalyst 6500. В исходящих потоках внутренних сегментов процент длинных кадров более высок по сравнению с входящими потоками. Это можно объяснить тем, что исходящие потоки направлены к пользователям ЛВС. Поэтому при преобладании протокола TCP именно к клиентам направлена основная информация от серверов университета, подключенных к коммутатору Cisco Catalyst 6500, обслуживающих практически все общеуниверситетские службы и подразделения. Во внешнем сегменте наблюдалась противоположная картина, однако это объясняется, тем, что входящий для коммутатора Cisco Catalyst 6500 поток является исходящим из Internet информационным потоком. В обратных потоках, как и следовало ожидать, преобладают короткие кадры. Как в исходящих, так и во входящих информационных потоках имело место значительное отличие размеров кадров Ethernet от экспоненциального распределения, что существенно отражается как на пропускной способности сегментов, так и на работе самих коммутаторов, т.к. время коммутации явно зависит от длины кадров. В процентном соотношении явно прослеживается бимодальность распределения размеров кадров, при котором преобладание коротких и длинных кадров в информационных потоках весьма существенно по отношению к кадрам средней длины. Иллюстрацией этого факта может служить гистограмма распределения размеров кадров во входящем и исходящем потоке сегмента, соединяющего интерфейсы коммутаторов Cisco Catalyst 6500 и Cisco Catalyst 5500, представленная на рисунке 3.

Рис. 3. Гистограмма распределения длин кадров во внутреннем сегменте магистрали

Явная бимодальность гистограмм распределения размеров длин кадров, а также ограниченность их размеров заставляет отказаться от гипотезы экспоненциального распределения. Более соответствует действительности распределение Джонсона, зависящее от четырех параметров:

где:         a = - минимальная длина кадра;

       b = - максимальная длина кадра;

и – параметры формы.

Хотя все моменты распределения Джонсона существуют, но они чрезвычайно сложны, поэтому плотность не может быть использована для аналитических исследований ЛВС, хотя вполне возможно ее применение при имитационном моделировании трафика в магистральных сегментах. Более производительным в этой ситуации может оказаться использование дискретного распределения Бернулли, описанного выше.

В таблице 2 приводятся результаты определения p и q для распределения Бернулли в каждом из трех внутренних исследуемых сегментах (№№ 1, 2, 3) и во внешнем (№ 4) сегменте. Расчеты проводились для = 60 байт и = 1514 байт.

Таблица 2.

Значение p и q в распределении Бернулли

№ сегмента

in/out

Cb,

бит/с

Cp,

кадр/с

Lcp,

байт

p

q

1

in

out

2226000

11985000

950

1530

267

980

0,86

0,37

0,14

0,63

2

in

out

5000000

19521000

2932

3555

214

687

0,89

0,59

0,11

0,41

3

in

out

3066000

85703000

9095

11225

421

954

0,75

0,39

0,25

0,61

4

in

out

185599000

52626000

27401

22800

846

289

0,46

0,84

0,54

0,16

В таблице приводятся экспериментально установленные значения битовой (Cb) и кадровой (пакетной Cp) скорости во входных (in) и выходных (out) потоках информации интерфейсов коммутаторов, по которым рассчитываются Lcp, p и q.

При линейной зависимости времени обслуживания кадра в коммутаторе от длины этого кадра с вероятностью p и с вероятностью q. Среднее значение времени обслуживания:

Дисперсия времени обслуживания:

.

Коэффициент А в формулах в модели M/G/1 (см. выше) будет равен:

Если учесть значения размеров максимального и минимального кадров технологии Ethernet, то можно убедиться, что для экстремальных значений и (т.е. для или ) величина , что эквивалентно системе M/D/1, т.е. случаю с детерминированным временем обслуживания. При величина что практически эквивалентно гипотезе экспоненциального распределения длины кадров (). Таким образом, при пуассоновском потоке кадров, поступающих на входной порт коммутатора и бимодальном распределении времени обслуживания  (распределение Бернулли) потребные ресурсы оказываются ниже, чем при допущении об экспоненциальном распределении.

В этой же главе рассмотрены типовые ситуации в корпоративных сетях, при которых какой либо ресурс в рассматриваемый период времени востребован одновременно и равновероятно m процессами из K, протекающих в узлах сети. Показано, что вероятность востребованности m процессами рассматриваемого ресурса равна:

, m = 0, 1, …, K,

где:   – число сочетаний из K по m.

Равенство означает невостребованность ресурса, а – факт востребованности данного ресурса только одним процессом.

На рисунке 4 приводятся зависимости значений и от числа процессов K.

Рис. 4. Зависимость и от числа конкурирующих за ресурс процессов

При достаточно большом числе процессов, нуждающихся в данный момент времени в рассматриваемом ресурсе значения и быстро сходятся к величине , так как .

Блокировка ресурса возможна только при обращении к нему в рассматриваемый интервал времени двух и более процессов, следовательно, вероятность блокировки равна:

Полученные вероятностные оценки состояния ресурса можно применять при анализе различных ситуаций в транспортных подсистемах корпоративных сетей. Так для классических стандартов 10Base5 и 10Base2 технологии Ethernet для захвата моноканала без коллизий необходимо и достаточно, чтобы он был востребован только одной рабочей станцией, поэтому предельная полезная пропускная способность для этих стандартов составляет Мбит/с при достаточно большом числе рабочих станций в одном домене коллизий (), что согласуется с результатами методов CSMA/CD и «дискретная ALOHA». Если в качестве общего ресурса рассматривать  интерфейс коммутатора, на котором осуществляется мультиплексирование потоков от других его интерфейсов, то время задержки на коммутаторе оказывается равным  . Математическое ожидание числа выходных интерфейсов, одновременно обращающихся к данному выходному (и наоборот) может быть найдено как среднее бимодального распределения , где – вероятность коммутации входного и выходного интерфейсов.

Общее правило отсутствия блокировки или правило доступности ресурса может быть распространено на любые механизмы информационного взаимодействия в сетях. Если, например, в каждом из входных интерфейсов интенсивность поступления кадров , средняя длительность этих кадров , а пропускная способность требуемого выходного порта R, то условие доступности ресурса, заключающееся в отсутствии перекрытия времени продвижения кадров с учетом возможной их конкуренции может быть записано в следующем виде:

Если на сетевом уровне какого-либо источника используется алгоритм «дырявого ведра», то последнее неравенство дает возможность установить минимальный интервал на его выходе (i = 1, K = 1):

Для проверки полученных ограничений по доступности ресурсов в реальной корпоративной сети был спланирован и проведен эксперимент, схема которого представлена на рисунке 5.

Рис. 5. Топологическая схема проведения эксперимента по доступности ресурсов сети.

В качестве исследуемых ресурсов корпоративной сети были выбраны потоковые сервера S1 и S2 центра IP/TV университета, подключенные через коммутатор SW3 (Cisco Catalyst 2950) к магистрали корпоративной сети сегментами с пропускной способностью 100 Мбит/с. Проверка правила доступности ресурсов осуществлялась для следующего плана проведения эксперимента:

  1. Измерялось значение RTT утилитой «ping» и комплексом UDPPING для свободных серверов S1 и S2 (без трансляции телепередач в корпоративную сеть) и без дополнительной нагрузки на соответствующие сегменты транспортной подсистемы со стороны хоста H4. Посылка серий из различных длин пакетов (10 серий по 10000 пакетов) выполнялась с хоста H1 на серверы S1 и S2, обработка результатов проводилась на этом же компьютере. Статистически обработанные результаты представлены в колонке под №1 таблицы 3.
  2. С серверов S1 и S2 велась трансляция в сеть двух каналов эфирного телевидения, дополнительная нагрузка на ресурсы сети со стороны хоста H4 отсутствовала. Информационные потоки от серверов S1 и S2 в формате MPEG2 со скоростью 3 Мбит/с каждый мультиплексировались коммутатором SW3, передавались на коммутатор SW1, дополнительно мультиплексировались с имеющимися в данный момент рабочими потоками в сегменте транспортной подсистемы между коммутаторами SW1 и SW2 и выделялись из суммарного потока коммутатором SW2 для передачи на хосты H2 и H3. В это же время проводилось зондирование ресурсов со стороны хоста H1 по сценарию п. 1. Результаты экспериментов представлены в столбце №2 таблицы 3.
  3. Выполнялись экспериментальные исследования, аналогично п. 2, но одновременно на сервер S1 с хоста H4 направлялся квазирегулярный поток пакетов длинной байта, что дает длину кадра байта = 10000 бит. При интенсивности их посылки (интервал между кадрами с) нагрузка сегментов между H4 и S1 составляла 50 %. Статистические результаты исследований представлены в столбце №3 таблицы 3.
  4. Повторно выполнялись экспериментальные исследования ресурсов сети аналогично п.3 при той же длине пакетов в трафике от хоста H4 и интенсивности их посылки (с), что соответствует нагрузке 95 % пропускной способности сегментов. Результаты измерения RTT представлены в столбце №4 таблицы 3.

Таблица 3.

Экспериментальные значения RTT

Метод

L,

байт

RTT, байт-тайм

1

2

3

4

Ping

64

4275

4320

8112

10035

1460

21850

23990

27190

28480

UDPPING

64

4696

4992

8696

10973

1460

22725

24873

28542

30132

Для ненагруженных режимов работы серверов измеренные значения RTT утилитой «Ping» практически совпадают с их расчетными значениями (погрешность не более 1,5 %). Для зондирования комплексом UPDPING имеет место увеличение RTT, что и следовало ожидать, т.к. UPDPING работает на прикладном уровне стека протоколов TCP/IP, а утилита «Ping» ограничивается сетевым уровнем. Этим объясняется и расхождения в экспериментальных результатах при всех остальных исследованиях для различных режимов нагрузки серверов. Необходимо заметить, что при реальных оценках каких-либо процессов, выполняемых в распределенных информационно-вычислительных системах, реализуемых, как правило, на прикладных уровнях, результаты UPDPING следует считать более соответствующими действительности.

Результаты проведенных экспериментальных исследований подтверждают необходимость соблюдения правила доступности ресурсов при проектировании транспортных подсистем корпоративных сетей, т.к. блокировка возможна во всех ресурсах транспортной подсистемы и источников информации, востребованность которых в данный момент времени реальными процессами в сети не исключена.

Разработать и реализовать транспортную подсистему корпоративной сети, обеспечивающую неблокирующие режимы передачи информационных потоков на всех свих участках невозможно, так как невозможно заранее предсказать объемы и интенсивность трафика в информационных потоках предприятия, которые к тому же постоянно меняются с развитием и внедрением новых информационных и коммуникационных технологий. Например, реализация алгоритма STA в коммутаторах корпоративных сетей позволило осуществить горячее резервирование в транспортных подсистемах за счет прокладки избыточных сегментов в кабельных системах. Переход на протокол RSTP снизил время переключения на новую активную топологию сети до 1 – 2 с, а реализация технологии MSTP (Multiple Spanning Tree Protocol) совместно с технологией VLAN позволила задействовать резервные сегменты транспортной системы, повысив общую производительность корпоративной сети. Разделение информационных потоков в транспортной подсистеме, изначально являвшееся целью технологии MSTP, позволило более тщательно подойти к проблеме востребованности общих ресурсов всей корпоративной сети предприятия, включая технологию организации серверных пулов. В 2003 г. была принята новая редакция стандарта IEEE 802.1Q, вводившая протокол MSTP, который явился развитием технологии использования PVST и PVST+ (Per-VLAN Spanning Tree Protocol), внедренный компанией Cisco  в свои коммутаторы Cisco Catalyst. Технология  MSTP кроме общего «покрывающего» дерева (CST – Common Spanning Tree) позволяет организовать в транспортной подсистеме для каждой виртуальной сети свое «покрывающее» дерево со своим «корневым» коммутатором, ветви которого могут взаимно не перекрываться и использовать разные сегменты транспортной подсистемы. Сказанное иллюстрируется рисунком 6, на котором приводится фрагмент трехуровневой корпоративной сети предприятия (рисунок 6а).

Рис. 6. Использование протокола MSTP для распределения трафика двух виртуальных сетей.

В варианте, приведенном на рисунке 6а, в транспортной подсистеме отсутствуют заблокированные сегменты кабельной системы и заблокированные порты коммутаторов. Общий сегмент между коммутаторами SW1 и SW2 доступен для обеих VLAN, но он не используется хостами виртуальных сетей. Сегменты между SW1 и SW4, а также между SW2 и SW3, являясь тупиковыми для соответствующих «покрывающих» деревьев в этих активных топологических конфигурациях, также находятся в «горячем» резерве и не используются транспортными потоками от хостов пользователей и обратно.

Предположим теперь, что пользователю хоста H1 понадобились ресурсы VLAN1, а пользователю хоста H2 – ресурсы VLAN2. Возможно несколько вариантов перенастройки сети. Первый из них заключается в переконфигурации интерфейсов серверов (что и осуществлялось до внедрения MSTP). Например, сервер S1 включается и в VLAN1, и в VLAN2 (рисунок 6б). Второй вариант реализуется переконфигурацией интерфейсов хостов пользователей, т.е. включением H1 и H2 в обе VLAN корпоративной сети (рисунок 6в). По соображениям безопасности первый вариант уступает второму, т.к. позволяет всем хостам VLAN1 иметь доступ к информационным ресурсам сервера VLAN2 и наоборот. Однако второй вариант обладает еще одним существенным преимуществом. Каждый из клиентов может активно в данный момент времени работать только с одним из серверов (хотя обмен служебными сообщениями, поддерживающие открытые сессии TCP-соединений ведется обоими серверами), следовательно и информационные потоки будут задействовать общие ресурсы либо VLAN1, либо VLAN2, т.е. осуществляется более тщательное распределение информационных потоков в соответствии с нуждами пользователей в каждый момент времени и исключается ситуации, при которых информационные потоки от S1 задействуют общие ресурсы VLAN2. При постоянном мониторинге распределения информационных потоков в транспортной системе технология сочетания VLAN и MSTP предоставляет возможность сетевым администраторам и интеграторам более тщательно распределить (возможно и на разных иерархических уровнях) информационные ресурсы в корпоративной сети, снизив нагрузки на пулы серверов и информационные порталы, повысив тем самым общую производительность сети.

Основные результаты и выводы

1. Проведен анализ текущего состояния, тенденций и перспектив развития корпоративных сетей, характерными особенностями которых являются: доминирующее положение стека протоколов TCP/IP, все большее проникновение технологий Internet в бизнес-процессы предприятий, переход на коммутационный принцип построения транспортных подсистем с микросегментированием, переход на технологию Ethernet на канальном. обязательный учет требований QoS.

2. Классифицированы модели взаимодействия источников и стоков информации в корпоративных сетях и установлено, что все их многообразие базируется на принципе «запрос-ответ» по двух- трех- и многозвенъевой клиент-серверной технологии.

3. В результате экспериментальных исследований источников информации в корпоративной сети МГТУ им. Н. Э. Баумана установлено, что более 90 % нагрузки на  транспортную подсистему приходится на долю выходных потоков серверных процессов, хотя они вызваны именно клиентскими запросами.

4. Проверена возможность моделирования выходных потоков кадров для серверных процессов бимодальным распределением Бернулли. Получены расчетные зависимости определения характеристик модельного трафика по результатам экспериментов.

5. Разработана методика экспериментального определения времени продвижения кадров коммутатором, базирующаяся на использовании общепринятой для всех операционных систем компьютеров утилиты «ping», расширенной с целью увеличения точности измерения программой определения времени двойного оборота по состоянию счетчика тактов процессора применяемого для проведения экспериментов компьютера.

6. В результате статистических исследований ряда коммутаторов различных производителей в ненагруженном режиме, установлена линейная зависимость времени от размера продвигаемого кадра, что позволяет рекомендовать в качестве математической модели коммутаторов полином первой степени длительности продвигаемого кадра. Полученные модели проверены экспериментально для двух- и трехкаскадного взаимодействия различных моделей коммутаторов, предлагаемых в настоящее время рынком сетевого оборудования.

7. Подтверждена работоспособность разработанных математических моделей коммутаторов для штатных режимов их функционирования в транспортной подсистеме корпоративной сети МГТУ им. Н. Э. Баумана, при которых ресурсы компьютера-источника и компьютера-приемника (а, следовательно, и ресурсы соответствующих портов коммутатора) не востребованы другими узлами корпоративной сети.

8. Разработан программный комплекс для мониторинга загрузки пропускной способности маршрутов в транспортной подсистеме корпоративной сети, реализующий логику утилиты «ping», включающий три программных модуля, работоспособность которого проверена на различных маршрутах реальной корпоративной сети МГТУ им. Н. Э. Баумана.

9. Разработана технология распределенного регулирования интенсивности трафика, которая опирается на локальный мониторинг занятости буферов очередей в интерфейсах транзитных узлов корпоративной сети.

10. Установлена и экспериментально подтверждена возможность моделирования маршрутов в транспортной подсистеме любой корпоративной сети цепочками очередей. Показано существенное отличие распределения длин кадров, передаваемых по сегментам транспортной подсистемы корпоративной сети от экспоненциального закона распределения. Обосновано правило ориентации на информационные потоки от многопользовательских источников информации при проектировании, анализе и разработке транспортных подсистем корпоративных сетей и их элементов.

11. Предложен метод определения доступности общих ресурсов транспортной подсистемы. Получены вероятностные зависимости различных вариантов состояния ресурса при его востребованности одновременно несколькими процессами в узлах сетей. Проанализированы возможности построения неблокирующих транспортных подсистем корпоративных сетей. Рассмотрены новые возможности повышения производительности транспортных подсистем, предоставляемые сочетанием технологии построения виртуальных сетей и технологии организации многоплановых «покрывающих» деревьев, с учетом детализации востребованности общих ресурсов различными процессами.

Таким образом, в диссертации решена крупная научная проблема, имеющая важное народно-хозяйственное значение для развития корпоративных сетей предприятий и организаций различных масштабов, а именно:

  1. Разработаны математические модели оконечных и транзитных узлов корпоративных сетей, соответствующие реальным информационным процессам канального уровня, протекающим в сегментах транспортных подсистем современных корпоративных сетей;
  2. Разработаны методы анализа и управления интенсивностью трафика в сегментах транспортных подсистем корпоративных сетей на различных иерархических уровнях, повышающие эффективность мониторинга;
  3. Разработаны научные основы проектирования транспортных подсистем корпоративных сетей, построенных по принципу коммутации, в основе которых применено выведенное правило доступности ресурсов для повышения их общей производительности;
  4. Разработанные математические модели, методы, алгоритмы и программные модули доведены до уровня, позволяющего использовать их в практике проектирования, исследования, управления и эксплуатации корпоративных сетей.

Эффективность комплекса программных средств подтверждается их внедрением для мониторинга, анализа и управления ЛВС в следующих организациях:  МГТУ им. Н.Э. Баумана, Российский НИИ Развития Общественных Сетей и Российский научный центр «Курчатовский институт». Разработанное программное обеспечение внедрено в учебный процесс и используется студентами в курсовом и дипломном проектировании.

Список основных публикаций

  1. Бойченко М. К., Иванов И. П. Исследование характера трафика в магистральных сегментах ЛВС МГТУ им. Н. Э. Баумана. М.:  Вестник МГТУ. Приборостроение. 2009. - №3. стр. 12-21.
  2. Бойченко М. К., Иванов И. П. Мониторинг ресурсов узлов корпоративной сети.  М.:  Вестник МГТУ. Приборостроение. 2010. - №2. стр. 114-120.
  3. Ващенко Б. И., Иванов И. П., Колобаев Л. И., Сюзев В. В. Система автоматизированного проектирования компьютерной сети NetWizard. – М.: МГТУ, 2006.
  4. Ващенко Б. И., Иванов И. П., Колобаев Л. И., Сюзев В. В. Проектирование сети кампуса. – М.: МГТУ, 2006.
  5. Гузненкова Г. Н., Иванов И. П., Коршунов С. В. Подготовка и переподготовка ИТ-кадров. Проблемы и перспективы. – М.: Горячая линия – Телеком, 2005.
  6. Иванов И. П, Колобаев Л. И., Лохтуров В.А. Система адаптивного управления трафиком. М.:  Вестник МГТУ. Приборостроение. 2005. - №2. стр. 98-108.
  7. Иванов И. П., Колобаев Л. И., Чеповский А. М. Программа подготовки программистов в техническом университете и Computing Curricula’2001. Перспективы систем информатики. – Доклады V Международной конференции памяти академика А. П. Ершова. – Новосибирск, 2003.
  8. Иванов И. П., Колобаев Л. И., Чеповский А. М. Разработка учебных планов и программ подготовки  специалистов по новой специальности в техническом университете. – Современные наукоемкие технологии в промышленности России: высокопроизводительные вычисления и CALS-технологии. – Материалы ВНТС. - Уфа, 2004.
  9. Иванов И. П., Коршунов С. В. Высшее инженерное образование в МГТУ им. Н.Э. Баумана на основе информационных и телекоммуникационных технологий. –  «Информационные технологии в образовании»: Материалы международной конференции. – Болгария, – М.: МЭСИ, 2002.
  10. Иванов И. П., Лохтуров В. А. Программный комплекс зондирования ресурсов сегментов корпоративных сетей UDPPING. Свидетельство о государственной регистрации программы для ЭВМ № 2010612326 – М: Роспатент, 2010.
  11. Иванов И. П., Орлов А. П., Рыбин С. В. Информационно-вычислительная сеть МГТУ.  М.:  Вестник МГТУ. Приборостроение. 1998. - №2. стр. 74-86.
  12. Иванов И. П., Самарский Д. А. Принципы построения систем управления делопроизводством с использованием технологии CORBA.  М.:  Вестник МГТУ. Приборостроение. 2002. - №2. стр. 52-64.
  13. Иванов И. П., Самарский Д. А. Развитие опорной интегрированной сети с высокоскоростными телекоммуникационными каналами. – Телематика-2003: Труды Международной НМК. – Санкт-Петербург, 2003.
  14. Иванов И. П., Успенский А. Ю. Анализ методов защиты информации в радиоканалах стандарта IEEE 802.11.  М.:  Вестник МГТУ. Приборостроение. 2002. - №4. стр. 64-72.
  15. Иванов И. П., Чеповский А. М. Макаров А. В. Одинцов О. В. Исследование производительности кластерной вычислительной установки для различных операционных систем. – Relarn – 2003: Материалы Х конференции представителей региональных научно-образовательных сетей. – Санкт-Петербург, 2003.
  16. Иванов И. П. Интегральная оценка состояния ресурсов пользовательского маршрута в корпоративной сети.  М.:  Вестник МГТУ. Приборостроение. 2010. - №2. стр. 48-60.
  17. Иванов И. П. Использование информационных технологий в МГТУ им. Н. Э. Баумана. – Полёт. – 2000. – Спец. вып.
  18. Иванов И. П. Кластер как компонент высокопроизводительной  распределённой системы. – Relarn – 2001: Материалы VIII конференции представителей региональных научно-образовательных сетей. – Петрозаводск, 2001.
  19. Иванов И. П. Математические модели коммутаторов локальных вычислительных сетей.  М.:  Вестник МГТУ. Приборостроение. 2009. - №2. стр. 84-92.
  20. Иванов И.П. Оценка трафика информационных потоков серверов в корпоративной сети.  М.:  Вестник МГТУ. Приборостроение. 2009. - №3. стр. 3-11.
  21. Иванов И. П. Создание высокоскоростной телекоммуникационной среды в МГТУ им. Н. Э. Баумана. – Создание телекоммуникационной среды высокопроизводительных технологий  в регионах России: состояние, проблемы: Материалы ВНТС. – Уфа, 2000.
  22. Иванов И. П. Создание и развитие высокоскоростных каналов связи и информационно-вычислительной сети МГТУ им. Н. Э. Баумана. – Телематика-2000: тезисы доклада Международной НМК. – Санкт-Петербург, 2000.
  23. Иванов И. П. Создание системы высокопроизводительных ресурсов в МГТУ им. Н.Э. Баумана. – Relarn – 2002: Материалы  IX конференции представителей региональных научно-образовательных сетей. – Нижний Новгород, 2002.
  24. Иванов И. П. Создание центра высокопроизводительных вычислений на базе кластерной системы и высокоскоростной корпоративной сети. – Телематика-2001: Труды Международной НМК. – Санкт-Петербург, 2001.
  25. Иванов И. П. Управление интенсивностью трафика в сегментах корпоративных сетей  М.:  Информатизация образования и науки. 2010. - №3. стр. 52-58.
  26. Информационная управляющая система МГТУ им. Н. Э. Баумана «Электронный университет»: концепция и реализация / Т. И. Агеева, А. В. Балдин, И. П. Иванов и др.: [под ред. И. Б. Федорова, В. М. Черненького]. – М.: Изд-во МГТУ им. Н. Э. Баумана, 2009.



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.