WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


На правах рукописи

Ржеуцкий Александр Викторович Модель, метод и комплекс программ для решения задачи классификации с использованием генетических алгоритмов 05.13.18 – Математическое моделирование, численные методы и комплексы программ

Автореферат диссертации на соискание ученой степени кандидата технических наук

Санкт-Петербург – 2012

Работа выполнена на кафедре автоматики и вычислительной техники федерального государственного бюджетного образовательного учреждения высшего профессионального образования «Вологодский государственный технический университет»

Научный консультант: кандидат технических наук, доцент Суконщиков Алексей Александрович

Официальные оппоненты: доктор технических наук, профессор, заведующий кафедрой вычислительных систем и информатики Санкт-Петербургского государственного университета водных коммуникаций Марлей Владимир Евгеньевич кандидат технических наук, инженер-программист филиала ОАО «Межрегиональная распределительная сетевая компания Северо-Запада» «Вологдаэнерго» Сергушичева Мария Александровна

Ведущая организация: федеральное государственное бюджетное образовательное учреждение высшего профессионального образования «Владимирский государственный университет»

Защита диссертации состоится 19 сентября 2012 г. в _____ часов на заседании диссертационного совета Д212.238.01 Санкт-Петербургского государственного электротехнического университета “ЛЭТИ” имени В.И. Ульянова (Ленина) по адресу:

197376, Санкт-Петербург, ул. Профессора Попова, 5.

С диссертацией можно ознакомиться в библиотеке Санкт-Петербургского государственного электротехнического университета «ЛЭТИ» им. В.И.Ульянова (Ленина).

Автореферат разослан 11 июля 2012 г.

Ученый секретарь диссертационного совета Щеголева Н.Л.

ОБЩАЯ ХАРАКТЕРИСТИКА РАБОТЫ

U

Актуальность темы.U Современные корпоративные хранилища данных содержат огромные массивы информации, накопленной за длительный период эксплуатации информационных систем предприятий. Различные категории пользователей постепенно начинают осваивать открывшиеся возможности глубокого анализа накопленных данных как средства извлечения знаний, полезных для понимания причин тех или иных явлений в области деятельности и снижающих степень риска при принятии решений. В связи с потребностями практики мощный импульс развития получили вычислительные методы анализа данных с помощью обобщенных математических моделей, способных к обучению на основе совокупности фактов (прецедентов), накопленных в информационной системе.

Данное направление, получившее название обучения по прецедентам (машинного обучения – machine learning), развивается в работах С.А. Айвазяна, П. Бартлетта, В.Н.

Вапника, К.В. Воронцова, Ю.И. Журавлева, В.Л. Матросова, К.В. Рудакова, Р.

Фишера, А.Я. Червоненкиса и др.

В диссертационном исследовании решается одна из основных задач обучения по прецедентам – классификация объектов на основе известной совокупности их признаков (термин «объект» понимается широко, означая любой предмет, понятие или событие, имеющее признаковое описание). Задача состоит в отнесении объекта к одному из заранее заданных, непересекающихся классов, при этом правила классификации извлекаются из обучающей выборки, содержащей аналогичные, но уже классифицированные объекты, на этапе обучения модели классификации.

Подсистема классификации является одной из основных составляющих системы анализа данных предприятия, однако внедрение моделей и методов классификации как средства анализа деятельности происходит с большой осторожностью и определенной степенью недоверия со стороны аналитиков предметной области, что во многом объясняется недостаточной проработанностью теоретических и, особенно, прикладных вопросов в данной области.

Одной из самых востребованных на практике является модель классификации на основе деревьев решений, которая представляет собой иерархическую структуру правил классификации. Данная модель, интерпретируемая в терминах предметной области и обладающая способностью к отбору существенных признаков классифицируемых объектов, предоставляет аналитику нетривиальные знания, извлеченные из накопленных данных. Однако используемые в настоящее время «жадные» алгоритмы обучения этой модели не позволяют решать оптимизационную задачу построения дерева классификации с высокой точностью. Перспективным направлением повышения точности классификационной модели при приемлемых затратах времени на ее обучение является генетическое программирование.

Генетические алгоритмы успешно используются при обучении других моделей, однако сведений об их применении к построению деревьев классификации в доступных источниках информации не имеется. Исходя из изложенного, актуальным является исследование теоретических и прикладных аспектов эффективного применения генетического программирования для решения задачи классификации данных на основе модели деревьев решений.

U Объектом диссертационного исследованияU являются модели классификации в применении к системам анализа данных.

U Предметом исследованияU являются методы и алгоритмы обучения моделей классификации и комплексы программ для решения задачи классификации.

U Цель диссертационного исследованияU заключается в разработке метода, алгоритмов и комплекса программ для решения задачи классификации данных, позволяющих повысить качество обученной модели классификации за счет применения генетического программирования на этапе обучения.

U Основные задачи

исследования.

1. Определить критерии качества обученной модели классификации применительно к системам анализа данных.

2. Разработать вычислительный метод обучения модели классификации на основе деревьев решений, позволяющий повысить качество обученной модели за счет применения генетических алгоритмов.

3. В рамках предложенного метода разработать эффективные алгоритмы реализации генетических операторов и общий алгоритм построения дерева, обладающий свойством масштабируемости.

4. Выполнить реализацию предложенного метода и алгоритмов в виде комплекса проблемно-ориентированных программ для проведения вычислительного эксперимента.

U Методы исследования.U Методологической базой исследования явились работы по теории машинного обучения и генетического программирования. В работе использовался математический аппарат теории вероятности и статистического анализа в приложении к задаче классификации, методы анализа алгоритмов.

U Научная новизнаU 1. Предложен метод построения деревьев классификации, основанный на применении генетического алгоритма комбинирования эвристик, позволяющий более точно решить оптимизационную задачу формирования структуры дерева, чем известные на настоящий момент методы, следовательно, способный извлекать из обучающей выборки наиболее полные и точные правила классификации.

2. Разработаны эффективные алгоритмы генетических операторов в рамках предложенного метода, обеспечившие повышение точности и обобщающей способности обученной модели классификации.

3. Доказан линейный характер зависимости времени построения дерева классификации от размера обучающей выборки, что позволяет отнести разработанный генетический алгоритм к группе масштабируемых алгоритмов машинного обучения, предоставляющих возможность эффективной обработки динамично растущих информационных массивов корпоративных хранилищ данных.

4. Разработан комплекс проблемно-ориентированных программ для проведения вычислительного эксперимента на основе предложенного метода и алгоритмов.

U Обоснованность и достоверность полученных результатовU обеспечивается корректностью применяемого математического аппарата, строгими доказательствами предложенных утверждений; результатами вычислительного эксперимента на тестовых и реальных задачах.

U Практическая значимость исследованияU заключается в разработанном автором программном обеспечении, позволяющем с высокой точностью решать задачи классификации в автоматизированных системах на платформе 1С:

Предприятие. Предложенный метод и алгоритмы позволяют повысить точность и обобщающую способность классификационной модели по сравнению со стандартным инструментальным средством построения деревьев классификации, встроенным в платформу 1С: Предприятие, при сохранении всех преимуществ данной модели.

U На защиту выносятсяU следующие основные положения и результаты.

1. Вычислительный метод построения дерева классификации, основанный на применении генетического алгоритма комбинирования эвристик, позволяющий повысить точность и обобщающую способность обученной модели классификации 2. Структуры данных и алгоритмы для реализации основных генетических операторов, адаптированные с учетом специфики построения дерева классификации.

3. Общий алгоритм реализации предложенного метода построения дерева классификации, обладающий свойством масштабируемости.

4. Комплекс проблемно-ориентированных программ на основе предложенного метода для проведения вычислительного эксперимента.

U Внедрение результатов исследования.U Теоретические и практические результаты диссертационной работы внедрены в программные продукты ООО «Логасофт». В настоящее время разработанное автором программное обеспечение апробировано в Департаменте финансов Вологодской области в составе системы электронного документооборота и в CRM-системе ООО «Бизнес-Софт», что подтверждено актами о внедрении.

Результаты работы используются в учебном процессе кафедры автоматики и вычислительной техники Вологодского государственного технического университета при преподавании дисциплин «Структуры и алгоритмы обработки данных» и «Программирование и основы алгоритмизации». Разработанная автором подсистема классификации учебных заданий по уровню сложности внедрена в систему электронного обучения кафедры автоматики и вычислительной техники, что подтверждено актом о внедрении.

Материалы работы использованы в Федеральной целевой программе «Научные и научно-педагогические кадры инновационной России» на 2009-2013 годы в рамках проектов «Информационные системы в подготовке специалистов по направлению «Теплоэнергетика» (гос. контракт № П 740 от 12.08.2009), «Разработка методов формализации и верификации распределенных информационно-поисковых систем на основе сервис-ориентированной архитектуры» (гос. контракт № 2401 от 18.11.2009), «Методология построения интеллектуальных агентно-ориентированных учебных комплексов для многоуровневой подготовки специалистов технического профиля» (гос. контракт № 02.740.11.0625 от 29.03.2010).

U Апробация результатов исследованияU. Основные результаты работы докладывались и получили положительную оценку на следующих конференциях и семинарах: Всероссийская научно-практическая конференция «Информационнотелекоммуникационные технологии» (Москва, 2010г.), Международная конференция «Информатизация процессов формирования открытых систем на основе СУБД, САПР, АСНИ и систем искусственного интеллекта» (Вологда, 2007г.), Семинар вологодского отделения РАН по искусственному интеллекту (Вологда, 2010г.), Всероссийская научная конференция студентов и аспирантов «Молодые исследователи – регионам» (Вологда, 2006, 2007, 2008 гг.), Всероссийская конференция «Вузовская наука - региону» (Вологда, 2007, 2008, 2009 гг.), Ежегодные смотры – сессии аспирантов и молодых ученых по отраслям наук (Вологда, 2007 г.).

U Публикации.U По материалам диссертационного исследования опубликовано 14 печатных работ, из них 4 статьи (3 статьи в ведущих рецензируемых научных журналах, одобренных ВАК), 10 работ – в трудах научно-технических конференций.

U Структура диссертационной работы.U Работа состоит из введения, четырех глав, заключения, библиографического списка и трех приложений. Основной текст работы изложен на 145 страницах, содержит 27 рисунков и 11 таблиц.

Библиографический список включает 101 наименование.

КРАТКОЕ СОДЕРЖАНИЕ РАБОТЫ

U Во введенииU обоснована актуальность темы диссертации, сформулированы цель и задачи работы, научная новизна, практическая значимость, указаны основные положения, выносимые на защиту.

U В первой главеU выполнены содержательная и формальная математическая постановка задачи классификации данных, выделено множество критериев качества обученного классификатора, проанализированы модели классификации. Выполнена постановка задачи диссертационного исследования.

Приведем формальную постановку задачи классификации данных. Пусть задано множество объектов X и множество K непересекающихся классов в некоторой системе классификации, причем каждому объекту xB может быть поставлен в B i соответствие класс kB. Существует также решающая функция f: XK (истинный B i.

классификатор), изначально неизвестная, но на конечном подмножестве объектов {xB,xB,…,xB } X (не на всем множестве X) известны ее значения kB K. Пары «объектB B B B 1 2 N i класс» (xB,kB B) представляют собой прецеденты.

B i i N N P Совокупность известных пар (xB B,kB B)i=1 называется обучающей выборкой XP.

i i Задача обучения по прецедентам заключается в том, чтобы восстановить зависимость f, то есть построить алгоритм a (классификатор): XK, который бы наилучшим образом (в известном смысле) приближал решающую функцию f(x), причем не только на обучающей выборке, но и на всем множестве объектов X.

В диссертации приводится также более общая, вероятностная постановка задачи классификации и геометрическая интерпретация. Делается вывод о том, что известные на сегодняшний день подходы к обучению классификатора сводятся к подбору параметров некоторой, заранее выбранной, математической модели, доставляющих оптимальное значение заданному функционалу качества обучения.

Анализ требований пользователей и выполненный обзор источников позволили систематизировать критерии качества. Выделены основные критерии, используемые в качестве целевой функции в оптимизационном процессе обучения модели (надежность, точность, обобщающая способность). В качестве дополнительных выделены критерии, значимые при выборе модели классификации (робастность, возможность отбора и ранжирования признаков объекта, интерпретируемость в терминах предметной области, универсальность и практичность) и алгоритма обучения модели (эффективность и масштабируемость).

Основные критерии качества основаны на фундаментальном понятии надежности классификации, показателем которой является вероятность правильной классификации произвольного объекта xX или (чаще) вероятность ошибки при классификации произвольного объекта. Более общим показателем надежности классификации является функционал ожидаемого (среднего) риска.

Функцией потерь L(kB, kB B) = LB B 0 назовем величину штрафа за ошибочное B i j ij отнесение объекта класса KB B к классу KB B. Тогда функционал ожидаемого (среднего) i j риска Q(a) определяется как математическое ожидание функции потерь с учетом вероятностных характеристик пространства объектов-классов XK. При использовании бинарной функции потерь функционал среднего риска Q(a) есть вероятность ошибочной классификации при применении алгоритма a.

Вычисление Q(a) на практике затруднено в силу неизвестности вероятностных характеристик пространства объектов-классов, поэтому при решении прикладных задач для оценки качества классификации используются понятия точности и обобщающей способности, которые можно определить экспериментально.

N P Функционал качества алгоритма a, вычисленный по конечной выборке XP, называется эмпирическим риском:

N L(a, xi ) N i=Q(a, X )= (1) N В случае бинарной функции потерь функционал Q вычисляется как отношение неверно классифицированных объектов к общему количеству объектов в обучающей P P выборке и называется частотой ошибок алгоритма a на выборке XN.

Широко применяемый подход к обучению по прецедентам, называемый минимизацией эмпирического риска, заключается в том, чтобы найти в рамках заданной модели A алгоритм a, минимизирующий эмпирический риск Q на заданной N P обучающей выборке XP :

мXN =arg min Qa,XN (2) aA В качестве объективной характеристики обученной модели классификации должна использоваться точность (функционал эмпирического риска) на контрольной выборке, данные из которой не использовались в процессе обучения.

Обобщающая способность алгоритма обучения определяется как результат сравнения точности классификации на обучающей и контрольной выборке. Любой алгоритм обучения по прецедентам должен иметь защиту от эффекта переобучения (overfitting), поэтому при анализе алгоритма обучения модели, наряду с точностью, определяется значение переобученности, вычисляемое как разность функционала эмпирического риска на обучающей и контрольной выборке.

Результаты сравнительного анализа моделей классификации, приведенные в работе, позволяют сделать вывод о реальных возможностях широкого использования в системах анализа данных моделей на основе нейронных сетей и деревьев классификации, что подтверждается практикой. При этом очевидные положительные качества модели деревьев классификации (универсальность, способность к отбору существенных признаков, робастность, интерпретируемость, практичность) способствуют их активному применению, но более низкие по сравнению с другими моделями показатели точности классификации обуславливают их использование во многих случаях в качестве инструмента начального, «разведочного» анализа данных с дальнейшим уточнением результатов классификации на другой модели.

Однако точность классификатора определяется не только выбранной моделью, но и алгоритмом ее обучения. В этой связи следует отметить, что наилучшие результаты при обучении других моделей часто показывают генетические алгоритмы.

В литературе не имеется сведений об апробированных генетических алгоритмах построения деревьев классификации. Тем не менее, в процессе исследования была выдвинута гипотеза о принципиальной возможности такого решения с целью оптимизации структуры построенного дерева.

U Вторая главаU посвящена описанию предлагаемого метода построения деревьев классификации на основе генетического программирования.

Деревья классификации являются наиболее распространенным вариантом более общей модели деревьев решений (деревья решений используются для решения двух задач – классификации и регрессии). Применительно к задаче классификации это способ представления алгоритма в виде иерархической структуры решающих правил, где каждому объекту, подаваемому на вход, соответствует единственный листовой узел, дающий решение - класс, к которому приналежит объект. Решающее правило для каждого узла дерева формируется на основе одного из признаков объекта, выбранного в соответствии с некоторым критерием.

Задача этапа обучения данной модели состоит в определении оптимальной структуры дерева, которая обеспечивает минимальное значение функционала эмпирического риска на контрольной выборке.

Основная идея «жадных» алгоритмов построения деревьев классификации из P обучающей выборки P была сформулирована Р. Куинленом:

1. выбор критерия разделения выборки с целью поиска наиболее подходящего признака для формирования решающего правила в каждом узле дерева;

2. разделение выборки на две или более части, в соответствии со значениями признака, выбранного на основании критерия разделения;

3. рекурсия, начиная с шага 2. Образовавшиеся подмножества разделяются на более мелкие подмножества в соответствии с выбранным критерием до тех пор, пока в каждом из них не останутся объекты одного класса, либо не останется признаков, позволяющих эти объекты различить.

Описанные шаги обобщают большинство существующих алгоритмов построения дерева классификации. Эти алгоритмы отличаются друг от друга выбором критерия разделения выборки в узлах дерева и рядом других параметров. Перечислим наиболее распространенные эвристики, используемые в качестве критериев, поскольку они будут использованы в предлагаемом генетическом алгоритме.

В некоторых алгоритмах (ID3 и C4.5) для выбора признака, на основе которого будет формироваться решающее правило, используется мера информативности подпространств признаков, которая основывается на энтропийном подходе и называется мерой информационного выигрыша или мерой энтропии. В соответствии с этим критерием, лучшим для разделения считается тот признак, который дает максимальную информацию о классах. Эта величина, называемая индексом Gain, определяется по формуле количества информации.

Gain(K | X) = H (K) - H (K | X), (3) где H(K) – это энтропия множества K, H(K|X) – средняя условная энтропия множества K при известном множестве X. Величины H(K) и H(K|X) определяются, соответственно, по формулам (4) и (5).

H (K) = - P(ki ) log2 P(ki ) (4) i H (K | X) = - P(xi ) H (K | xi ), (5) i где P(xB B) и P(kB B) – это вероятности выбора того или иного значения из множества X и i i K соответственно, а H(K|xB B) – условная энтропия, если известно, что из X выбрано i значение xB. При разделении выборки каждый раз выбирается тот атрибут, для B i которого значение Gain(K|X) максимально среди всех X.

Другой критерий разделения выборки, предложенный Брейманом (Breiman), реализован в алгоритме CART и называется индексом Gini. С помощью этого индекса признак выбирается на основании расстояний между распределениями классов.

N Gini(XN ) = 1-, (6) Pi i=N P где PB B – вероятность (относительная частота) класса i в выборке XP.

i Помимо перечисленных критериев, в некоторых случаях для разделения выборки в узлах дерева оказывается эффективен выбор признака по количеству уникальных значений в выборке. Разделение по признаку, содержащему максимальное количество значений в выборке, зачастую оказывается эффективным для числовых признаков. В этом случае в качестве порогового значения при разделении выборки можно использовать математическое ожидание признака.

Разделение по признаку, содержащему минимальное количество уникальных значений в выборке, также иногда оказывается эффективным, особенно если речь идет о дискретных (номинальных) признаках. Пороговое значение для разделения в таком случае можно выбрать также исходя из распределения значений в выборке.

«Жадные» алгоритмы построения деревьев классификации принципиально не способны находить наиболее полные и точные правила классификации данных для любой решаемой прикладной задачи, поскольку каждый из них основан только на одном определенном эвристическом критерии выбора признака разделения выборки в узлах дерева. В целях повышения точности классификации в данной работе предлагается преобразовать процесс построения дерева классификации в задачу поиска и использования оптимальной последовательности различных эвристик, применяемых в подзадачах разделения выборки в узлах дерева. Трансформированная задача будет решаться генетическими методами.

Подобный подход уже был успешно применен И.П. Норенковым к задаче синтеза расписаний и назван методом комбинирования эвристик (НСМ — Heuristics Combination Method). В данном исследовании предлагается использовать НСМ для оптимального подбора эвристик при построении дерева классификации.

Идея предлагаемого метода в схематической форме представлена на рисунке 1.

В каждой подзадаче исходной задачи, связанной с разделением выборки, выбирается критерий выбора признака для разделения выборки по одной из следующих эвристик:

S1:признак, обладающий наибольшим значением индекса Gain(K|X) (3);

N P S2: признак, обладающий наибольшим значением индекса Gini(XP ) (6);

S3: признак с наибольшим количеством различных значений в выборке;

S4: признак с наименьшим количеством различных значений в выборке;

S5: разделение выборки не производится (узел превращается в лист).

Рисунок 1 - Схема, иллюстрирующая идею предлагаемого метода Хромосома в таком случае имеет древовидную структуру. Количество генов в ней совпадает с количеством узлов дерева, их значениями могут быть номера эвристик в диапазоне [1,5]. Общий алгоритм построения дерева представлен на рисунке 2.

Рисунок 2 - Генетический алгоритм построения дерева классификации Этап эволюции генетического алгоритма соответствует выбору наиболее подходящей эвристики для рассматриваемого узла дерева. При этом используются особи с различными эвристиками в дочерних узлах. Далее производится расщепление выборки в соответствии с выбранной эвристикой и выполняется новый этап эволюции для подчиненных узлов. Новая популяция формируется из дочерних узлов дерева, что сокращает размер как хромосомы, так и выборки данных.

Чтобы обеспечить достаточное разнообразие особей, при формировании начальной популяции выполняется построение деревьев решений для каждой из эвристик [S1:S4]. Общий размер начальной популяции составляет 16 особей (4 вида эвристики для корня дерева комбинируются с 4 видами для его дочерних узлов).

Оператор кроссовера выполняется для определенного подмножества данных, соответствующего заданному узлу дерева, и включает 2 этапа:

1. Выбирается 2 хромосомы с одинаковыми генами, соответствующими корневому узлу дерева для рассматриваемого подмножества данных.

2. В каждой из родительских хромосом меняются местами значения генов, соответствующих первому и второму подчиненному узлу дерева.

Ограничениями оператора кроссовера являются необходимость совпадения эвристик для рассматриваемого узла дерева и количество дочерних узлов.

Мутация хромосом представляет собой случайное изменение эвристики для рассматриваемого узла дерева. Ее назначение – обеспечить разнообразие популяции, поэтому изменению может быть подвержена любая из хромосом, при условии, что в популяции есть аналогичная хромосома. Оптимальное количество особей для выполнения мутации k рассчитывается по формуле:

n k = maxl,, (7) где l – количество пар одинаковых хромосом, n – размер популяции.

Алгоритм мутации состоит из следующих этапов:

1. Поиск в популяции пары хромосом с одинаковым значением эвристик во всех дочерних узлах.

2. Выбор из пары одной хромосомы для мутации (случайным образом).

3. Замена эвристики в корневом узле выбранной хромосомы (новый вид эвристики также выбирается случайным образом) 4. Если количество особей для мутации меньше k и в популяции остались одинаковые хромосомы, то возврат к шагу 1.

При отборе особей используется стратегия элитизма. При этом размер популяции остается неизменным, т.е. из промежуточной популяции отбираются особей, обладающие наибольшей точностью классификации.

Работа алгоритма останавливается после выполнения всех этапов эволюции (для каждого узла, за исключением листьев). Дополнительно вводится ограничение на максимальную глубину дерева, а также на минимальное количество объектов в узле.

U В третьей главеU описаны особенности реализации, выполнена оценка временной сложности алгоритма и представлены результаты вычислительного эксперимента на тестовых данных, для которого было отобрано 7 различных наборов данных открытого репозитория UCI Machine Learning Repository.

Для повышения обобщающей способности (подавления эффекта переобучения) при построении дерева классификации принимаются следующие меры.

1. Ограничение по минимальному количеству случаев в узле. В случае, если размер образовавшихся подмножеств меньше определенного порога, разделение данных не происходит, а рассматриваемый узел превращается в лист.

2. Ограничение по максимальной глубине дерева. В случае если глубина дерева решений достигает максимума, дальнейшее разделение выборки не происходит.

3. Использование в генетическом алгоритме эвристики, связанной с прекращением дальнейшего разделения выборки (S5). Эта эвристика, наряду с другими, участвует в выполнении всех генетических операций.

4. Выделение тестовой и экзаменационной выборки данных заключается в разделении множества объектов X на три подмножества:

- обучающее множество (используется для построения деревьев решений);

- тестовое множество (для определения точности классификации полученных деревьев, необходимой для выполнения отбора особей в генетическом алгоритме);

- экзаменационное множество (для оценки точности полученного дерева классификации).

Результаты экспериментального сравнения точности классификации и обобщающей способности реализованного генетического алгоритма в сравнении с другими алгоритмами приведены в таблице 1. Представленные данные получены на тестовой задаче «Car evaluation» из репозитория UCI Machine Learning Repository.

Таблица Результаты сравнения алгоритмов для задачи «Car evaluation» Средняя Среднеква- Средняя частота дратичное переобуАлгоритм классификации ошибок отклонение ченность Q(a,X), % B, % µ(XB, XB B), % B B Q(a,X) о к Дерево классификации: алгоритм CART 20,3 0,9 2,Дерево классификации: алгоритм C4.5 22,2 1,1 2,Дерево классификации: алгоритм, 20,8 0,8 3,встроенный в платформу 1С:Предприятие Дерево классификации: разработанный 16,6 0,6 0,генетический алгоритм Средние значения частоты ошибок и переобученности определялись методом скользящего контроля, при этом было выполнено 40 различных случайных разбиений обучающей выборки, что обеспечило получение несмещенных средних оценок с надежностью выше 95%.

Современные алгоритмы классификации должны быть масштабируемыми по отношению к размеру обучающей выборки, т.е. при увеличении размера обучающей выборки время исполнения алгоритма должно возрастать линейно. Докажем наличие свойства масштабируемости у предлагаемого генетического алгоритма.

Его временная сложность определяется затратами на формирование начальной популяции и затратами на выполнение эволюции:

K T = P Tt +, (8) T i i=где P – размер популяции, TB B – среднее время построения дерева решений (в t зависимости от используемых критериев разделения процесс построения может занимать разное время), TB B – время выполнения эволюции для i-го поколения, K – i общее число поколений.

Поскольку поколение эволюции соответствует определенному узлу дерева, вычислительная сложность эволюции i-го поколения зависит от уровня узла в дереве.

От этого зависит размер выборки данных и глубина поддерева, построенного от рассматриваемого узла. Расчет TB B производится исходя из времени, затраченного на i скрещивание хромосом, времени выполнения мутации, а также времени декодирования хромосом, которое по сути заключается в построении дерева решений для рассматриваемого подмножества данных. Расчет TB B производится по формуле (9).

i Ti =Ppc2Tci+P(1+pc2)pmTmi+P(1+pc2)Tdi, (9) где pB B – вероятность выполнения скрещивания для каждой особи (поскольку при этом c образуется два потомка, вероятность в формуле тоже удваивается), pB B – вероятность m мутации особей в популяции (применяется не только для исходной популяции, но и для новых образовавшихся особей), TB B – время скрещивания одной пары хромосом, ci TB B – время мутации одной хромосомы, TB B – время декодирования хромосомы для mi di рассматриваемого подмножества данных.

Временная сложность оператора скрещивания зависит от количества узлов выбранных деревьев эвристик (хромосом). Оператор мутации заключается просто в изменении значения некоторых эвристик. Обе перечисленные операции имеют временную сложность, пренебрежимо малую по сравнению с временем построения дерева решений, поэтому ее можно рассматривать как константу, а время выполнения этапа (поколения) эволюции можно оценить по времени декодирования хромосомы:

Ti = O( P Tdi ) (10) Время декодирования хромосомы вычисляется исходя из времени построения дерева решений и времени оценки его точности (проверки на тестовом множестве данных). Расчет временной сложности величины TB B выполняется по формуле:

d Tdi = O(Noi M ) + O(Nti Di ), (11) a где NB B и NB B – размеры обучающего и тестового множества данных (для oi ti рассматриваемого узла дерева решений) соответственно, MB B – количество атрибутов в a выборке данных, DB B – глубина поддерева, построенного от рассматриваемого узла i дерева решений (определяется исходя из общих ограничений по глубине). Количество атрибутов MB B – величина постоянная для всех узлов дерева решений. Глубина a поддерева DB B зависит от общего ограничения максимальной глубины дерева решений, i а также от уровня узла в иерархической структуре дерева. Для расчета общей временной сложности декодирования хромосом на всех этапах эволюции введем промежуточную величину B, соответствующую временной сложности B l декодирования хромосом для всех узлов дерева эвристик, находящихся на одном уровне. Индекс l при этом может варьироваться в пределах [1,D], где D – максимальная глубина дерева решений. Тогда временная сложность:

D T = 1 +, (12) l l=где B B – время формирования начальной популяции.

Величина B B рассчитывается исходя из временной сложности декодирования l всех хромосом, соответствующих узлам, находящимся на одном уровне дерева.

Kl l = P, (13) j T j=где KB B – количество узлов дерева решений, находящихся на уровне l.

l Подставив в (13) выражения для расчета TB, получим оценку величины B.

B B j l Kl Kl l =O Ma )+O Dl ) (PNoj (PNtj (14) j=1 j= Поскольку P, MB B и DB B являются постоянными величинами для всех узлов, a l находящихся на одном уровне дерева решений, их можно вынести за пределы оператора суммы. Переменные NB B и NB B в формуле (14) соответствуют размерам oj tj обучающего и тестового множества данных для отдельно взятого узла дерева решений, находящегося на уровне DB. Поскольку узлы дерева решений на одном B l уровне должны покрывать все множество исходных данных, суммы величин NB B и NB B oj tj равняются общему размеру обучающего и тестового множества соответственно.

Таким образом, формула (14) принимает вид.

= O(P N M )+ O(P N D ), (15) l o a t l где NB B и NB B – размеры обучающего и тестового множества для всей выборки исходных o t данных соответственно.

Подставив выражение для B B в формулу (12), и, исключив из нее время l формирования начальной популяции B B (оно пренебрежимо мало по сравнению с 1, временем выполнения эволюции), получим оценку временной сложности.

D T = O(P N M D) + O P N D (16) o a t l l=1 Значение DB B соответствует максимальной глубине поддерева, построенному от l узла дерева решений, находящемся на уровне l. Для первого уровня (корень дерева решений) DB B = D, что соответствует максимальному ограничению по глубине, l устанавливаемому пользователем. По мере продвижения от корня к листу дерева величина DB B уменьшается на 1. Следовательно, сумма всех DB B равна D (D + 1) / 2.

l l Общая временная сложность генетического алгоритма определяется исходя из временной сложности построения деревьев решений и временной сложности оценки их точности. Первая величина линейно зависит от размера популяции P, размера B обучающего множества NB, количества атрибутов MB B и максимальной глубины дерева o a решений D. Вторая величина имеет квадратичную зависимость от глубины D и линейную зависимость от размера популяции P и размера тестового множества NB.

B t T = O(P No M D) + O(P Nt D2) (17) a Учитывая, что величины P, MB B и D обычно на несколько порядков меньше a размера выборки данных, а величины NB B и NB B определяются, исходя из общего o t размера обучающей выборки N, можно принять T = O(N) (18) Свойство масштабируемости предлагаемого генетического алгоритма доказано. В диссертационной работе приводятся также экспериментальные данные по времени исполнения алгоритма для различных значений N.

U В четвертой главеU представлена структура разработанного комплекса программ для проведения вычислительного эксперимента, описаны эксперименты, проведенные на реальных данных, и практические результаты работы.

Реализация комплекса программ для проведения вычислительного эксперимента была выполнена на платформе «1С:Предприятие 8» в виде отдельной конфигурации, учитывая существенный спрос на аналитическую поддержку деятельности со стороны предприятий, автоматизированных на платформе 1С, а также наличие накопленных массивов данных в их информационных системах, что позволило провести эксперимент на реальных данных. Структура комплекса показана на рисунке 3, его программные блоки можно использовать в готовом виде в составе реальных систем анализа данных в различных сферах деятельности.

Блок подготовки База прецедентов исходных данных Интерфейс Блоки обучения пользователя по прецедентам База результатов База моделей Блок классификации классификации классификации Рисунок 3 - Структура комплекса программ для выполнения вычислительного эксперимента Для проведения вычислительного эксперимента в комплекс были введены программные блоки обучения по прецедентам, которые включают реализацию алгоритмов построения деревьев классификации, в том числе, разработанного автором. Это обеспечило возможность сравнения результатов классификации для различных алгоритмов обучения на тестовых и реальных данных. Комплекс имеет открытую архитектуру и удобные возможности расширения для проведения новых вычислительных экспериментов.

В диссертации представлено три практических задачи, при решении которых был использован комплекс программ: анализ бизнес-процессов продаж программных продуктов в CRM-системе ООО «Бизнес-Софт», анализ исполнительской дисциплины сотрудников в системе электронного документооборота, классификация учебных задач по уровню сложности в системе электронного обучения.

В качестве примера представим решение первой задачи. В процессе начальной настройки модели было отобрано 12 признаков бизнес-процесса, способных в той или иной степени повлиять на результат продажи. В качестве целевого атрибута (класса) был выбран признак, принимающий одно из двух значений: «Продажа» или «Отказ клиента». В результате был построен классификатор для прогнозирования успешности бизнес-процесса с частотой ошибок не более 12%. Внедрение классифицирующей подсистемы в ООО «Бизнес-Софт» позволило выявить основные факторы, влияющие на эффективность продаж программных продуктов, а также устранить нежелательные причины, приводящие к отсеиванию клиентов на той или иной стадии взаимодействия с ними.

В заключении формулируются основные результаты работы.

U U В приложенияхU приведены блок-схема алгоритма и пример дерева решений.

U ОСНОВНЫЕ РЕЗУЛЬТАТЫ РАБОТЫ 1. Предложен эффективный вычислительный метод построения дерева классификации на основе генетического алгоритма комбинирования эвристик, позволяющий повысить точность и обобщающую способность классификатора.

2. Разработаны алгоритмы для реализации основных генетических операторов и общий алгоритм построения дерева классификации.

3. Выполнен анализ вычислительной сложности разработанного генетического алгоритма построения дерева классификации, доказана его масштабируемость.

4. Разработан комплекс проблемно-ориентированных программ для проведения вычислительного эксперимента, выполнена его реализация в виде отдельной конфигурации на платформе 1С: Предприятие.

5. Проведен вычислительный эксперимент на данных репозитория UCI Machine Learning Repository и на реальных данных информационных систем предприятий. Экспериментальное исследование подтвердило достоверность и эффективность результатов, полученных в работе.

СПИСОК РАБОТ, ОПУБЛИКОВАННЫХ ПО ТЕМЕ ДИССЕРТАЦИИ Публикации в изданиях, рекомендованных ВАК России:

1. Ржеуцкий А.В. Применение эволюционных алгоритмов в задачах обучения по прецедентам / А.В. Ржеуцкий // Системы управления и информационные технологии. № 1.2(39), 2010. - С. 264-22. Ржеуцкий А.В. Метод построения дерева классификации на основе генетического алгоритма комбинирования эвристик / А.В. Ржеуцкий, С.Ю. Ржеуцкая // Системы управления и информационные технологии. № 2(44), 2011. - С. 62-3. Ржеуцкий А.В. Эволюционный алгоритм построения дерева решений /А.В.

Ржеуцкий, А.А. Суконщиков / /Программные продукты и системы. № 3, 2011. - С.22-Другие статьи и материалы конференций:

4. Ржеуцкий А.В. Применение эволюционного алгоритма классификации данных в интеллектуальных учебных комплексах / А.В. Ржеуцкий // Проведение научных исследований в области информационно-телекоммуникационных технологий: Материалы всероссийской конференции. – М:, 2010. – С.73-5. Ржеуцкий А.В. Мастер анализа данных в информационных системах на основе 1С:

Предприятие / А.В. Ржеуцкий, А.Н. Швецов // Молодежь и высокие технологии: Материалы всероссийской студенческой олимпиады (Конкурс компьютерных программ). – Вологда:

ВоГТУ, 2007. – С.402-46. Ржеуцкий А.В. Расширение возможностей анализа данных в информационных системах на основе 1С: Предприятие / А.В. Ржеуцкий, С.Ю. Ржеуцкая // Вузовская наука – регионам: Материалы Всероссийской научной конференции. – Вологда: ВоГТУ, 2007. – Т.– С.270-27. Ржеуцкий А.В. Программная реализация методов анализа данных в системе 1С:Предприятие 8.0 / А.В. Ржеуцкий, А.А. Суконщиков // Информатизация процессов формирования открытых систем на основе СУБД, САПР, АСНИ и систем искусственного интеллекта: Материалы 4-й международной научно-технической конференции. – Вологда:

ВоГТУ, 2007, с. 101-18. Ржеуцкий А.В. Методы анализа данных и прогнозирования в системах поддержки принятия решений / А.В. Ржеуцкий, А.А. Суконщиков // Материалы Ежегодных смотров – сессий аспирантов и молодых ученых по отраслям наук. Научные направления:

«Технические науки», «Экономические науки». – Вологда: ВоГТУ, 2007, С.67-9. Ржеуцкий А.В. Использование деревьев решений на основе искусственных нейронных сетей в задачах прогнозирования / А.В. Ржеуцкий, А.А. Суконщиков // Вузовская наука – регионам: Материалы шестой всероссийской научно-технической конференции. – Вологда: ВоГТУ, 2008. – Т.1 – С.239-210. Ржеуцкий А.В. Средства наглядного представления нейронных сетей для решения задач прогнозирования / А.В. Ржеуцкий, А.А. Суконщиков // Молодые исследователи – регионам: Материалы всероссийской научно-технической конференции студентов и аспирантов. – Вологда: ВоГТУ, 2008. – Т. 1 – С.413-411. Ржеуцкий А.В. Интеграция САПР в информационные системы производственного планирования и управления / А.В. Ржеуцкий // Развитие деревянного домостроения в Вологодской области. Проблемы и практические решения: Материалы межрегиональной научно-практической конференции 29 мая 2008 года. – Вологда: Издательский центр ВИРО, 2008.- С.90-12. Ржеуцкий А.В. Расчет стоимости разработки программного продукта с использованием конструктивной модели анализа / А.В. Ржеуцкий, А.А. Суконщиков // Вузовская наука – региону: Материалы седьмой всероссийской научно-технической конференции. – Вологда: ВоГТУ, 2009. – Т.1, С. 265-213. Ржеуцкий А.В. Построение оптимального дерева решений в задаче классификации данных / А.В. Ржеуцкий, А.А.Суконщиков, И.А. Кузнецова // Информационные технологии моделирования и управления, №6(58), 2009 – С.301-314. Ржеуцкий А.В. Масштабируемый алгоритм построения деревьев классификации / А.В.Ржеуцкий, С.Ю. Ржеуцкая // Нейроинформатика и общество: труды научной конференции / Под ред. В.Л. Дунина-Барковского, А.Н. Швецова. – Вологда: ВоГТУ. – 2011.

С.50 –






© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.