WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 5 | 6 || 8 | 9 |   ...   | 25 |

На шаги 1 и 2 можно смотреть как на «проходвперед», так как сигнал распространяется по сети от входа к выходу. Шаги 3, 4составляют «обратный проход», здесь вычисляемый сигнал ошибки распространяетсяобратно по сети и используется для подстройки весов. Эти два прохода теперьбудут детализированы и выражены в более математической форме.

Проход вперед.Шаги 1 и 2 могут быть выражены в векторной форме следующим образом: подаетсявходной вектор Х и на выходеполучается вектор Y.Векторная пара вход-цель Х иТ берется из обучающегомножества. Вычисления проводятся над вектором X, чтобы получить выходной векторY.

Как мы видели, вычисления в многослойныхсетях выполняются слой за слоем, начиная с ближайшего к входу слоя. ВеличинаNET каждого нейрона первого слоя вычисляется как взвешенная сумма входовнейрона. Затем активационная функция F «сжимает» NET и дает величину OUT для каждого нейрона в этом слое.Когда множество выходов слоя получено, оно является входным множеством дляследующего слоя. Процесс повторяется слой за слоем, пока не будет полученозаключительное множество выходов сети.

Этот процесс может быть выражен в сжатойформе с помощью векторной нотации. Веса между нейронами могут рассматриватьсякак матрица W. Например, весот нейрона 8 в слое 2 к нейрону 5 слоя 3 обозначается w8,5. ТогдаNET-вектор слоя N может бытьвыражен не как сумма произведений, а как произведение Х и W. В векторном обозначении N = XW. Покомпонентным применением функцииF к NET-вектору N получается выходной вектор О. Таким образом, для данного слоявычислительный процесс описывается следующим выражением:

О = F(XW). (3.3)

Выходной вектор одного слоя является входнымвектором для следующего, поэтому вычисление выходов последнего слоя требуетприменения уравнения (3.3) к каждому слою от входа сети к еевыходу.

Обратный проход.Подстройка весов выходного слоя. Так как для каждого нейрона выходного слоя задано целевоезначение, то подстройка весов легко осуществляется с использованиеммодифицированного дельта-правила из гл. 2. Внутренние слои называют «скрытымислоями», для их выходов не имеется целевых значений для сравнения. Поэтомуобучение усложняется.

На рис. 3.5 показан процесс обучения дляодного веса от нейрона р вскрытом слое j к нейронуq в выходном слоеk. Выход нейрона слояk, вычитаясь из целевогозначения (Target), дает сигнал ошибки. Он умножается на производную сжимающейфункции [OUT(1 –OUT)], вычисленную для этого нейрона слоя k, давая, таким образом, величинуд.

д = OUT(1 – OUT)(Target – OUT) (3.4)

Затем д умножается на величину OUT нейронаj, из которого выходитрассматриваемый вес. Это произведение в свою очередь умножается на коэффициентскорости обучения з (обычноот 0,01 до 1,0), и результат прибавляется к весу. Такая же процедуравыполняется для каждого веса от нейрона скрытого слоя к нейрону в выходномслое.

Следующие уравнения иллюстрируют этовычисление:

Дwpq,k = з дq,k OUT (3.5)

wpq,k(n+1) =wpq,k(n) + Дwpq,k (3.6)

где wpq,k(n) – величина веса от нейронаp в скрытом слое к нейронуq в выходном слое на шаге n(до коррекции); отметим, что индекс k относится к слою, в котором заканчивается данный вес, т. е.,согласно принятому в этой книге соглашению, с которым он объединен;wpq,k(n+1) –величина веса на шаге n + 1 (после коррекции); дq,k – величина д длянейрона q, в выходном слоеk; OUTp,j – величина OUT для нейронар в скрытом слоеj.

Рис. 3.5. Настройка веса в выходномслое

Подстройка весов скрытого слоя. Рассмотрим один нейрон в скрытом слое, предшествующем выходномуслою. При проходе вперед этот нейрон передает свой выходной сигнал нейронам ввыходном слое через соединяющие их веса. Во время обучения эти весафункционируют в обратном порядке, пропуская величину д от выходного слоя назад к скрытомуслою. Каждый из этих весов умножается на величину д нейрона, к которому он присоединен ввыходном слое. Величина д,необходимая для нейрона скрытого слоя, получается суммированием всех такихпроизведений и умножением на производную сжимающей функции:

(3.7)

(см. рис. 3.6). Когда значение д получено, веса, питающие первый скрытыйуровень, могут быть подкорректированы с помощью уравнений (3.5) и (3.6), гдеиндексы модифицируются в соответствии со слоем.

Рис. 3.6. Настройка веса в скрытомслое

.Для каждогонейрона в данном скрытом слое должно быть вычислено ди подстроены все веса, ассоциированные с этим слоем.Этот процесс повторяется слой за слоем по направлению к входу, пока все веса небудут подкорректированы.

С помощью векторных обозначений операцияобратного распространения ошибки может быть записана значительно компактнее.Обозначим множество величин д выходного слоя через Dk и множество весов выходного слоя какмассив Wk. Чтобы получить Dj, д-вектор выходного слоя, достаточноследующих двух операций:

  1. Умножить о-вектор выходного слоя Dk натранспонированную матрицу весов W’k,соединяющую скрытый уровень с выходным уровнем.
  2. Умножить каждую компоненту полученного произведения на производнуюсжимающей функции соответствующего нейрона в скрытом слое.

В символьной записи

Dj =DkW’k $[0j $(I – 0j)], (3.8)

где оператор $ в данной книге обозначаетпокомпонентное произведение векторов, Оj – выходной вектор слоя j и I – вектор, все компоненты которогоравны 1.

Добавление нейронного смещения. Во многих случаях желательно наделять каждый нейрон обучаемымсмещением. Это позволяет сдвигать начало отсчета логистической функции, даваяэффект, аналогичный подстройке порога персептронного нейрона, и приводит кускорению процесса обучения. Эта возможность может быть легко введена вобучающий алгоритм с помощью добавляемого к каждому нейрону веса,присоединенного к +1. Этот вес обучается так же, как и все остальные веса, заисключением того, что подаваемый на него сигнал всегда равен +1, а не выходунейрона предыдущего слоя.

Импульс. В работе[7] описан метод ускорения обучения для алгоритма обратного распространения,увеличивающий также устойчивость процесса. Этот метод, названный импульсом,заключается в добавлении к коррекции веса члена, пропорционального величинепредыдущего изменения веса. Как только происходит коррекция, она «запоминается»и служит для модификации всех последующих коррекций. Уравнения коррекциимодифицируются следующим образом:

Дwpq,k(n+1)= з дq,k OUTp,j + αДwpq,k(n) (3.9)

wpq,k(n+1) =wpq,k(n) + Дwpq,k(n+1) (3.10)

где (α – коэффициент импульса, обычноустанавливается около 0,9.

Используя метод импульса, сеть стремитсяидти по дну узких оврагов поверхности ошибки (если таковые имеются), а недвигаться от склона к склону. Этот метод, по-видимому, хорошо работает нанекоторых задачах, но дает слабый или даже отрицательный эффект надругих.

В работе [8] описан сходный метод,основанный на экспоненциальном сглаживании, который может иметь преимущество вряде приложений.

Дwpq,k(n+1)= (1-α) дq,k OUTp,j + αДwpq,k(n) (3.9)

Затем вычисляется изменение веса

wpq,k(n+1) =wpq,k(n) + зДwpq,k(n+1), (3.10)

где α коэффициент сглаживания,варьируемый и диапазоне от 0,0 до 1,0. Если α равен 1,0, то новая коррекцияигнорируется и повторяется предыдущая. В области между 0 и 1 коррекция весасглаживается величиной, пропорциональной α. По-прежнему, з является коэффициентом скоростиобучения, служащим для управления средней величиной изменения веса.

      1. ДАЛЬНЕЙШИЕ АЛГОРИТМИЧЕСКИЕРАЗРАБОТКИ

Многими исследователями были предложеныулучшения и обобщения описанного выше основного алгоритма обратногораспространения. Литература в этой области слишком обширна, чтобы ее можно былоздесь охватить. Кроме того, сейчас еще слишком рано давать окончательныеоценки. Некоторые из этих подходов могут оказаться действительнофундаментальными, другие же со временем исчезнут. Некоторые из наиболеемногообещающих разработок обсуждаются в этом разделе.

В [5] описан метод ускорения сходимостиалгоритма обратного распространения. Названный обратным распространениемвторого порядка, он использует вторые производные для более точной оценкитребуемой коррекции весов. В [5] показано, что этот алгоритм оптимален в томсмысле, что невозможно улучшить оценку, используя производные более высокогопорядка. Метод требует дополнительных вычислений по сравнению с обратнымраспространением первого порядка, и необходимы дальнейшие эксперименты длядоказательства оправданности этих затрат.

В [9] описан привлекательный метод улучшенияхарактеристик обучения сетей обратного распространения. В работе указывается,что общепринятый от 0 до 1 динамический диапазон входов и выходов скрытыхнейронов неоптимален. Так как величина коррекции веса Дwpq,k пропорциональна выходному уровнюнейрона, порождающего OUTp,j, то нулевой уровень ведет к тому, что вес не меняется. Придвоичных входных векторах половина входов в среднем будет равна нулю, и веса, скоторыми они связаны, не будут обучаться! Решение состоит в приведении входов кзначениям ±½и добавлении смещения к сжимающей функции, чтобы онатакже принимала значения ±½. Новая сжимающая функция выглядитследующим образом:

. (3.13)

С помощью таких простых средств времясходимости сокращается в среднем от 30 до 50%. Это является одним из примеровпрактической модификации, существенно улучшающей характеристикуалгоритма.

В [6] и [1] описана методика примененияобратного распространения к сетям с обратными связями, т. е. к таким сетям, укоторых выходы подаются через обратную связь на входы. Как показано в этихработах, обучение в подобных системах может быть очень быстрым и критерииустойчивости легко удовлетворяются.

      1. ПРИМЕНЕНИЯ

Обратное распространение было использовано вширокой сфере прикладных исследований. Некоторые из них описываются здесь,чтобы продемонстрировать мощь этого метода.

Фирма NEC в Японии объявила недавно, чтообратное распространение было ею использовано для визуального распознаваниябукв, причем точность превысила 99%. Это улучшение было достигнуто с помощьюкомбинации обычных алгоритмов с сетью обратного распространения, обеспечивающейдополнительную проверку.

В работе [8] достигнут впечатляющий успех сNet-Talk, системой, которая превращает печатный английский текст ввысококачественную речь. Магнитофонная запись процесса обучения сильнонапоминает звуки ребенка на разных этапах обучения речи.

В [2] обратное распространениеиспользовалось в машинном распознавании рукописных английских слов. Буквы,нормализованные по размеру, наносились на сетку, и брались проекции линий,пересекающих квадраты сетки. Эти проекции служили затем входами для сетиобратного распространения. Сообщалось о точности 99,7% при использованиисловарного фильтра.

В [3] сообщалось об успешном примененииобратного распространения к сжатию изображений, когда образы представлялисьодним битом на пиксель, что было восьмикратным улучшением по сравнению свходными данными.

      1. ПРЕДОСТЕРЕЖЕНИЕ

Несмотря на многочисленные успешныеприменения обратного распространения, оно не является панацеей. Больше всегонеприятностей приносит неопределенно долгий процесс обучения. В сложных задачахдля обучения сети могут потребоваться дни или даже недели, она может и вообщене обучиться. Длительное время обучения может быть результатом неоптимальноговыбора длины шага. Неудачи в обучении обычно возникают по двум причинам:паралича сети и попадания в локальный минимум.

        1. Параличсети

В процессе обучения сети значения весовмогут в результате коррекции стать очень большими величинами. Это можетпривести к тому, что все или большинство нейронов будут функционировать приочень больших значениях OUT, в области, где производная сжимающей функции оченьмала. Так как посылаемая обратно в процессе обучения ошибка пропорциональнаэтой производной, то процесс обучения может практически замереть. Втеоретическом отношении эта проблема плохо изучена. Обычно этого избегаютуменьшением размера шага з,но это увеличивает время обучения. Различные эвристики использовались дляпредохранения от паралича или для восстановления после него, но пока что онимогут рассматриваться лишь как экспериментальные.

        1. Локальныеминимумы

Обратное распространение используетразновидность градиентного спуска, т. е. осуществляет спуск вниз по поверхностиошибки, непрерывно подстраивая веса в направлении к минимуму. Поверхностьошибки сложной сети сильно изрезана и состоит из холмов, долин, складок иоврагов в пространстве высокой размерности. Сеть может попасть в локальныйминимум (неглубокую долину), когда рядом имеется гораздо более глубокийминимум. В точке локального минимума все направления ведут вверх, и сетьнеспособна из него выбраться. Статистические методы обучения могут помочьизбежать этой ловушки, но они медленны. В [10] предложен метод, объединяющийстатистические методы машины Коши с градиентным спуском обратногораспространения и приводящий к системе, которая находит глобальный минимум,сохраняя высокую скорость обратного распространения. Это обсуждается вгл. 5.

        1. Размершага

Внимательный разбор доказательствасходимости в [7] показывает, что коррекции весов предполагаются бесконечномалыми. Ясно, что это неосуществимо на практике, так как ведет к бесконечномувремени обучения. Размер шага должен браться конечным, и в этом вопросеприходится опираться только на опыт. Если размер шага очень мал, то сходимостьслишком медленная, если же очень велик, то может возникнуть паралич илипостоянная неустойчивость. В [11] описан адаптивный алгоритм выбора шага,автоматически корректирующий размер шага в процессе обучения.

Pages:     | 1 |   ...   | 5 | 6 || 8 | 9 |   ...   | 25 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.