WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 ||

«Нейронные сети основные модели Воронеж 1999 УДК 612.8: 681.5 И. В. Заенцев Нейронные сети: основные модели Учебное пособие к курсу "Нейронные сети" для студентов 5 курса магистратуры к. электроники ...»

-- [ Страница 2 ] --

Входной вектор больше похож на вектор весов, запомненный нейроном 2. Этот нейрон и будет активирован, поэтому выход сети будет равен m=2. Конечно, при восстановлении изображения по номеру класса, m=2, будет восстановлен фрагмент, запомненный нейроном 2, который не полно стью совпадает с исходным фрагментом.

Для выбора оптимального количества классов и размера фрагмента необходимы дополнительные соображения. Чем больше фрагмент и чем меньше нейронов в слое Кохонена, тем выше коэффици ент сжатия, и тем больше потери при восстановлении.

Этот же метод может быть применен для сжатия других типов данных, например, речевых сигна лов. Но учитывая потери при сжатии, сеть Кохонена в исходной модели неприменима для данных, которые должны быть точно восстановлены. Типичные значения коэффициента сжатия для сети Кохонена — от 10 до 100.

Сеть встречного расспространения Слой Гроссберга Сеть встречного распространения (СВР) была предложена Робертом Хехт Нильсеном в 1987 г.

Она состоит из двух слоев нейронов: слоя Кохонена и слоя Гроссберга (рис. ). Слой Кохонена рабо тает в режиме интерполяции или аккредитации. Все слои полносвязны.

Рис.. Сеть встречного распространения.

Слой Гроссберга предназначен для совместной работы со слоем, дающим единственную единицу на выходе (как у слоя Кохонена в режиме аккредитации) или такой набор выходов, что их сумма равна единице (как слой Кохонена с функцией SOFTMAX в режиме интерполяции). Нейроны слоя Гроссберга вычисляют взвешенную сумму своих входов. Функция активации не используется (ли нейная). Слой Гроссберга дает на выходе линейную комбинацию своих векторов весов, коэффици енты комбинации задаются входами слоя Гроссберга.

Первый слой Кохонена функционирует так:

= xij OUTj1 wij () i — третий индекс обозначает слой: l = 1.

Второй слой Гроссберга работает по той же формуле, но смысл взвешенного суммирования дру гой:

= xij OUTj 2 wij 2 () i = Учитывая, что xij 2 OUTi1 :

= OUTi OUTj 2 wij i — здесь суммирование проводится по всем выходам слоя Кохонена.

Если слой Кохонена в режиме аккредитации, то на слой Гроссберга поступает единичный выход только одного нейрона Кохонена: пусть i0 — номер активного нейрона Кохонена:

0, = i i OUTi OUT = i = OUT wi j Выход слоя Гроссберга в этом случае:, т.е. каждый нейрон Гроссберга дает на выходе j один из своих весовых коэффициентов, номер которого совпадает с номером активного нейрона Кохонена. Следовательно, слой Гроссберга преобразует выход слоя Кохонена с кодированием по номеру канала в произвольный линейный код на выходе, порождающая матрица кода совпадает с матрицей весовых коээфициентов слоя Гроссберга.

Работа сети в режиме аккредитации представлена на рис.. Показаны только ненулевые выходы.

Активирован второй нейрон слоя Кохонена.

Рис.. Работа нейронов Гроссберга.

Обучение сети встречного распространения Сеть обучается с учителем, хотя и включает в себя слой Кохонена. Для обучения необходимо обу p xp, y чающее множество, содержащее пары векторов (рис. ^СВР). Особенность СВР в том, что ( ) p оба вектора подаются и на вход, и снимаются с выхода сети. Обучение происходит в следую xp, y щей последовательности:

xp Dp = 1. Подаем на вход вектор. Определяем выигравший нейрон Кохонена и рассчитыва p y ем выход сети.

2. Обучаем слой Кохонена (проводим только одну итерацию обучения) по обычному алгоритму без учителя. При этом вектор Dp рассматривается как вектор, подлежащий классификации.

3. Зная требуемый выходной вектор, проводим коррекцию весов слоя Гроссберга так, чтобы выход приблизился к требуемому значению:

= - OUTjp wi j 2 Djp () — где Djp — требуемое значение выхода j го нейрона, когда на входе предъявлен вектор Dp;

OUTjp — текущее значение j го выхода сети. При этом выход имеет значение:

x* p OUTp = y* p Цель обучения — добиться точного выходного вектора с тем, который содержится в обучающем множестве:

xp x* p () yp y* p Алгоритм завершается, когда будет достигнута хорошая точность в приближенных равенствах ().

После того, как обучение завершено, проявляются возможности СВР. Если подать оба вектора x и y на вход сети, на выходе будут получены вектора, приближенно равные им (). Такая операция, коне чно, бесполезна. Но если подать на вход только один вектор, например, x, то на выходе будут полу чены оба вектора, x* и y*. Если обучение прошло успешно, то () будут выполняться с хорошей точно стью. Т.е. по одному из векторов x или y сеть восстанавливает второй вектор по тому закону, который изучен сетью по обучающему множеству.

Следовательно, сеть встречного распространения изучает одновременно два отображения: пря мое и обратное Y X. Это важное свойство СВР.

X Y Если на вход подавать только один вектор x, а на выходе снимать вектор y, то такая сеть способна выдавать вместо номера класса (как в случае слоя Кохонена) произвольный линейный код, соответ ствующий данному классу. Такая комбинация слоя Кохонена и слоя Гроссберга полезна при сжатии данных и в других приложениях.

Благодаря линейности слоя Гроссберга можно осуществлять интерполяцию кодов. Слой Кохоне на работает в режиме интерполяции. В этом случае если вектор на входе сети соответствует коду x c1 на выходе сети, и вектор на входе коду c2 на выходе, то при непрерывном изменении входного x вектора x1 x2 выходной вектор (код) непрерывно меняется c1 c2 по тому же закону, что и вход.

Генетические алгоритмы для обучения НС Генетические алгоритмы — группа алгоритмов многомерной оптимизации, основанных на моде лировании развития биологической популяции.

Пусть есть целевая функция E(p), зависящая от вектора p независимых переменных. В задаче оп тимизации требуется найти минимум E.

Популяцией назовем набор векторов P = {pi} = p1..pN. N — размер популяции. Элементы pi особи.

Элементы множества P способны эволюционировать по следующим правилам:

1. Если E(p0) — мала, то особь p0 считается удачной и получает приоритет при размножении. Ве роятность гибели этой особи снижается.

2. Если E(p0) — велика, то особь p0 считается неудачной, вероятность размножения для этой осо би снижается, и повышается вероятность гибели.

3. Мутации: любая точка имеет равную вероятность мутации, т.е. смещения на небольшую вели чину p0 p0 + p, где — небольшой по модулю вектор, характеризующий величину мутации.

p Закон, по которому определяется, зависит от реализации алгоритма. Типичный выбор — много p мерное нормальное распределение с нулевым матожиданием.

4. Размножение: в соответствии с вероятностями, определенными на шагах 1, 2, каждая точка имеет вероятность размножения, тем большую, чем точка удачнее. Законы размножения могут быть различными, в зависимости от выбранной модели, например:

а) разделение на две близлежащих точки: p0 + m1 и p0 + m2, где векторы и определяют m1 m ся алгоритмом;

б) разделение на несколько близких точек построением правильного многоугольника (симп лекса) вокруг точки p0 по известным формулам из теории оптимизации:

в) размножение со скрещиванием: две близких точки p0 и p1, таких, что p0 - p1 — мала, делят ся со скрещиванием: pi = (p0 - p1) + p1 + mi, где — скаляр, mi — вектор, зависящий только от i.

ci ci 5. Гибель: в соответствии с вероятностью, определенной на шагах 1, 2, точка может погибнуть, т.е. быть бесследно удаленной из множества P.

Текущий набор pi составляет генофонд популяции. Налицо наследственность, изменчивость и ес тественный отбор — движущие силы биологической эволюции.

Точная количественная теория эволюции, сохранения и изменения генетической информации пока не построена (см., например: М.Эйген. Гиперцикл: принципы самоорганизации материи), по этому остается большой произвол в выборе численных значений вероятностей гибели, размноже ния и мутаций и деталей алгоритма (способ размножения, мутаций). Оптимальность выбранных алгоритмов пока может быть оценена только экспериментально.

Применение генетических алгоритмов для обучения НС Для обучения нейросетей могут применяться генетические алгоритмы. Обычно в качестве неза W p = висимой переменной выбирается — набор весовых коэффициентов и пороговых уровней сети. Целевой функцией служит функция ошибки, или любая другая характеристика качества сети при решении поставленной задачи. Целевая функция вообще может не иметь числового выраже ния, а задаваться алгоритмически.

Обучение НС с помощью генетических алгоритмов состоит в следующем:

1. В памяти создается некоторое количество нейросетей (популяция) с различными значениями p.

2. Пошагово моделируется развитие популяции в соответствии с генетическим алгоритмом (му тации, гибель, размножение).

3. Каждые несколько итераций в популяции выбирается точка с лучшим значением E(p). Если значение целевой функции в этой точке достаточно мало, алгоритм завершается.

В качестве целевой функции может быть выбрана любая характеристика качества при решении тестовой задачи, поэтому генетические алгоритмы применимы к обучению НС как с учителем, так и без учителя.

Положительные качества генетических алгоритмов 1. Нахождение глобального минимума: неподверженность "застреванию" в локальных миниму мах целевой функции.

2. Массовый параллелизм при обработке: особи в популяции функционируют независимо: расчет значений целевой функции, гибель, мутации осуществляются независимо для каждой особи. При наличии нескольких процессорных элементов быстродействие может быть очень высоким.

3. Биоподобность: генетические алгоритмы построены на тех же принципах, которые привели к возникновению человека и всего многообразия видов, и, следовательно, могут быть очень продук тивны и полезны.

Недостатки при обучении НС 1. Для каждой особи, в случае НС, требуется много памяти, т.к. количество весов и пороговых уровней обычно велико. Количество требуемой памяти пропорционально также размеру популя ции. Поэтому для НС размер популяции весьма ограничен, что снижает эффективность алгоритма.

2. Склонность к параличу при обучении. Изменения параметров сети случайны, и веса могут возрастать неограниченно. Это вводит нейроны в насыщение и снижает скорость обучения. Необ ходимы дополнительные меры, чтобы избежать чрезмерного роста параметров.

3. Низкая эффективность на фон неймановских ЭВМ. Мутации параметров случайны, и много ресурсов расходуется на "ненужные" вычисления. При отсутствии параллельной обработки быстро действие алгоритмов невелико.

Сети с обратными связями Для сетей прямого распространения были приняты ограничения: все сигналы в сети распростра няются только от входа к выходу, но не наоборот. Сеть также предполагалась послойно полносвяз ной. Оба эти ограничения несправедливы для биологических НС и сужают возможности модели.

Сеть прямого распространения не имеет внутреннего состояния: значения выходов нейронов зави сят только от входного вектора и не меняются во времени, если вход неизменен. Моделирование динамических процессов на таких сетях возможно только искусственными приемами, например, когда сетью на каждом шаге прогнозируется малое изменение состояния для исследуемого динами ческого объекта.

Чтобы расширить диапазон решаемых задач, были предложены сети с обратными связями. Пол ное математическое описание пока создано только для простейших случаев сетей с обратными свя зями. Дж. Хопфилд внес вклад в разработку и теории, и моделей таких сетей.

Послойность сети и матричное умножение Каждый слой НС из формальных нейронов выполняет взвешенное суммирование входов:

NETjl = xijl wijl jl. Это эквивалентно умножению матрицы весовых коэффициентов на вектор i входных сигналов данного слоя: = - l. Здесь — матрица весовых коэффициентов слоя NETl WlT Xl WlT l, — вектор входных сигналов слоя l, l — вектор пороговых уровней слоя l. Операция транспони Xl рования появляется из за одинакового порядка индексов в матрице W и векторе входных сигналов X: индекс i обозначает вход j го нейрона.

Эквивалентность взвешенного суммирования умножению матрицы весов на вектор входных сиг налов говорит о том, что любое устройство, умеющее перемножать матрицы, может работать в каче стве слоя НС, и наоборот, операция, сводящаяся к умножению матрицы на вектор, может быть ре ализована в виде НС.

Расчет градиента квадратичной формы Пусть задана квадратичная форма:

xk q1k k 11 == H (x,Qx) x,... = xl xk qlk 22 l k xk qNk k Ее градиент легко записать:

1 ( )i = ++ 2 = + H xk xl qiixi qik qki xk () qik qil ki li k i И если считать, что матрица Q симметрична, =, то q xk = Qx. Если вместо ис qik qki (H )i = ik k = P(x) = (x,Qx) + (b, x) ходной формы H взят многочлен, то его градиент P = Qx + b. Таким образом, расчет градиента многочлена P сводится к умножению матрицы Q на вектор и суммированию векто ров. Следовательно, этот расчет может быть выполнен однослойной нейронной сетью без обратных связей и даже без нелинейных элементов в нейронах. Сеть для расчета градиента имеет количество ( )ij = нейронов, равное числу компонент вектора X, матрицу весовых коэффициентов W Qij, матрицу = пороговых уровней -bj. Если на вход такой сети подать произвольный вектор X, то на выходе j мы получим численное значение градиента P в точке, заданной численным значением вектора X.

Для расчета градиента P обратные связи не требуются.

Теперь рассмотрим однослойную сеть с обратными связями, где значение выхода каждого нейро на подается обратно на входы всех нейронов того же слоя:

Рис. 1. Сеть с обратными связями.

Входной вектор для сети в данном случае совпадает с выходным NET, взятым на предыдущей ите рации. Предполагаем, что расчет сигналов NET происходит мгновенно и одновременно во всех ней ронах, а распространение по обратным связям дает задержку в одну итерацию и происходит одно временно во всех нейронах: сеть работает синхронно. В такой модели работа сети будет определять ся формулами:

Пусть весовые коэффициенты и пороговые уровни заданы так, чтобы выходной сигнал NET оп ределялся формулой:

NET = X - h QX + b = IX - hQX - hb = (I - hQ)X - hb, ( ) т.е. весовые коэффициенты W = I - hQ, пороговые уровни. Такой выбор параметров сети = hb позволит на каждой итерации по вектору X получать новый вектор NET, который отличается от X небольшим шагом в направлении антиградиента в точке X. Длина шага будет пропорциональ -P на h небольшому положительному числу, выбранного нами при создании сети.

Сформированный сигнал NET подается обратно на вход сети, и на следующей итерации стано вится новым значением X. Так, на каждой итерации происходит небольшое изменение вектора X в направлении антиградиента P, т.е. в сторону минимума многочлена P(x).

Выбор начальной точки и длины шага Чтобы выбрать начальную точку, из которой сеть начнет движение в сторону минимума P(x), мы должны подать на вход сети соответствующий вектор X0, вместо сигнала NET, который до этого момента будет не определен. Следовательно, требуется кратковременный разрыв цепочки обратной связи, что нарушает стройность модели. В случае программной реализации сети это не представляет проблемы, а в случае аппаратной — приводит к неудобствам.

Вообще говоря, коэффициент h должен определяться точной одномерной оптимизацией, т.е. по иском минимума P(x) в направлении антиградиента на каждой итерации. НС не дают средств для решения этой задачи. Слишком большой h приведет к грубому результату (сеть будет хаотически менять свое состояние около точки минимума), а слишком малый — к медленной сходимости. Хо рошие результаты дает постепенное уменьшение h на каждой итерации, но изменение h требует пе рестроения сети (изменения матрицы весов W), а это длительная операция.

Таким образом, простейшая сеть с обратными связями способна находить минимум квадратич ной формы. Параметры сети, необходимой для поиска минимума, определяются коэффициентами многочлена P. Такая задача относится к задачам безусловной оптимизации.

Аналогичным образом НС с обратными связями могут решать системы линейных уравнений Ax = b. Задача решения системы сводится к минимизации многочлена:

=, =,, b b P Ax - b Ax - b x AT Ax - ATb x - (, ) ( ) ( ) () () ( ) = P AT Ax - ATb Градиент. Чтобы реализовать его вычисление в виде НС, можно использовать двухслойную сеть без обратных связей с весами W1 = A, W2 AT,,. Чтобы минимизи = 1 = b 2 = ровать многочлен P, подаем выходные сигналы сети снова на вход с задержкой в одну итерацию.

Существуют также более эффективные алгоритмы решения систем линейных уравнений с помо щью НС.

Сеть Хопфилда Сети с обратными связями могут работать в качестве ассоциативной памяти. Это означает, что по вектору, поданному на вход, сетью будет создан на выходе один из запомненных ранее векторов, наиболее "похожий" (в некотором выбранном смысле) на данный входной вектор. Такой способ выборки данных называется адресацией по содержимому, в отличие от адресации по номеру ячейки памяти, принятому в ЭВМ фон неймановского типа. Этот способ адресации широко используется в биологических НС. Например, один лишь запах жасмина может вызвать в памяти целый набор ас социаций, причудливо связанных друг с другом и включающих в себя визуальные, звуковые и кине стетические образы. Память с такой адресацией является весьма перспективной для создания сис тем искусственного интеллекта, систем распознавания речевых сигналов и изображений.

= Пусть задано множество векторов xk x1..xK, подлежащих запоминанию в нейросети. Критерий { } "похожести" векторов зависит от задачи и, вообще говоря, может быть весьма сложным. Если, к примеру, входной вектор состоит из нескольких отсчетов сигнала во времени, взятых подряд, то критерий близости векторов должен обладать инвариантностью к масштабированию отсчетов, к переносу вдоль оси времени (фазе сигнала), и к зашумленности входных данных. Так что поиск критерия близости специфичен для каждой задачи и представляет собой серьезную проблему.

Рассмотрим простейший случай, когда в качестве меры близости двух векторов используется их x1 x2,. Чем более "похожи" вектора, тем больше мера близости.

скалярное произведение: d(, ) = x1 x ( ) = (, ) dx xk xk x dt Тогда можно ожидать, что изменение вектора x с течением времени по закону в k конце концов приведет к тому, что x совпадет с наиболее похожим эталоном, т.е. требуемая ассоци ация будет найдена. Пусть также компоненты эталонных векторов могут принимать только значе ния +1 и 1.

dx =-H Если найти такую функцию H(x), что, то задача поиска ассоциации для вектора x будет dt совпадать с задачей поиска минимума функции H(x). Если выбрать функцию H, которая называется ( ) =- xk x xi2, то ее градиент H x, + - ( ) ( ) энергией сети, в виде ki k i = - xk x H ( ) ( ) x, + e xi2 -1 xi, здесь ei — i й вектор базиса. Нижними индексами обозначены ki компоненты вектора, верхними номер вектора в множестве. Тогда dx k i = ( ) ( ) x xk, x - e xi2 -1 xi. Первое слагаемое обеспечивает стремление x к ближайшим этало dt ki нам, а второе — приближение компонент вектора x к допустимым значениям +1 или 1. Коэффици ент соотносит интенсивности этих двух процессов. Обычно растет с течением времени от < до >1 с ростом времени обучения. Чтобы получить весовые коэффициенты и пороговые уровни, запишем последнее выражение покомпонентно:

dx k = xk xj - -1 = xkxj - -1 -1 xi xi2 xi k xi ( ) ( ) () xi j xi j dt i j k j i k Отсюда видно, что весовые коэффициенты должны определяться:

k, xk i j xi j = Wij k 0, i = j Веса не зависят от направления от i к j или от j к i. Данная формула аналогична формуле Хебба для обучения перцептрона, когда связь между нейронами i и j положительна, если состояния нейронов одинаковы и отрицательна, если состояния противоположны.

i = -1 -1 xi xi Каждый i й нейрон содержит управляемый нелинейный порог со значением, ( ) ( ) рассчитываемый на каждой итерации. Сеть показана на рис. ^^^. Каждый выходной сигнал подается обратно на вход сети с весом Wij и на вход того же нейрона для расчета порога. Данная модель назы вается сетью Хопфилда. Приведенный способ описания отличается от работ Хопфилда, но эквива лентность модели сохранена.

Решение задач с помощью сетей Хопфилда Решение некоторой задачи с помощью сетей Хопфилда распадается на этапы:

1. Построить функцию энергии таким образом, чтобы точка глобального минимума этой функ ции совпадала с решением задачи. При этом градиент функции энергии должен допускать вычисле ние с помощью НС.

2. Записать формулы для расчета параметров сети (весовых коэффициентов и пороговых уров ней) для расчета градиента функции энергии.

3. Разорвать цепочку обратной связи и предъявить сети входной вектор. Рассчитать значения выходов.

4. Замкнуть обратную связь и предоставить сети возможность самостоятельно менять свое со стояние (релаксация). Остановить процесс релаксации после того, как выходной вектор перестанет меняться, т.е. по достижении минимума функции энергии. Полученные выходы сети дают решение задачи.

Устойчивость сети Точка X, в которой остановится процесс релаксации, называется устойчивой, если после малого изменения вектора X из состояния равновесия сеть вернется к тому же состоянию через некоторое количество итераций.

В отличие от сетей прямого распространения, которые всегда устойчивы, сеть с обратными связя ми может либо вообще не сойтись к одной точке, либо дать результат, неустойчивый к малым изме нениям входного вектора из полученной точки. При каких условиях процесс релаксации сети при ведет к точке устойчивого равновесия? Для сети общего вида необходимое и достаточное условие устойчивости не сформулировано. Однако Кохеном и Гроссбергом было доказано достаточное ус T ловие устойчивости. Если матрица весовых коэффициентов симметрична,, и на главной = W W диагонали находятся нули, = 0, то данная сеть всегда сходится к устойчивой точке. С другой сто wii роны, бывают устойчивые сети с несимметричной матрицей весов и с ненулевыми диагональными элементами, и сети, в которых малые отклонения от достаточного условия приводят к потере устой чивости.

Сходимость к эталонам = wij kxk, то каждый эталон будет представлять со xi j Если веса сети определяются по формуле k бой локальный минимум функции энергии, а градиент функции энергии в этой точке будет равен нулю. Но сеть не всегда сходится к одному из эталонов. Сформулируем условия, повышающие ве роятность правильной сходимости:

1) Количество образов M, запомненных в сети, не должно превышать емкости сети.

2) Векторы, запомненные сетью, должны быть слабо коррелированы, т.е. мера близости xk d,,, < xk xl k l M должна быть мала.

( ) Численные значения емкости сети и предельно допустимой близости эталонов строго не опреде лены. Если учесть, что общее число состояний сети из n нейронов c двумя допустимыми значения ми выходов +1 или 1 составляет 2n, то общепринятая оценка емкости 0,15 n кажется совсем неболь шой.

Если нарушены условия 1) или 2), то решение, полученное сетью, чаще всего представляет собой некий усредненный эталон, сочетающий в себе черты многих запомненных образов.

Адаптивная резонансная теория (АРТ) Серьезная проблема для ИНС — правильное соотношение стабильности и пластичности при за поминании образов.

Существуют наборы эталонов (даже состоящие всего из 4 х векторов), которые при циклическом предъявлении в обучении дают никогда не сходящиеся наборы параметров сети. Предъявление все го одного нового образа в обучающем множестве часто приводит к долгому переобучению. Если сеть работает в реальном времени, например, обрабатывает сенсорную информацию, то обучающее множество может все время меняться. Для большинства моделей ИНС это приводит к отсутствию обучения вообще.

Человеческая память, напротив, эффективно хранит и корректирует запоминаемые образы. Ни предъявление нового образа, ни изменение старых не приводит к уничтожению памяти или невоз можности запоминания. Даже удаление части нервной ткани чаще всего не прерывает работу сети и не стирает запомненные образы, а лишь делает их менее четкими.

Сеть АРТ — попытка приблизить механизм запоминания образов в ИНС к биологическому. Ре зультатом работы АРТ является устойчивый набор запомненных образов и возможность выборки "похожего" вектора по произвольному предъявленному на входе вектору. Важное качество АРТ — динамическое запоминание новых образов без полного переобучения и отсутствие потерь уже запо мненных образов при предъявлении новых.

АРТ АРТ 1 предложена Карпентером и Гроссбергом в 1986 г. Эта сеть представляет собой векторный классификатор и обучается без учителя, лишь на основании предъявляемых входных векторов. АРТ 1 работает только с двоичными векторами, состоящими из нулей и единиц. Позже было предложено много разновидностей этой модели. АРТ 2 запоминает и классифицирует непрерывные входные векторы, FART использует нечеткую логику. Группа моделей с суффиксом "MAP" (ARTMAP и др.) классифицирует и входные, и выходные вектора, а также строит связи между ними, позволяя фор мировать отображения аналогично сети встречного распространения.

Архитектура и работа Структура АРТ 1 (далее АРТ) представлена на рис.

Рис.. Структурная схема АРТ.

Входной вектор сети X =,..,.. имеет N компонент. В слое распознавания запоминается M X1 Xn XN классов образов, по одному классу на каждый нейрон m=1..M.

Основную работу по классификации производят слой сравнения и слой распознавания. Схемы приемников (Прм1, Прм2) и схема сброса управляют режимом работы сети и могут быть реализова ны в виде обычных логических схем или в виде нейронов.

Работа блоков АРТ определяется следующими формулами:

1 = G Xn Rm Прм 1:. Выход прм1 обеспечивает единичный сигнал для слоя nn сравнения, если на вход сети подан вектор X (нулевой вектор на входе недопустим) и если выход слоя распознавания равен нулю.

Xn. Если на вход подан вектор X, то блок прм2 формирует на выходе единич Прм 2: G2 = n ный сигнал и тем самым разрешает работу слоя распознавания.

Cn n Схема сброса: G3m = Xn H. Проверяет критерий сходства для векторов X и С. Критерий n X,C состоит в сравнении количества единиц в векторах X, С. Количества единиц сравниваются в виде H отношения с некоторым пороговым уровнем сходства. Если порог не превышен, то сходство счи тается плохим, и схема сброса вырабатывает сигнал торможения для нейрона в слое распознавания.

Выход схемы сброса — двоичный вектор с M компонентами. Схема сброса является динамической H и "помнит" свое состояние в течение одной классификации. Порог является внешним парамет H ром по отношению к сети и задается пользователем в интервале от 0 до 1. Чем меньше, тем менее похожие вектора будут отнесены сетью к одному классу.

Слой сравнения Структура слоя показана на рис..

Рис.. Слой сравнения.

Каждый нейрон имеет порог, равный двум. На вход одного нейрона в слое сравнения подаются:

сигнал G1 с единичным весом, одна компонента Xn с единичным весом и все выходы слоя распозна вания, M компонент с вектором весов Tn, где n номер нейрона в слое сравнения. Весовые коэффи циенты T — двоичные. В нейроне используется нелинейность в виде жесткой ступеньки: если сиг нал NET нейрона превышает порог, то на выходе нейрона будет единица, иначе — ноль. Это G = "правило 2/3": для активации нейрона достаточно два сигнала из трех.

Работа слоя определяется формулами:

= TnR = Pn n Rm Tm m = + + Tn Pn X G n NETn = Cn 0, 1, NETn Работой слоя управляет сигнал G1. Если G1=0, то X проходит без изменений на выход слоя срав нения, благодаря лишнему единичному сигналу G1 на входе нейрона. Если G1=0, то на выходе име ем, т.е. вектор С будет логическим произведением двоичных векторов X и P.

C = X P Слой распознавания Структура слоя распознавания показана на рис..

Рис.. Слой распознавания.

Каждый нейрон в слое имеет следующие входы: один сигнал G2 с единичным весом, одна компо нента G3 с большим отрицательным весом (m — номер нейрона) и N сигналов со слоя сравнения с m m m вектором весов Bm (у вектора Bm всего N компонент, ).

B1..BN Нейроны слоя распознавания не содержат нелинейных элементов, но обладают следующей осо бенностью. Каждый нейрон в слое связан со всеми остальными нейронами этого же слоя обратны ми тормозящими связями и положительной обратной связью — с самим собой. Такой способ связ ности называется латеральным торможением. Это приводит к тому, что только один нейрон в слое распознавания может быть активирован. Между нейронами существует конкуренция, и нейрон с максимальным выходом "подавляет" все остальные нейроны в слое, выигрывая "состязание". Его выход становится равным единице, остальных нейронов — нулю.

Рис.. Латеральные тормозящие связи в слое распознавания.

Веса Bm — непрерывные, в отличие от слоя сравнения. Работа слоя определяется формулой:

Rm = Bm,C 2 ¬ 3m G G Отсюда видно, что сигнал G2 "разрешает" работу слоя распознавания, а сигнал G3 позволяет вы борочно затормозить любые нейроны в слое.

Работа сети АРТ Решение задачи классификации с помощью АРТ содержит следующие этапы: инициализация, рас познавание, сравнение, поиск, обучение.

1. Инициализация.

H а) выбираем параметр, исходя из требуемой детальности классификации;

б) создаем сеть в памяти. Количество нейронов должно быть достаточным, чтобы запомнить все ядра классов (до M). Изначально все нейроны слоя распознавания считаются "невыделенными", m = L, где L>1 неко Bn Bн ч их веса приравниваются одинаковым небольшим значениям:

+ L N - торая константа (обычно L=2). Веса в слое сравнения также выбираются одинаковыми, но равными n единице:. Такой выбор весов обеспечивает остановку поиска на невыделенном нейроне, если Tm = нет подходящих выделенных нейронов и правильное обучение.

2. Распознавание.

а) Предъявляем вектор X на входе. До этого момента G2=0 и выход слоя распознавания равен нулю: R=0.

б) У вектора X есть ненулевые компоненты, поэтому G1 становится равным единице, т.к. R=0.

Сигнал G1 "подпитывает" нейроны слоя сравнения и X без изменений проходит через слой сравне ния: C=X.

в) Весовые коэффициенты Bm имеют смысл нормированных ядер классов. В слое распознава ния активируется несколько нейронов, но благодаря латеральному торможению остается один ней рон с выходом R =1, а остальные тормозятся. m0 — номер выигравшего нейрона.

m 3. Сравнение.

а) Выход приводит к G1=0, что снимает "подкачку" нейронов в слое сравнения. Весовые R коэффициенты Tn имеют смысл ненормированных двоичных ядер классов. На вход слоя сравнения передается один ненулевой выход слоя распознавания, R =1. Эта единица умножается на весовые m n = + коэффициенты, давая в сумме сигнал NETn Xn Tm. Порог всех нейронов равен 2, поэтому выход n = слоя сравнения будет Cn Xn Tm. Следовательно, выход слоя сравнения на этом этапе — логичес кое произведение входного сигнала и двоичного ядра класса из слоя сравнения.

б) Модуль сброса вычисляет второй критерий сходства (первый — максимум произведения (Bm,X) в слое распознавания). Если количества единиц в векторе C и векторе X близки, то сходство считает ся хорошим и выносится решение о принадлежности вектора X к классу m0.

4. Поиск.

а) Если критерий сходства не выполняется, схема сброса вырабатывает сигнал G3 =1, который m тормозит нейрон m0 в слое распознавания. Сигнал G3 остается равным 1 до окончания данной m классификации. Выход нейрона m0 становится равным 0, а, следовательно, и весь вектор R=0. Сиг нал G1 становится равным нулю и вектор X снова проходит через слой сравнения без изменений, вызывая новый цикл поиска (шаги 2в — 3б), пока критерий сходства не будет удовлетворен.

При соответствующем выборе начальных значений весов B поиск всегда закончится на нераспре деленном нейроне слоя распознавания. Для него будет выполнен критерий сходства, т.к. все веса T равны 1. Если все нейроны выделены и критерий сходства не выполняется, следует аварийный оста нов, либо расширение сети введением нового нейрона в слое распознавания и новых входов в слое сравнения.

5. Обучение.

Независимо от того, найден ли на этапе поиска распределенный нейрон или нераспределен ный, обучение протекает одинаково. Корректируются лишь веса выигравшего нейрона m0 в слое n распознавания, и веса Tm для всех n в слое сравнения.

Различают быстрое и медленное обучение. При быстром обучении коррекции весов имеют вид:

LCn m m Bn = Bn L + - C, где L — константа, большая 1.

n n n = Веса в слое сравнения — двоичные: Tm Cn. В результате такого алгоритма обучения ядра T изме няются от всех компонент, равных 1, обнуляя несущественные компоненты в процессе обучения.

Если какая то компонента вектора Tn стала нулевой на какой то итерации обучения, она никогда не вернется к единице. В этом проявляется асимметрия АРТ по отношению к значениям 0 и 1. Эта асимметрия имеет серьезные отрицательные последствия для модели, приводя к деградации ядер классов в случае зашумленных входных векторов.

Медленное обучение меняет ядра малыми коррекциями:

m 1- 1 > + > > + > Bn m0 m0 nn Bn Bn, Tm Cn Tm, где — мало и характеризует скорость обучения.

> В результате каждой итерации обучения ядра меняются незначительно.

Видно, что веса B в любой момент времени могут быть однозначно рассчитаны через веса T, таким образом, кодирование информации о ядрах в АРТ в рассмотренной модели является избыточным в смысле расхода памяти.

Необходимость поиска В сети АРТ используются два критерия "похожести" векторов. Первый — максимум скалярного произведения max (Bm, X) при выборе "победителя" в слое распознавания. Второй — критерий сход m Cn n H ства в блоке сброса:. Таким образом задача классификации в сети АРТ состоит в том, Xn n X,C чтобы найти ядро с максимальным скалярным произведением (Bm, X), чтобы при этом выполнялся критерий сходства. Эти два критерия не являются эквивалентными, поэтому и фаза поиска, и фаза распознавания являются необходимыми и не могут быть опущены.

Положительные качества и недостатки АРТ Сеть АРТ решает дилемму стабильности пластичности и позволяет быстро запоминать новые об разы без утраты старых. Как и в случае других моделей НС, на обычных машинах фон неймановско го типа сети работают медленно и неэффективно. Для решения задачи требуется найти максимум скалярного произведения, что требует около 3NM операций с плавающей запятой, и вычислить в худшем случае M критериев сходства. Это требует существенных вычислительных затрат.

Если моделировать сеть на аналоговой параллельной машине, то результат будет получен практи чески мгновенно. Но такие машины — редкость. На цифровом параллельном компьютере операции расчета скалярных произведений могут быть распараллелены, но расчет критериев сходства все рав но выполняется последовательно. Таким образом, даже на параллельной машине сеть АРТ является требовательной к ресурсам.

Тем не менее, одна итерация для запоминания каждого входного вектора — редкая экономич ность для нейронных сетей. Вспомним, что многослойный перцептрон для запоминания нового вектора требует полного переобучения.

У сети АРТ есть несколько существенных недостатков.

1. Чувствительность к порядку предъявления векторов. Большинство разновидностей АРТ весьма чувствительны к порядку предъявления входных векторов X. Картины ядер классов, сформирован ные сетью, принципиально меняются при различных видах упорядочения.

2. Невозможность классификации зашумленных векторов. Пусть входные вектора содержат шум.

Если компонента незашумленного входного вектора равна x, то предъявленные сети значения бу n дут определяться вероятностным законом:

p = xn =1-A Xn p Xn =¬xn = A где — малое положительное число, характеризующее уровень шума.

A Если такие данные будут предъявлены АРТ, то будет наблюдаться деградация и размножение клас сов. Если сетью сформировано правильное ядро для класса, к которому относится вектор X, то как только компонента X примет нулевое значение за счет шума (если вектора предъявляются не одно n кратно), соответствующая компонента ядра также будет обнулена. Т.к. случайное нулевое значение может принять любая компонента X, то с течением времени все компоненты ядра будут обнулены, запомненная информация об этом классе — утрачена. Если после этого предъявить незашумленный вариант вектора X, то для него будет выделен новый нейрон, т.е. сформирован новый класс. Это явление называется размножением классов. Через некоторое время в сети будет множество нейронов с нулевыми весами, и все нейроны будут распределены. Работа сети прекратится.

Это явление определяется исходной асимметрией алгоритмов АРТ относительно значений 0 и 1.

Существуют методы для устранения асимметрии и предотвращения размножения классов, напри мер, комплементарное кодирование.

Метод имитации отжига При обучении НС, как и в и в других задачах многомерной оптимизации, одна из проблем — оста нов алгоритма в точке локального, а не глобального минимума целевой функции. При использова нии градиентного алгоритма с точным выбором длины шага останов в локальном минимуме неизбе жен. Обратное распространение ошибки страдает меньше, т.к. длина шага выбирается "некоррект но" (без одномерной оптимизации вдоль вектора градиента), и на любой итерации возможно увели чение функции ошибки.

Метод имитации отжига позволяет преодолеть локальные минимумы и искать глобальный мини мум целевой функции. "Плата" за это преимущество — медленная работа алгоритма в случае боль шой размерности целевой функции. Метод применим и к нейронным сетям, и к любым другим за дачам многомерной оптимизации.

В 50 х годах был исследован процесс отжига металла и построена его математическая модель. Если раскалить кусок металла, то его внутренняя энергия достигнет высокого значения. Кристалличес кая решетка при этом будет наименее упорядочена, т.к. тепловые флуктуации атомов решетки будут велики. Это соответствует начальному состоянию "необученной" нейронной сети. Если затем быст ро охладить металл, то атомы будут "пойманы" в энергетически невыгодных состояниях. Энергия системы снизится, но не достигнет глобального минимума. Кристаллическая решетка будет иметь множество дефектов, т.е. отклонений в расположении атомов от оптимального значения, а металл будет иметь высокую твердость (закаливание). Если охлаждение проводить медленно (отжиг), то с плавным уменьшением температуры тепловые колебания узлов решетки около состояния миниму ма энергии будут плавно уменьшаться, и в результате охлаждения решетка будет иметь высокую упорядоченность, а энергия системы достигнет глобального минимума.

В применении к задаче оптимизации модель выглядит так.

1. Выбирается смысл параметра "температуры" системы. Размерность его может быть различной и связана с размерностью целевой функции данной задачи. Целевая функция в данной модели озна чает энергию системы.

2. Выбирается большое начальное значение "температуры".

3. Независимые переменные, от которых зависит функция энергии, испытывают "тепловые флук туации", т.е. случайные изменения. Обычно вероятность флуктуации независимой переменной x имеет гауссовское распределение:

x p(x) = exp 4. Рассчитывается изменение энергии (т.е. целевой функции), полученное за счет флуктуаций не зависимых переменных. Если энергия уменьшилась, то изменения шага 3 принимаются. Если энер гия увеличилась, то изменения переменных сохраняются с вероятностью, зависящей от того, на сколько увеличилась энергия, и каково текущее значение температуры:

-E p(E) = F(E, ) = exp где — значение температуры. Вероятность p убывает с ростом и с уменьшением.

E 5. Шаги 3,4 повторяются до тех пор, пока не будет достигнуто "тепловое равновесие". На практике это означает, что температура должна меняться очень медленно.

6. Температура уменьшается на малое значение, и шаги 3,4 повторяются для нового значения тем пературы.

7. Шаги 3 6 повторяются до тех пор, пока не будет достигнута малая температура, принятая за ноль. В этом состоянии энергия системы примет глобальное минимальное значение, если процесс охлаждения проводился бесконечно медленно. На практике скорость охлаждения конечна, и значе ние глобального минимума бывает неточным.

В результате такого алгоритма устанавливается тепловое равновесие, при котором вероятность обнаружить систему в состоянии с энергией E определяется распределением Больцмана:

-E - p(E) = Z exp Такая модель оптимизации была предложена С.Киркпатриком, С.Гелатта и М.Веччи в 1983 г. и получила название "имитации отжига". Он дает очень хорошие результаты для обучения нейронных сетей с количеством синапсов несколько сотен. Для большего размера сетей алгоритм работает слиш ком медленно. Имитация отжига применяется для NP полных задач, например, задачи коммивоя жера, не поддающихся точному алгоритмическому решению. Данный метод используется при авто матическом размещении компонент на печатных платах, при их автотрассировке и во многих других задачах.

Преимущество алгоритма — поиск глобального минимума и отсутствие ограничений на вид ми нимизируемой функции E. Недостаток — требование бесконечно медленного охлаждения, на прак тике означающее медленную работу алгоритма. Для нейронных сетей больших размерностей метод трудноприменим из за низкого быстродействия. Множество шагов по параметрам сети осуществ ляется в случайных, ненужных направлениях.

Список литературы 1. Суровцев И.С., Клюкин В.И., Пивоварова Р.П. Нейронные сети. — Воронеж: ВГУ, 1994. — с.

2. Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. — М.: Мир, 1992.

3. Горбань А.Н. и др. Нейроинформатика. — Электронная публикация.

3. Интернет: Sarle, W.S., ed. (1997), Neural Network FAQ, part 1 7: Introduction, periodic posting to the Usenet newsgroup comp.ai.neural nets, URL ftp://ftp.sas.com/pub/neural/FAQ.html.

5. Мкртчян С.О. Нейроны и нейронные сети. (Введение в теорию формальных нейронов) — М.: Энергия, 1971. — 232 с..

6. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. М.: Мир, 1985. 509 c.

7. Лоскyтов А.Ю., Михайлов А.С. Введение в синергетику. — М.: Наука. Гл. ред. физ. мат. лит., 1990. — 272 с.

8. Muller B., Reinhardt J. Neural Networks. An introduction. — Berlin: Springer Verlag, 1991. — 266p.

9. Волькенштейн М.В. Биофизика: Учеб. руководство. — М.: Наука, Гл. ред. физ. мат.лит., 1988.

— 592 с.

Вопросы к зачету 1. Что такое нейронные сети (НС)? Что дает моделирование НС? Проблемы, возникающие при моделировании. Свойства биологических и искусственных НС. Способы реализации нейросе тей.

2. Место НС среди других методов решения задач. Типы задач, решаемых нейронными сетями.

Недостатки и ограничения НС.

3. Биологический нейрон. Структура, функции.

4. Нервный импульс (НИ). Возбуждение НИ, свойства НИ, примеры экспериментов.

5. Мембрана, ее структура. Мембранный потенциал. K Na транспорт. К, Na каналы.

6. Как возникает нервный импульс? Зависимость напряжения и токов IK, INa от времени в им пульсе. Эквивалентная схема участка волокна.

7. Сальтаторный механизм распространения НИ. Отличия от обычного механизма. Какие преимущества дает сальтаторное распространение?

8. Распространение НИ. Уравнение Ходжкина Хаксли.

9. Пространственное описание НИ.

10. Синаптическая передача. Электрические и химические синапсы. Работа химического синапса.

11. Генерация НИ для кусочно линейной аппроксимации ВАХ волокна.

12. Формальный нейрон. Виды функций активации. Ограниченность модели форм. нейрона.

13. Многослойный перцептрон. Структура, алгоритм работы. Этапы решения задачи с помощью НС.

14. Формализация условий задачи для НС. Примеры. Подготовка входных и выходных данных.

Выбор количества слоев.

15. Обучение однослойного перцептрона. Выбор шагов по W, Theta.

16. Проблема "исключающего ИЛИ" и ее решение.

17. Перцептронная представляемость.

18. Метод обратного распространения ошибки.

19. Паралич сети. Выбор шага по параметрам. Локальные минимумы. Временная неустойчивость.

' 20. Примеры применения перцептронов.

21. Динамическое добавление нейронов. Способность НС к обобщению.

22. Обучение без учителя. Сеть с линейным поощрением.

23. Задача классификации. Сеть Кохонена.

24. Обучение слоя Кохонена. Метод выпуклой комбинации. Примеры обучения.

25. Режимы работы сети Кохонена. Применение для сжатия данных.

26. Сеть встречного распространения. Схема, обучение, свойства.

27. Генетические алгоритмы для обучения НС. Положительные качества и недостатки.

28. Послойность сети и матричное умножение. Расчет градиента квадратичной формы с помощью НС. Выбор начальной точки и длины шага.

29. Сети с обратными связями. Сеть Хопфилда. Вычислительная энергия и ее минимизация.

30. Этапы решения задачи сетью Хопфилда. Устойчивость, сходимость к эталонам.

31. Соотношение стабильности пластичности при запоминании. Сеть АРТ 1. Структура, описа ние элементов сети.

32. Работа сети АРТ 1. Запоминание и классификация векторов сетью.

33. Метод имитации отжига.

Содержание Нейронные сети..................................................................................................................................... основные модели................................................................................................................................... Воронеж 1999................................................................................................................................................... Введение................................................................................................................................................. Параллельность обработки и реализуемость НС.................................................................................. Место нейронных сетей среди других методов решения задач............................................................ Биологический нейрон.......................................................................................................................... Нервный импульс.................................................................................................................................. Мембрана. Мембранный потенциал..................................................................................................... Натриевый насос................................................................................................................................... Калиевые каналы................................................................................................................................. Натриевые каналы............................................................................................................................... Возникновение нервных импульсов................................................................................................... Сальтаторный механизм распространения импульса........................................................................ Эквивалентная схема волокна............................................................................................................. Распространение нервных импульсов. Уравнение Ходжкина Хаксли............................................. Пространственное описание нервного импульса.............................................................................. Синаптическая передача...................................................................................................................... Генерация нервных импульсов............................................................................................................ Искусственные нейронные сети......................................................................................................... Формальный нейрон........................................................................................................................... Виды функций активации................................................................................................................... Ограничения модели нейрона............................................................................................................. Многослойный перцептрон................................................................................................................ Алгоритм решения задач с помощью МСП........................................................................................ Формализация задачи.......................................................................................................................... Примеры формализации задач............................................................................................................ 1. Задача классификации.................................................................................................................. 2. Распознавание букв алфавита....................................................................................................... 3. Прогнозирование одномерной функции..................................................................................... 4. Аппроксимация многомерной функции...................................................................................... Выбор количества нейронов и слоев.................................................................................................. Количество нейронов и слоев связано:.............................................................................................. Если в сети слишком мало нейронов или слоев:................................................................................ Если нейронов или слоев слишком много:........................................................................................ Подготовка входных и выходных данных........................................................................................... Другие способы подготовки данных................................................................................................... Методы обучения................................................................................................................................. Общая схема обучения перцептрона:.................................................................................................. Применяются следующие методы теории оптимизации:.................................................................. Обучение однослойного перцептрона................................................................................................ Расписание обучения........................................................................................................................... Перцептронная представляемость...................................................................................................... 1. Однослойный перцептрон............................................................................................................... 2. Двухслойный перцептрон................................................................................................................ 3. Трехслойный перцептрон................................................................................................................ Проблема "исключающего ИЛИ"........................................................................................................ Решение проблемы XOR...................................................................................................................... Обучение многослойного перцептрона Алгоритм обратного распространения ошибки............................................................................ Дальнейшее развитие алгоритма......................................................................................................... Паралич сети........................................................................................................................................ Выбор длины шага............................................................................................................................... Локальные минимумы......................................................................................................................... Чувствительность к порядку предъявления образов Временна'я неустойчивость........................................................................................................... Примеры применения перцептронов................................................................................................. I. Предсказание псевдослучайных последовательностей................................................................ II. Предсказание вторичной структуры белков.................................................................................. III. Синтез речи: NET talk................................................................................................................... Динамическое добавление нейронов.................................................................................................. Способность нейронных сетей к обобщению.................................................................................... Обучение без учителя........................................................................................................................... Сеть с линейным поощрением............................................................................................................ Задача классификации Сети Кохонена................................................................................................................................ Алгоритмы классификации................................................................................................................. Сеть Кохонена..................................................................................................................................... Обучение слоя Кохонена..................................................................................................................... 1. Присвоение начальных значений.................................................................................................... 2. Обучение сети................................................................................................................................... Метод выпуклой комбинации............................................................................................................. Примеры обучения.............................................................................................................................. Модификации алгоритма обучения.................................................................................................... Режимы работы сети............................................................................................................................ Применение сети Кохонена для сжатия данных................................................................................ Сеть встречного расспространения Слой Гроссберга.............................................................................................................................. Обучение сети встречного распространения...................................................................................... Генетические алгоритмы для обучения НС........................................................................................ Применение генетических алгоритмов для обучения НС................................................................. Положительные качества генетических алгоритмов.......................................................................... Недостатки при обучении НС............................................................................................................. Сети с обратными связями.................................................................................................................. Послойность сети и матричное умножение....................................................................................... Расчет градиента квадратичной формы.............................................................................................. Выбор начальной точки и длины шага............................................................................................... Сеть Хопфилда..................................................................................................................................... Решение задач с помощью сетей Хопфилда....................................................................................... Устойчивость сети................................................................................................................................ Сходимость к эталонам....................................................................................................................... Адаптивная резонансная теория (АРТ).............................................................................................. АРТ 1.................................................................................................................................................... Архитектура и работа........................................................................................................................... Слой сравнения................................................................................................................................... Слой распознавания............................................................................................................................ Работа сети АРТ................................................................................................................................... Необходимость поиска........................................................................................................................ Положительные качества и недостатки АРТ...................................................................................... Метод имитации отжига...................................................................................................................... Список литературы.............................................................................................................................. Вопросы к зачету..................................................................................................................................

Pages:     | 1 ||



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.