WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 2 | 3 || 5 | 6 |   ...   | 13 |

4) выходной сигнал поступает на аксон и передается дендридам

других нейронов.

Поведение искусственной нейронной сети зависит как от значе-

ния весовых параметров, так и от функции возбуждения нейронов.

Известны три основных вида [17] функции возбуждения: пороговая,

линейная и сигмоидальная. Для пороговых элементов выход устанав-

ливается на одном из двух уровней в зависимости от того, больше

или меньше суммарный сигнал на входе нейрона некоторого порогово-

го значения. Для линейных элементов выходная активность пропорци-

ональна суммарному взвешенному входу нейрона. Для сигмоидальных

элементов в зависимости от входного сигнала, выход варьируется

непрерывно, но не линейно, по мере изменения входа. Сигмоидальные

элементы имеют больше сходства с реальными нейронами, чем линей-

ные или пороговые, но любой из этих типов можно рассматривать

лишь как приближение.

Нейронная сеть представляет собой совокупность большого чис-

ла сравнительно простых элементов - нейронов, топология соедине-

ний которых зависит от типа сети. Чтобы создать нейронную сеть

для решения какой-либо конкретной задачи, мы должны выбрать, ка-

ким образом следует соединять нейроны друг с другом, и соответс-

твующим образом подобрать значения весовых параметров на этих

связях. Может ли влиять один элемент на другой, зависит от уста-

новленных соединений. Вес соединения определяет силу влияния.

2.2. Модели нейронных сетей

2.2.1. Модель Маккалоха

Теоретические основы нейроматематики были заложены в начале

40-х годов. В 1943 году У. Маккалох и его ученик У. Питтс сформу-

лировали основные положения теории деятельности головного моз-

га[9]. Ими были получены следующие результаты:

- разработана модель нейрона как простейшего процессорного

элемента, выполняющего вычисление переходной функции от скалярно-

го произведения вектора входных сигналов и вектора весовых коэф-

фициентов;


- -

- предложена конструкция сети таких элементов для выполнения

логических и арифметических операций;

- сделано основополагающее предположение о том, что такая

сеть способна обучаться, распознавать образы, обобщать полученную

информацию.

Несмотря на то, что за прошедшие годы нейроматематика ушла

далеко вперед, многие утверждения Макклоха остаются актуальными и

поныне. В частности, при большом разнообразии моделей нейронов

принцип их действия, заложенный Макклохом и Питтсом, остается не-

изменным.

Недостатком данной модели является сама модель нейрона -

"пороговой" вид переходной функции. В формализме У. Маккалоха и

У. Питтса нейроны имеют состояния 0, 1 и пороговую логику перехо-

да из состояния в состояние. Каждый нейрон в сети определяет

взвешенную сумму состояний всех других нейронов и сравнивает ее с

порогом, чтобы определить свое собственное состояние. Пороговый

вид функции не предоставляет нейронной сети достаточную гибкость

при обучении и настройке на заданную задачу. Если значение вычис-

ленного скалярного произведения, даже незначительно, не достигает

до заданного порога, то выходной сигнал не формируется вовсе и

нейрон "не срабатывает". Это значит, что теряется интенсивность

выходного сигнала (аксона) данного нейрона и, следовательно, фор-

мируется невысокое значение уровня на взвешенных входах в следую-

щем слое нейронов.

2.2.2. Модель Розенблата

Серьезное развитие нейрокибернетика получила в работах аме-

риканского нейрофизиолога Френсиса Розенблата (Корнелльский уни-

верситет). В 1958 году он предложил свою модель нейронной сети.

Розенблат ввел в модель Маккаллока и Питтса способность связей к

модификации, что сделало ее обучаемой. Эта модель была названа

персептроном [11, 12, 46, 47]. Первоначально персептрон представ-

лял собой однослойную структуру с жесткой пороговой функцией про-

цессорного элемента и бинарными или многозначными входами. Первые

персептроны были способны распознавать некоторые буквы латинского

алфавита. Впоследствии модель персептрона была значительно усо-

вершенствована [47].


- -

Персептрон применялся для задачи автоматической классифика-

ции, которая в общем случае состоит в разделении пространства

признаков между заданным количеством классов. В двухмерном случае

требуется провести линию на плоскости, отделяющую одну область от

другой. Персептрон способен делить пространство только прямыми

линиями (плоскостями) [6, 11].

Алгоритм обучения персептрона выглядит следующим образом:

1) системе предъявляется эталонный образ;

2) если выходы системы срабатывают правильно, весовые коэф-

фициенты связей не изменяются;

3) если выходы срабатывают неправильно, весовым коэффициен-

там дается небольшое приращение в сторону повышения качества рас-

познавания.

Серьезным недостатком персептрона является то, что не всегда

существует такая комбинация весовых коэффициентов, при которой

имеющееся множество образов будет распознаваться данным персепт-

роном. Причина этого недостатка состоит в том, что лишь небольшое

количество задач предполагает, что линия, разделяющая эталоны,

будет прямой. Обычно это достаточно сложная кривая, замкнутая или

разомкнутая. Если учесть, что однослойный персептрон реализует

только линейную разделяющую поверхность, применение его там, где

требуется нелинейная, приводит к неверному распознаванию (эта

проблема называется линейной неразделимостью пространства призна-

ков). Выходом из этого положения является использование многос-

лойного персептрона, способного строить ломаную границу между

распознаваемыми образами.

Описанная проблема не является единственной трудностью, воз-

никающей при работе с персептронами - также слабо формализован

метод обучения персептрона. Персептрон поставил ряд вопросов, ра-

бота над решением которых привела к созданию более "разумных"

нейронных сетей и разработке методов, нашедших применение не

только в нейрокибернетике (например, метод группового учета аргу-

ментов, применяемый для идентификации математических моделей).


- -

2.2.3. Модель Хопфилда

В 70-е годы интерес к нейронным сетям значительно упал, од-

нако работы по их исследованию продолжались. Был предложен ряд

интересных разработок, таких, например, как когнитрон, способный

хорошо распознавать достаточно сложные образы (иероглифы и т.п.)

независимо от поворота и изменения масштаба изображения. Автором

когнитрона является японский ученый И. Фукушима.

Новый виток быстрого развития моделей нейронных сетей, кото-

рый начался 8-9 лет тому назад, связан с работами Амари, Андерсо-

на, Карпентера, Кохена [24, 28, 29] и других, и в особенности,

Хопфилда [17, 37-40], а также под влиянием обещающих успехов оп-

тических технологий [1, 26] и зрелой фазы развития СБИС [29] для

реализации новых архитектур.

Начало современному математическому моделированию нейронных

вычислений было положено работами Хопфилда в 1982 году, в которых

была сформулирована математическая модель ассоциативной памяти на

нейронной сети с использованием правила Хеббиана [36] для прог-

раммирования сети. Но не столько сама модель послужила толчком к

появлению работ других авторов на эту тему, сколько введенная

Хопфилдом функция вычислительной энергии нейронной сети. Это ана-

лог функции Ляпунова в динамических системах. Показано, что для

однослойной нейронной сети со связями типа "все на всех" харак-

терна сходимость к одной из конечного множества равновесных то-

чек, которые являются локальными минимумами функции энергии, со-

держащей в себе всю структуру взаимосвязей в сети. Понимание та-

кой динамики в нейронной сети было и у других исследователей. Од-

нако, Хопфилд и Тэнк [17] показали как конструировать функцию

энергии для конкретной оптимизационной задачи и как использовать

ее для отображения задачи в нейронную сеть. Этот подход получил

развитие и для решения других комбинаторных оптимизационных за-

дач. Привлекательность подхода Хопфилда состоит в том, что ней-

ронная сеть для конкретной задачи может быть запрограммирована

без обучающих итераций. Веса связей вычисляются на основании вида

функции энергии, сконструированной для этой задачи.

Развитием модели Хопфилда для решения комбинаторных оптими-

зационных задач и задач искусственного интеллекта является машина

Больцмана, предложенная и исследованная Джефери Е. Хинтоном и Р.

Земелом [20-23]. В ней, как и в других моделях, нейрон имеет сос-

тояния 1, 0 и связь между нейронами обладает весом. Каждое состо-

яние сети характеризуется определенным значением функции консен-


- -

суса (аналог функции энергии). Максимум функции консенсуса соот-

ветствует оптимальному решению задачи.

Имеется следующая информация о результатах моделирования на

ЭВМ работы нейронной сети. Моделировалась асинхронная работа сети

Хопфилда. Сеть работает хорошо, т.е. без ошибок восстанавливает

эталонные образы из случайных, если в нее записывается не более

15 % эталонных образов. Испытания проводились для 30 нейронов и

для 100 нейронов в сети. Бралось некоторое количество случайных

векторов в качестве эталонных и строилась соответствующая матрица

весов связей. Моделирование при 100 нейронах было существенно бо-

лее медленным процессам, чем при 30 нейронах, хотя качественная

картина и в том и в другом случаях была одна и та же. Приблизи-

тельно 88 % испытаний заканчивались в эталонных состояниях, 10 %

- в устойчивых состояниях, близких к эталонным. При расстоянии <=

5 между начальным и эталонным векторами, эталонное состояние дос-

тигалось в 90 % случаев. С увеличением расстояния, вероятность

попадания в наиболее близкое эталонное состояние гладко падала.

При расстоянии 12 вероятность была равна 0.2. Устойчивые состоя-

ния, слишком близкие друг к другу, имеют тенденцию "сливаться",

они попадают в одну впадину на энергетической поверхности. Прог-

раммировалась задача коммивояжера на основе сети Хопфилда. Сетью

из 100 нейронов для 20 различных случайных начальных состояний

были определены маршруты, 16 из которых были приемлемыми, 50% по-

пыток дали 2 пути 2.83 и 2.71 (цифры приводятся, чтобы показать

как они близки) при кратчайшем 2.67. Это результаты моделирования

работы сети с непрерывной моделью нейрона. Моделировалась также

задача коммивояжера, но для сети типа машина Больцмана, проводи-

лась при следующих значениях управляющих параметров: A = 0.95, L

= 10, M = 100 (A - положительное число меньше единицы, но близкое

к ней, L - число испытаний, которые проводятся без изменений, M -

число последовательных испытаний, не приводящих к изменению сос-

тояния машины, как критерия завершения процесса). Процесс запус-

кался 100 раз для n = 10 (всего в сети N = n^2 нейронов) и 25 раз

для n = 30 при различных нормальных состояниях машины Больцмана.

Для n = 10 получился оптимальный результат, для n = 30 - решение

на 14 % хуже оптимального. Отметим, что вероятностный механизм

функционирования машины Больцмана дает возможность получить на

ней несколько лучшие результаты оптимизации, чем на модели Хоп-

филда.


- -

2.2.4. Модель сети с обратным распространением

Способом обратного распространения (back propogation) назы-

вается способ обучения многослойных НС. В таких НС связи между

собой имеют только соседние слои, при этом каждый нейрон предыду-

щего слоя связан со всеми нейронами последующего слоя [5, 8, 16,

27, 30, 42, 48, 49]. Нейроны обычно имеют сигмоидальную функцию

возбуждения. Первый слой нейронов называется входным и содержит

число нейронов соответствующее распознаваемому образу. Последний

слой нейронов называется выходным и содержит столько нейронов,

сколько классов образов распознается. Между входным и выходным

слоями располагается один или более скрытых (теневых) слоев. Оп-

ределение числа скрытых слоев и числа нейронов в каждом слое для

конкретной задачи является неформальной задачей.

Принцип обучения такой нейронной сети базируется на вычисле-

нии отклонений значений сигналов на выходных процессорных элемен-

тах от эталонных и обратном "прогоне" этих отклонений до породив-

ших их элементов с целью коррекции ошибки. Еще в 1974 году Поль

Дж. Вербос [5] изобрел значительно более эффективную процедуру

для вычисления величины, называемой производной ошибки по весу,

когда работал над своей докторской диссертацией в Гарвардском

университете. Процедура, известная теперь как алгоритм обратного

распространения, стала одним из наиболее важных инструментов в

обучении нейронных сетей [5, 16, 27, 30, 42, 48, 49]. Однако это-

му алгоритму свойственны и недостатки, главный из которых - от-

сутствие сколько-нибудь приемлемых оценок времени обучения. Пони-

мание, что сеть в конце концов обучится, мало утешает, если на

это могут уйти годы. Тем не менее, алгоритм обратного распростра-

нения имеет широчайшее применение. Например, успех фирмы NEC в

распознавании букв, был достигнут именно благодаря алгоритму об-

ратного распространения. Подробнее метод обратного распростране-

ния описан в главе 3.


- -

2.3. Задачи, решаемые на основе нейронных сетей

В литературе [33, 41, 43] встречается значительное число

признаков, которыми должна обладать задача, чтобы применение НС

было оправдано и НС могла бы ее решить:

- отсутствует алгоритм или не известны принципы решения за-

дач, но накоплено достаточное число примеров;

- проблема характеризуется большими объемами входной инфор-

мации;

- данные неполны или избыточны, зашумлены, частично противо-

речивы.

Таким образом, НС хорошо подходят для распознавания образов

и решения задач классификации, оптимизации и прогнозирования. Ни-

Pages:     | 1 |   ...   | 2 | 3 || 5 | 6 |   ...   | 13 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.