WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     || 2 | 3 |

Глава 2.

Решение задач нейронными сетями

А.Н.Горбань

Вычислительный центр СО РАН в г.Красноярске1

Нейронные сети могут все. Но точно также «все» могут машины Тьюринга, интерполяционные многочлены, схемы Поста, ряды Фурье, рекурсивные функции, дизъюнктивные нормальные формы, сети Петри. В предыдущей главе было показано, что с помощью нейронных сетей можно сколь угодно точно аппроксимировать любую непрерывную функцию и имитировать любой непрерывный автомат. Это и слишком много ‑ никому не нужен столь широкий класс функций, и слишком мало, так как далеко не все важные задачи ставятся как задачи аппроксимации.

Другое дело, что в конечном итоге решение практически любой задачи можно описать, как построение некоторой функции, перерабатывающей исходные данные в результат, но такое очень общее описание не дает никакой информации о способе построения этой функции. Мало иметь универсальные способности ‑ надо для каждого класса задач указать, как применять эти способности. Именно здесь, при рассмотрении методов настройки нейронных сетей для решения задач должны выявиться реальные рамки их применимости. Конечно, такие реальные рамки изменяются со временем из-за открытия новых методов и решений.

В данной главе описано несколько базовых задач для нейронных сетей и основных или исторически первых методов настройки сетей для их решения:

  1. Классификация (с учителем) (персептрон Розенблатта [1-3]).
  2. Ассоциативная память (сети Хопфилда [4-7]).
  3. Решение систем линейных уравнений (сети Хопфилда [8]).
  4. Восстановление пробелов в данных (сети Хопфилда).
  5. Кластер-анализ и классификация (без учителя) (сети Кохонена [9-12]).

Начнем мы, однако, не с сетей, а с систем, состоящих из одного элемента.

1. Настройка одноэлементных систем для решения задач

Даже системы из одного адаптивного сумматора находят очень широкое применение. Вычисление линейных функций необходимо во многих задачах. Вот неполный перечень «специальностей» адаптивного сумматора:

  1. Линейная регрессия и восстановление простейших закономерностей [13-14];
  2. Линейная фильтрация и адаптивная обработка сигналов [15];
  3. Линейное разделение классов и простейшие задачи распознавания образов [16-18].

Задача линейной регрессии состоит в поиске наилучшего линейного приближения функции, заданной конечным набором значений: дана выборка значений вектора аргументов x1,..., xm, заданы значения функции F в этих точках: F(xi)=fi, требуется найти линейную (неоднородную) функцию φ(x)=(α,x)+α0, ближайшую к F. Чтобы однозначно поставить задачу, необходимо доопределить, что значит «ближайшую». Наиболее популярен метод наименьших квадратов, согласно которому φ ищется из условия

. (1)

Необходимо особенно подчеркнуть, что метод наименьших квадратов не является ни единственным, ни наилучшим во всех отношениях способом доопределения задачи регрессии. Его главное достоинство ‑ квадратичность минимизируемого критерия и линейность получаемых уравнений на коэффициенты φ.

Явные формулы линейной регрессии легко получить, минимизируя квадратичный критерий качества регрессии. Обозначим

Найдем производные минимизируемой функции H по настраиваемым параметрам:

где xij ‑ j-я координата вектора xi.

Приравнивая частные производные H нулю, получаем уравнения, из которых легко найти все αj (j=0,...,n). Решение удобно записать в общем виде, если для всех i=1,...,m обозначить и рассматривать n+1-мерные векторы данных xi и коэффициентов α. Тогда

Обозначим p n+1-мерный вектор с координатами ; Q - матрицу размером (n+1)×(n+1) с элементами.

В новых обозначениях решение задачи линейной регрессии имеет вид:

φ(x)=(α,x), α=Q‑1p. (2)

Приведем это решение в традиционных обозначениях математической статистики. Обозначим Mо среднее значение j-й координаты векторов исходной выборки:

.

Пусть M ‑ вектор с координатами Mо. Введем также обозначение sj для выборочного среднеквадратичного отклонения:

Величины sj задают естественный масштаб для измерения j-х координат векторов x. Кроме того, нам потребуются величина sf и коэффициенты корреляции f с j-ми координатами векторов x ‑ rfj:

Вернемся к n-мерным векторам данных и коэффициентов. Представим, что векторы сигналов проходят предобработку ‑ центрирование и нормировку и далее мы имеем дело с векторами yi:

Это, в частности, означает, что все рассматриваемые координаты вектора x имеют ненулевую дисперсию, т.е. постоянные координаты исключаются из рассмотрения ‑ они не несут полезной информации. Уравнения регрессии будем искать в форме: φ(y)=(β,y)+β0. Получим:

β0=Mf, β=sfR‑1Rf, (3)

где Rf ‑ вектор коэффициентов корреляции f с j-ми координатами векторов x, имеющий координаты rfj, R ‑ матрица коэффициентов корреляции между координатами вектора данных:

В задачах обработки данных почти всегда возникает вопрос о последовательном уточнении результатов по мере поступления новых данных (обработка данных «на лету»). Существует, как минимум, два подхода к ответу на этот вопрос для задачи линейной регрессии. Первый подход состоит в том, что изменения в коэффициентах регрессии при поступлении новых данных рассматриваются как малые и в их вычислении ограничиваются первыми порядками теории возмущений. При втором подходе для каждого нового вектора данных делается шаг изменений коэффициентов, уменьшающий ошибку регрессии Δ2 на вновь поступившем векторе данных. При этом «предыдущий опыт» фиксируется только в текущих коэффициентах регрессии.

В рамках первого подхода рассмотрим, как будет изменяться α из формулы (2) при добавлении нового вектора данных. В первом порядке теории возмущений найдем изменение вектора коэффициента α при изменении вектора p и матрицы Q:

Пусть на выборке вычислены p, Q, Q‑1. При получении нового вектора данных xm+1 и соответствующего значения F(xm+1)=f m+1 имеем2:

(4)

где ‑ ошибка на векторе данных xm+1 регрессионной зависимости, полученной на основании выборки.

Пересчитывая по приведенным формулам p, Q, Q‑1 и α после каждого получения данных, получаем процесс, в котором последовательно уточняются уравнения линейной регрессии. И требуемый объем памяти, и количество операций имеют порядок n2 ‑ из-за необходимости накапливать и модифицировать матрицу Q‑1. Конечно, это меньше, чем потребуется на обычное обращение матрицы Q на каждом шаге, однако следующий простой алгоритм еще экономнее. Он вовсе не обращается к матрицам Q, Q‑1 и основан на уменьшении на каждом шаге величины ‑ квадрата ошибки на векторе данных xm+1 регрессионной зависимости, полученной на основании выборки.

Вновь обратимся к формуле (2) и будем рассматривать n+1-мерные векторы данных и коэффициентов. Обозначим. Тогда

. (5)

Последняя элементарная формула столь важна в теории адаптивных сумматоров, что носит «именное название» ‑ формула Уидроу. «Обучение» адаптивного сумматора методом наискорейшего спуска состоит в изменении вектора коэффициентов α в направлении антиградиента Δ2: на каждом шаге к α добавляется h×Δ×x, где h ‑ величина шага.

Если при каждом поступлении нового вектора данных x изменять α указанным образом, то получим последовательную процедуру построения линейной аппроксимации функции F(x). Такой алгоритм обучения легко реализуется аппаратными средствами (изменение веса связи αj есть произведение прошедшего по ней сигнала xj на ошибку Δ и на величину шага). Возникает, однако, проблема сходимости: если h слишком мало, то сходимость будет медленной, если же слишком велико, то произойдет потеря устойчивости и сходимости не будет вовсе. Детальному изложению этого подхода и его приложений посвящен учебник [15].

Задача четкого разделения двух классов по обучающей выборке ставится так: имеется два набора векторов x1,..., xm и y1,...,ym. Заранее известно, что xi относится к первому классу, а yi - ко второму. Требуется построить решающее правило, то есть определить такую функцию f(x), что при f(x)>0 вектор x относится к первому классу, а при f(x)<0 ‑ ко второму.

Координаты классифицируемых векторов представляют собой значения некоторых признаков (свойств) исследуемых объектов.

Эта задача возникает во многих случаях: при диагностике болезней и определении неисправностей машин по косвенным признакам, при распознавании изображений и сигналов и т.п.

Строго говоря, классифицируются не векторы свойств, а объекты, которые обладают этими свойствами. Это замечание становится важным в тех случаях, когда возникают затруднения с построением решающего правила - например тогда, когда встречаются принадлежащие к разным классам объекты, имеющие одинаковые признаки. В этих случаях возможно несколько решений:

1) искать дополнительные признаки, позволяющие разделить классы;

2) примириться с неизбежностью ошибок, назначить за каждый тип ошибок свой штраф (c12 - штраф за то, что объект первого класса отнесен ко второму, c21 - за то, что объект второго класса отнесен к первому) и строить разделяющее правило так, чтобы минимизировать математическое ожидание штрафа;

3) перейти к нечеткому разделению классов - строить так называемые "функции принадлежности" f1(x) и f2(x) ‑ fi(x) оценивает степень уверенности при отнесении объекта к i-му классу (i=1,2), для одного и того же x может быть так, что и f1(x)>0, и f2(x)>0.

Линейное разделение классов состоит в построении линейного решающего правила ‑ то есть такого вектора α и числа α0 (называемого порогом), что при (x,α)>α0 x относится к первому классу, а при (x, α)<α0 - ко второму.

Поиск такого решающего правила можно рассматривать как разделение классов в проекции на прямую. Вектор α задает прямую, на которую ортогонально проектируются все точки, а число α0 ‑ точку на этой прямой, отделяющую первый класс от второго.

Простейший и подчас очень удобный выбор состоит в проектировании на прямую, соединяющую центры масс выборок. Центр масс вычисляется в предположении, что массы всех точек одинаковы и равны 1. Это соответствует заданию α в виде

α= (y1+ y2+...+ym)/m ‑(x1+ x2+...+ x n)/n. (6)

Во многих случаях удобнее иметь дело с векторами единичной длины. Нормируя α, получаем:

α= ((y1+ y2+...+ym)/m ‑(x1+ x2+...+ x n)/n)/||(y1+ y2+...+ym)/m ‑(x1+ x2+...+ x n)/n||.

Выбор α0 может производиться из различных соображений. Простейший вариант ‑ посередине между центрами масс выборок:

α0=(((y1+ y2+...+ym)/m,α)+((x1+ x2+...+ x n)/n,α))/2.

Более тонкие способы построения границы раздела классов α0 учитывают различные вероятности появления объектов разных классов, и оценки плотности распределения точек классов на прямой. Чем меньше вероятность появления данного класса, тем более граница раздела приближается к центру тяжести соответствующей выборки.

Можно для каждого класса построить приближенную плотность вероятностей распределения проекций его точек на прямую (это намного проще, чем для многомерного распределения) и выбирать α0, минимизируя вероятность ошибки. Пусть решающее правило имеет вид: при (x, α)>α0 x относится к первому классу, а при (x, α)<α0 ‑ ко второму. В таком случае вероятность ошибки будет равна

где p1, p2 ‑ априорные вероятности принадлежности объекта соответствующему классу,

ρ1(χ), ρ2(χ) ‑ плотности вероятности для распределения проекций χ точек x в каждом классе.

Приравняв нулю производную вероятности ошибки по α0, получим: число α0, доставляющее минимум вероятности ошибки, является корнем уравнения:

p1ρ1(χ)=p2ρ2(χ), (7)

либо (если у этого уравнения нет решений) оптимальным является правило, относящее все объекты к одному из классов.

Если принять гипотезу о нормальности распределений:

,

то для определения α0 получим:

,

Если это уравнение имеет два корня y=α1, α2, (α1<α2) то наилучшим решающим правилом будет: при α1<(x, α)<α2 объект принадлежит одному классу, а при α1>(x, α) или (x, α)>α2 ‑ другому (какому именно, определяется тем, которое из произведений piρi(χ) больше). Если корней нет, то оптимальным является отнесение к одному из классов. Случай единственного корня представляет интерес только тогда, когда σ1=σ2. При этом уравнение превращается в линейное и мы приходим к исходному варианту ‑ единственной разделяющей точке α0.

Таким образом, разделяющее правило с единственной разделяющей точкой α0 не является наилучшим для нормальных распределений и надо искать две разделяющие точки.

Если сразу ставить задачу об оптимальном разделении многомерных нормальных распределений, то получим, что наилучшей разделяющей поверхностью является квадрика (на прямой типичная «квадрика» ‑ две точки). Предполагая, что ковариационные матрицы классов совпадают (в одномерном случае это предположение о том, что σ1=σ2), получаем линейную разделяющую поверхность. Она ортогональна прямой, соединяющей центры выборок не в обычном скалярном произведении, а в специальном:, где Σ ‑ общая ковариационная матрица классов. За деталями отсылаем к прекрасно написанной книге [17], см. также [11,12,16].

Важная возможность усовершенствовать разделяющее правило состоит с использовании оценки не просто вероятности ошибки, а среднего риска: каждой ошибке приписывается «цена» ci и минимизируется сумма c1p1ρ1(χ)+c2p2ρ2(χ). Ответ получается практически тем же (всюду pi заменяются на cipi), но такая добавка важна для многих приложений.

Требование безошибочности разделяющего правила на обучающей выборке принципиально отличается от обсуждавшихся критериев оптимальности. На основе этого требования строится персептрон Розенблатта ‑ «дедушка» современных нейронных сетей [1].

Pages:     || 2 | 3 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.