WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Кислов К.В., Гравиров В.В. Нейросетевой метод детектирования землетрясения при повышенном уровне шума

Научная статья

 

Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       824       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

Нейросетевой метод детектирования землетрясения при

повышенном уровне шума

Кислов К.В. fkvkislov@vandex.ru), Гравиров В.В.

Учреждение Российской академии наук, Международный институт теории прогноза землетрясений и математической

геофизики РАН (МНТП РАН)

Введение

Во многих задачах сейсмологии актуально детектирование сигнала в присутствии шума высокого уровня самой разнообразной природы. Это связано с тем, что:

  1. при  организации мониторинга урбанизированных районов приходится иметь дело с высоким уровнем антропогенного шума;
  2. выявление   событий   на   фоне   шума   позволяет   снизить   магнитудный   порог рассматриваемых событий;
  3. четкое   выделение   сигналов   из   шумов   позволяет   снизить   стоимость  защиты сейсмических датчиков от воздействия окружающей среды [1].

Надежное детектирование сигнала особо важно в системах раннего предупреждения, основанных на принципе единичной станции [11]. В этом случае датчики располагаются у конечных пользователей: на предприятиях, в жилых районах, в местах проведения разного рода работ, то есть там, где уровень шума высок. Такие условия приводят к недопустимо высокой ошибке первого рода (ложная тревога). Это обусловливает ограничения на применение принципа единичной станции и заставляет переходить к использованию дорогостоящих методик, основанных на развертывании плотных сетей сейсмических станций, охватывающих обширные территории [7, 14].

Не меньше трудностей возникает при детектировании слабых землетрясений в присутствии шума различной природы, имеющего высокий уровень. Мы одновременно решаем две задачи: определение слабых землетрясений (с магнитудой < 4) и сильных, представляющих опасность (с магнитудой > 5).

Стандартные методы детектирования основываются на предположении о стационарности шума на достаточно длинном участке. При исследовании сейсмической записи, полученной в мегаполисе, приходится иметь дело с помехами, имеющими самую разную природу и характеристики. При этом уровень шума сопоставим с амплитудой детектируемого сигнала. В то же время, согласно требованиям классической статистики, в модель включаются только независимые параметры сигнала. Однако зависимые параметры в совокупности могут также нести полезную информацию. При этом количество динамических параметров может быть очень велико и некоторые из них даже не рассматриваются как кандидаты на участие в модели. Это затрудняет, а порой делает и невозможным использование традиционных методов.

Действенным инструментом при детектировании событий на фоне шумов может стать нейронная сеть (НС) [8].

В последнее время в геофизике расширяется применение алгоритмов анализа данных, основанных на нейросетевых методах. Имеют место как прикладные исследования с использованием для этой цели хорошо известных алгоритмов, так и разработка различных новых подходов [3, 4, 10, 16, 17].

Однако этот мощный инструмент до сих пор весьма ограничено применялся как классификатор выделения сейсмического сигнала на фоне шума [13].

Использование     в     качестве     классификаторов        НС     имеет    неоспоримые

преимущества.


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       825       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

  1. В НС проводится параллельная обработка информации одновременно всеми нейронами, что делает возможным аппаратный анализ сложных сигналов в реальном времени.
  2. НС могут аппроксимировать любую непрерывную функцию. Таким образом, нет необходимости заранее принимать модельные гипотезы, и даже - в ряде случаев -предположения о том, какие переменные действительно важны.
  3. НС проводят анализ влияния входных параметров на результат. При обучении системы выделяются ключевые характеристики. Возможно извлечение существенных данных из избыточной информации.
  4. НС способны решать задачи, используя неполную, искаженную, зашумленную и внутренне противоречивую информацию.
  5. НС инвариантны к размерности пространства признаков.
  6. Эксплуатация обученной НС может проводиться даже неподготовленным пользователем.

Перечислим ряд проблем, стоящих на пути широкого распространения нейросетевых технологий.

  1. Не любую задачу можно решить с помощью НС. Нет гарантии, что НС может быть обучена за конечное время. Зачастую усилия и затраты машинного времени на обучение не приводят к желаемому результату.
  2. Обучение может привести к обнаружению локального минимума ошибки и наилучшее решение не будет получено.
  3. Все виды обучений сетей не свободны от ограничений.
  4. При применении НС критерии классификации скрыты. Невозможно объяснить, как решается задача, и интерпретировать ее в традиционных аналитических терминах, которые обычно применяются при построении теории явления.
  5. НС выдает результат с той или иной степенью вероятности и, следовательно, сети неприменимы для задач, в которых требуется абсолютная точность.

Архитектура сети выбирается для каждого конкретного приложения. Для моделирования структуры НС был выбран пакет Neural Networks в системе MatLab [9]. В него входят около двух десятков типов НС и обучающих правил, позволяющих выбрать наиболее подходящую для конкретной задачи архитектуру. В задачах классификации наиболее часто применяются сети следующих типов: многослойный персептрон (МП), радиальная базисная функция, сеть Кохонена, вероятностная НС. Можно применять различные НС, так как области их применения пересекаются. Тем не менее, выбор оптимальной сети - нетривиальная задача. Зачастую в результате последовательных шагов обучения ошибка остается недопустимо большой. В этом случае приходится менять ее конфигурацию и даже выбирать сеть иного вида.

Сети типа радиальной базисной функции в задачах классификации разбивают пространство входных данных посредством гиперсфер [15]. Поверхность отклика радиального элемента представляет собой гауссову функцию (колоколообразной формы) с вершиной в центре и понижением к краям. Эти сети имеют ряд преимуществ. Они имеют только один промежуточный слой, не испытывают трудностей с локальными минимумами и поэтому обучаются очень быстро. Однако радиальных элементов требуется несколько больше, чем в МП, нужно определить положение их центров и величины отклонений. Соответствующие алгоритмы в меньшей степени пригодны для отыскания оптимальных решений. Таким образом, сеть будет работать медленнее и потребует больше памяти, чем соответствующий МП. К тому же сети типа радиальной базисной функции плохо экстраполирует данные, лежащие далеко от обучающей выборки.

НС Кохонена (самоорганизующаяся карта Кохонена) также решает задачи классификации многомерных векторов. Достоинством сети, по сравнению с другими алгоритмами, является легкость визуализации и интерпретации полученных результатов. Обучение сети проходит без учителя, только на основе выборки входных данных.


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       826       http://zhumal.ape.relarn.ru/articles/2010/070.pdf


Преимущество вероятностной НС состоят в том, что она быстро обучается и в том, что выходное значение имеет вероятностный смысл и его легче интерпретировать, однако она требует много памяти и может медленно работать. Радиальные элементы берутся по одному на каждое обучающее наблюдение. Каждый из них представляет гауссову функцию с центром в этом наблюдении. Каждый выходной элемент соединен со всеми радиальными элементами, относящимися к его классу, а со всеми остальными радиальными элементами он имеет нулевое соединение. Таким образом, выходной элемент просто складывает отклики всех элементов, принадлежащих к его классу. Значения выходных сигналов пропорциональны оценкам вероятности принадлежности соответствующим классам, и, пронормировав их, мы получаем окончательные оценки вероятности.

На начальном этапе решения задачи логичным является применение наиболее простой конфигурации и усложнение ее по мере необходимости. В связи с этим, для целей классификации (отделения землетрясений от шумов) применим нейронную полносвязную сеть с прямой передачей сигнала - МП с одним скрытым слоем (см. рис. 1). Применение именно этой архитектуры в ряде случаев вполне оправдано с точки зрения эффективности решения задачи.

Ныходнои слой п=   2

Входной           Скрытый

псеВдослой   слой

п=   0                п=   1

а щ

о

XDJ

15 О

Беса wy]

Рис. 1. Структура многослойного персептрона с одним скрытым слоем и одним нейроном выходного слоя

Нейроны МП организованы в несколько слоев [6]. Каждый нейрон принимает и обрабатывает информацию от каждого нейрона более низкого уровня. Таким образом, сигналы в сети распространяются от входного слоя через скрытые слои к выходному слою. Входной слой только принимает и распространяет по сети входную информацию. Каждый нейрон на скрытом слое имеет один выход. В нейроне вычисляется взвешенная сумма его входов с последующим нелинейным преобразованием в выходной сигнал. Активационная функция / (это нелинейное преобразование) должна быть дифференцируемой. Этому требованию удовлетворяет выбранная нами сигмоидная функция:

/О) =------------

1 + ехр(-х)

Так как разделение ведется на два класса (землетрясения и шумы), в персептроне устанавливается один выходной элемент, описывающий результат классификации^. Сформулируем    основные    требования    к    нейросетевой    системе    детектирования землетрясения:

  1. совместимость форматов хранения информации со средствами обработки данных;
  2. возможность нормализации и децимации исходных обучающих данных;
  3. классификация данных обученной НС;
  4. генерация удобного для использования выходного сигнала.

Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       827       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

Использованные данные и методы исследования

Структурная схема нейросетевой системы детектирования землетрясений может быть представлена следующим образом (см. рис. 2).

 

 

 

 

Модуль подготовки

Модуль обучения нейросети

Рабочий модуль

Перевод в код ASCII

Начальная настройка параметров

Импорт и обработка данных

Фильтрация, децимация и исправление

Обучение нейронной сети

Пороговый включатель

Нормализация

Расчет качества классификации

Нормализация

Мультиплексирование

Классификация

Создание обучающих данных

Генерация выходного сигнала

Рис. 2. Структурная схема нейросетевой системы детектирования землетрясений

Модуль подготовки выполняет создание и хранение массива обучающих (эталонных) данных. В нем производится перевод сейсмических записей, хранимых в различных форматах, в коды, с которыми удобно оперировать в среде MatLab [2], синтезируется единая частота опроса датчиков посредством децимации данных и проводится их исправление на характеристику конкретного датчика. При необходимости выполняется также фильтрация промышленной частоты. Затем формируются эталонные записи определенной длины. Для этого от начала события отсчитываются 1024 отсчета, данные нормализуются и архивируются (см. рис.3).

Нормализация данных осуществляется посредством масштабирования значений в диапазон [-1;1]. Затем производится мультиплексирование данных: начальная точка сдвигается на 2 отсчета и операция повторяется. Таким образом, вперед и назад от точки начала события формируется по 50 эталонных записей. (Создание такого массива данных для каждого события позволяет проводить детектирование в псевдореальном времени, смещая каждый раз анализируемое окно на одну секунду по сейсмической записи.) Далее на базе каждой из эталонных записей формируются векторы признаков с соответствующими каждому из них результатами классификации. Отнормированный набор пар вектор-результат и является входным материалом для обучения НС.

Первоначально вектор признаков формируется интуитивно. Определить, какие параметры сигнала наиболее важны достаточно трудно. Это объясняется, во-первых, тем, что сигналы землетрясений различаются между собой, и даже сигналы от одного и того же события, записанные на разных станциях, весьма отличны (см. рис. 3 и рис. 4), а, во-вторых, разнообразием шумов (см. рис. 5 и рис. 6), особенно техногенных. Можно осуществить атаку «в лоб», подав на 1024 нейрона входного слоя сети отнормированные амплитудные значения сигнала. Можно добавить к ним значения спектра, коэффициенты вейвлет преобразования [5] или еще более экзотические параметры [11]. Таким образом,


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       828       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

количество нейронов сети зависит от длины исследуемого окна данных, анализируемого частотного интервала и присутствия дополнительных параметров. В некоторых пакетах программ заложена возможность автоматического отбора полезных переменных опытным путем.

Рис. 3. Формирование первого эталонного файла (станция WDC: широта 40.58, долгота

-122.54)

а - исходная запись эталонного события (магнитуда 6.5), происшедшего 10.01.2010г. в

00:27:39.3 около побережья Калифорнии (широта 40.65, долгота    -124.69);

б - первые 1024 отсчета события, нормированные масштабированием в диапазон [-1; 1 ]

(начальная точка соответствует отметке времени 205.4 с)

От модуля обучения НС (см. рис. 2) зависит способность сети решать поставленные перед ней проблемы во время эксплуатации. В основе всех алгоритмов обучения положен единый принцип минимизации эмпирической ошибки. Конфигурация сети постепенно модифицируется - обычно изменяются состояния синаптических весов таким образом, чтобы минимизировать эту ошибку.

Функцию ошибки можно представить следующим образом. Каждому из N весов сети соответствует одна координата многомерного пространства. N+1-e измерение соответствует  ошибке  сети.   Ошибку  сети  можно  изобразить  точкой  в N+1-мерном


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       829       http://zhumal.ape.relarn.ru/articles/2010/070.pdf


пространстве. Совокупность таких точек образует поверхность ошибок. Цель обучения

НС состоит в том, чтобы найти на этой многомерной поверхности самую низкую точку,

[от.«д.]                                                                                                                                         а

212                214               216               21W               Время Jl-1

lWn сд |

212      Нрсчя [с]

2Ш

I

первых эталонных файлов события с магнитудой 6.5, 10.01.2010г. в a /in а<; тт^ттт-^^а    -124.69, записанных с разных азимутов при разном

Рис. 4. Сравнение „_г__________

00:27:39.3, широта 40.65, долгота

эпицентральном расстоянии:

а - станция ВЕК: широта 39.87, долгота -120.36; эпицентральное расстояние А 360 км;

б - станция М04С: широта 41.78, долгота -121.84; эпицентральное расстояние А 400 км;

в - станция LCCR: широта 45.21, долгота -122.48; эпицентральное расстояние А 560 км


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       830       http://zhumal.ape.relarn.ru/articles/2010/070.pdf


 


ЩЬу^гъ

Рис. 5. Эталонные файлы шумов различной природы: а - движение большегрузной автомашины; б - электрифицированная железная дорога; в - промышленный шум


Аналитически   определить   на   поверхности   ошибок   положение   глобального минимума  невозможно.  Исходя  из  случайно  взятой  точки  на  поверхности  ошибок,


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       831       http://zhumal.ape.relarn.ru/articles/2010/070.pdf


алгоритм обучения постепенно отыскивает минимум.  Для этого вычисляется наклон

поверхности ошибок в данной точке (градиент), а затем эта информация используется для

продвижения вниз по склону. Алгоритм останавливает обучение в нижней точке.

х 10'"

а

ч

с

1(Г                                Ю-1                                 10и                                  101            Частота [Гц]

Рис. 6. Амплитудные спектры шумов различной природы; цветами обозначены: синий -трафик, красный - ветровые колебания высотного здания, зеленый - большегрузный транспорт, коричневый - шестой этаж офисного здания, фиолетовый - пустырь в черте города, черный - электрифицированная железная дорога

Для обучения НС разработаны методы, различающиеся эффективностью и скоростью обучения: алгоритм обратного распространения ошибки (АОР), метод градиентного спуска с адаптивным обучением, метод градиентного спуска с учетом моментов и адаптивным обучением, метод сопряженных градиентов, Метод Левенберга-Маркара, и другие.

Среди алгоритмов обучения с учителем (когда для каждого обучающего набора данных известен желаемый результат классификации) наиболее успешным является АОР. Обучение сети начинается с предъявления вектора признаков и вычисления соответствующей реакции. Сравнение с желаемой реакцией дает возможность изменять веса связей таким образом, чтобы сеть на следующем шаге могла выдавать более точный результат. Изменение весов синапсов происходит с учетом локального градиента функции ошибки. Информация о выходах сети является исходной для нейронов предыдущих слоев. Функция ошибки представляет собой разность между текущим выходом сети и идеальным выходом. Согласно методу наименьших квадратов, функция ошибки НС:

Z j,p

где У]Р„ - выходное состояние у'-го нейрона слоя п НС при подаче на ее входы р-то

обучающего образа; dJP- желаемое выходное состояние этого нейрона.

Для сети требуется приблизить выход сети к желаемому. Коррекция синаптических

коэффициентов осуществляется следующим образом:

dE wv(t + l) = wv(t) + Tj-—, dw


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       832       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

где Wjj(t) и Wjj(t+1) - веса связей между г-м иу-м нейронами на текущем и последующем

dE

шаге обучения (см. рис.1), ------  - производная функции ошибки, ц - параметр скорости

dw

v

обучения. Чем больше г/, тем менее точным будет следующее уменьшение суммарной

ошибки сети, но чем этот параметр меньше, тем больше времени займет обучение и тем

наиболее возможно попадание сети в локальный минимум функции ошибки. Простейшее

правило   обучения   соответствует  методу   наискорейшего   спуска,   то   есть   изменения

синаптических весов пропорционально их вкладу в общую ошибку. Развитием этого

алгоритма является метод градиентного спуска с учетом моментов. К величине коррекции

веса прибавляется величина, пропорциональная изменению этого весового коэффициента

на предыдущем шаге:

dEwv(t + l) = wll(t) + Tj— + a-wll(t),

V

где а - коэффициент инерции.

В основе АОР лежит методика, позволяющая вычислять градиент функции ошибки сети (вектор частных производных) многих переменных. Структура функции ошибки сети полностью определяется архитектурой НС. АОР может быть очень медленным, особенно для многослойных сетей, где поверхность функции ошибки высокоразмерна и имеет множество локальных минимумов или плоских областей. Несмотря на многочисленные успешные применения АОР в сложных задачах, сеть может и вообще не обучиться, либо обучиться неверно. Во-первых, может произойти так называемый «паралич сети» - в результате коррекции, веса могут стать очень большими, при этом нейроны будут функционировать в области, где производная сжимающей функции очень мала и процесс обучения практически остановится. Во-вторых, НС может попасть в локальный минимум. В-третьих, возможно «переобучение» сети, при котором эталонные сигналы классифицируются очень хорошо, но другие, даже близкие к ним, различаются неверно.

При использовании метода градиентного спуска с адаптивным обучением производится пакетная обработка данных, то есть вычисляется усредненный градиент поверхности ошибок по всему обучающему множеству, и веса корректируются один раз в конце каждой эпохи (эпохой называют проход по всем обучающим данным с проверкой на тестовом множестве). Процесс обучения проходит гораздо быстрее, однако, если поверхность ошибок не является вогнутой, алгоритм может уйти в ложном направлении. К тому же при маленьких изменениях градиента шаг алгоритма может оказаться очень большим и даже бесконечным, а при нулевом градиенте изменение весов вообще прекращается.

Основная идея метода градиентного спуска с учетом моментов и адаптивным обучением - изменение скорости обучения отдельных весов. Если производная сохраняет знак на нескольких последовательных итерациях, то скорость обучения увеличивается и, наоборот, при изменениях знака скорость уменьшается. Алгоритм может плохо работать на поверхностях ошибок, искаженных помехами, где производные могут часто менять знак. В этом случае берется сглаженный вариант производной. Тем не менее, этот метод более чем АОР чувствителен к эффекту локальных минимумов.

Метод сопряженных градиентов заключается в следующем. Выбирается направление скорейшего спуска по многомерной поверхности. На нем ищется точка минимума (производная функции ошибки равна нулю). Сопряженное направление выбирается таким образом, чтобы производная оставалась нулевой. В этом случае минимум достигается за N эпох. На сложных поверхностях по мере работы алгоритма условие сопряженности теряется. Тем не менее, этот метод требует меньшего числа шагов, чем АОР, и дает лучшую точку минимума.

Метод Левенберга-Маркара применяется для сетей с одним выходным элементом, что соответствует нашей задаче. Как правило, это самый быстрый и надежный алгоритм


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       833       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

обучения. Однако этот метод требует памяти, пропорциональной квадрату числа весов в сети. Фактически это ограничение не позволяет использовать метод для сетей большого размера (порядка тысячи и более весов).

Нами был использован наиболее простой метод - АОР. Его рекомендуется выбирать, если объем сигнала велик и данные избыточны.

Начальная настройка параметров существенно влияет на количество итераций обучения НС. Синаптические коэффициенты должны быть выбраны случайно, но так, чтобы активационная функция активизировалась в линейной области, то есть, чтобы выборы активационной функции и начальных значений весовых коэффициентов были согласованы между собой. Для выбранной сигмоидной активационной функции в данной работе начальные синаптические коэффициенты были выбраны случайным образом из нормального распределения с нулевым средним и стандартным отклонением:

a  =JN,

где iV- число связей, входящих в нейрон.

В пакете Neural Networks предусматривается расчет качества обучения. Процесс может быть визуализирован с помощью кривой обучения, показывающей снижение ошибки в зависимости от количества выполненных эпох обучения. Критерием является уровень ошибки, полученный на обучающем множестве. При этом производная кривой обучения, полученной на контрольном множестве, должна оставаться отрицательной. К сожалению, этот расчет представляет собой оценку соответствия архитектуры сети обучающим данным и не является мерой, по которой однозначно можно судить о качестве последующей работы обученной сети.

Можно избрать мерой остановки время обучения (количество эпох).

Расчет качества классификации может быть выполнен только после обучения НС. Для этого применяется зарезервированная тестовая выборка, которая тоже должна быть достаточно презентативной.

Нейросетевая система детектирования землетрясений работает следующим образом (см. рис. 2, «Рабочий модуль»). Данные импортируются в систему непосредственно с сейсмодатчика или из любого архива. Как и для данных обучающего множества производится перевод в код ASCII, исправление на характеристику датчика и синтезируется единая частота опроса датчиков. Далее простой пороговый включатель определяет начало участка, требующего углубленного анализа. Формируется окно исследования - данные участка определенной длины преобразуются, нормализуются и подаются на входы обученной НС. По результатам классификации генерируется выходной сигнал системы о землетрясении, либо о наличии сейсмического шума высокого уровня.

Полученные результаты

Обучение производилось с использованием данных калифорнийских станций. Было обработано 25 событий, записанных более чем на 20-ти станциях. С учетом мультиплексирования данных это позволило сформировать более 50000 векторов характерных признаков класса «землетрясение». Обработка сейсмических записей шумов, как природного, так и техногенного происхождения, позволила сформировать второй массив данных (класс «шум») для обучения НС. По 100 векторов каждого класса было зарезервировано под тестовую выборку.

Обучение выполнялось до достижения ошибки в 0.001 на обучающих данных, но не более 50000 эпох. На тестовом наборе получена точность классификации равная 93 %. Так как достигнутая точность достаточно высока, хотя и несколько меньше желаемой, предложенная НС может быть использована как базовая при создании системы раннего оповещения с единичным датчиком. Естественно, в существующем виде нейросетевая система детектирования землетрясений может использоваться не в полном объеме. Во-первых, анализ столь длинного временного окна (чуть более 10 с) увеличит мертвую зону


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       834       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

системы до 150 - 200 км (то есть область вокруг эпицентра землетрясения, где сигнал предупреждения будет генерироваться уже после прихода разрушительных волн). Во-вторых, сеть обучена на сходных по механизму землетрясениях, записанных на одних и тех же станциях и, следовательно, сможет применяться только в этом регионе. В-третьих, как уже упоминалось, точность детектирования сигнала пока недостаточна. Тем не менее, учитывая возможности модернизации НС и методов формирования векторов признаков и принимая во внимание огромный потенциал нейросетевых методов классификации сигналов, можно быть уверенными в перспективности данного метода решения задачи.

Заключение

Предлагаемая статья не является инструкцией по применению НС в сейсмологии и не претендует на полноту освещения вопроса. Здесь не отражены многие вопросы построения сетей. Например, не указаны различные варианты выбора активационной функции и начальной настройки параметров, а это существенно влияет на скорость обучения.

Основной целью нашей работы было исследовать возможность применения НС для выделения сигнала землетрясения на фоне шумов, имеющих разнообразную природу и характеристики. Проанализирована эффективность нейросетевого решения данной задачи, обсуждены различные виды НС, алгоритмы их обучения, выбора начальных весовых коэффициентов и методы оценки эффективности НС.

Построение сети состоит из следующих шагов:

  1. Определить вид и структуру входных переменных и сформировать обучающее множество данных. Зарезервировать часть данных под контрольное множество и под тестовое множество.
  2. Выбрать несколько приемлемых конфигураций сети (число слоев, связи между слоями, активационную функцию, начальные весовые коэффициенты и т.д.), функцию ошибки, то есть характеристику отклонения выходного сигнала нейросети от желаемого, критерий качества системы.
  3. Определить контрольные ошибки для каждой конфигурации, проведя по нескольку процессов обучения, чтобы исключить возможность попадания в локальный минимум. Если в процессе обучения желаемая точность не получена, требуется усложнить НС - необходимо добавить нейроны на скрытый слой или увеличить количество слоев. При переобучении, то есть когда ошибка на контрольном множестве стала расти - удалить несколько нейронов или слоев.
  4. Определить качество НС по тестовому набору данных.

Применяя нейросетевые технологии можно решать и более сложные, чем простое детектирование сигнала задачи. Возможно решение многих прикладных, теоретических и методических задач. Например, путем анализа весовых коэффициентов сети возможно оценить относительную значимость влияния отдельных исходных переменных или видов представления данных на отклик (от спектра и вейвлет преобразования до матриц смежности и вычисленных на ее базе характеристик: энтропии, энергии, контраста, однородности и др.), то есть выполнить анализ чувствительности сети по ее входам. Чувствительность входных переменных определяется по ошибке сети: то есть вычисляется прирост общей погрешности предсказания, если анализируемая переменная была исключена на входе. Применяя сложное представление входных данных, используя комбинированные сети или набор сетей можно не только отличить сигнал землетрясения от шума, но и осуществить более сложную классификацию: возможно распознавание фаз землетрясения, классификация землетрясений по характеристикам и так далее. При этом, поскольку основные затраты времени приходятся на обучение НС, а в процессе ее эксплуатации они незначительны, возможно создание как программных, так и аппаратных комплексов, работающих в режиме реального времени.


Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       835       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

Благодарности

Работа проводится в Международном институте теории прогноза землетрясений и математической геофизики Российской Академии наук (МНТП РАН) совместно со специалистами Федерального Государственного Унитарного предприятия «Государственный научно-исследовательский институт авиационных систем» (ГосНИИАС) при финансовой поддержке Европейского Сообщества в лице Международного Научно-Технического Центра.

Мы благодарим наших зарубежных партнеров: Старшего исследователя Национального исследовательского института наук о Земле и предотвращения катастроф доктора Шигеки Хориуши (Sh. Horiushi) и Руководителя подразделения сейсмологии Королевской обсерватории Бельгии Терри Камельбика (Th. Camelbeek) за полезные обсуждения и предоставленные данные.

Конструктивными оказались также консультации с профессором, д.т.н. П.Г. Кругом по организации нейросетей.

Предварительные результаты исследования были доложены на конференции Европейского Геофизического Союза [12]. Мы выражаем благодарность всем ученым, заинтересовавшимся нашей работой и принявшим участие в ее обсуждении.

Литература:

  1. Кислое КВ. Теория и методы защиты широкополосных сейсмометров от воздействий окружающей среды Дисс. ... канд. физ-мат. н. М., 2009.
  2. Медведев B.C., Потемкин В.Г. Нейронные сети. MATLAB 6. М.: Изд-во Диалог-МИФИ, 2002. 496 с.
  3. Пустарнакова Ю.А., Ахметова Э.Р. Искусственная нейронная сеть как инструмент прогнозирования геологических параметров по сейсмическим атрибутам и данным бурения // Геофизика, спецвыпуск «Технологии сейсморазведки», 2002, С. 117-121.
  4. Сенилов М.А., Лялин В.Е. Нейросетевая модель поточечной интерпретации геофизических данных // Вестник Нижегородского ун-та. Матем. моделирование и оптим. управл., 2005, №1, С. 215-223.
  5. Тупицын А.Н. Распознавание сигналов и анализ нестационарных точечных процессов с использованием вейвлет-преобразования. Автореферат дисс. ... канд. ф.-м. н. - Саратов., 2009.
  6. Хайкин С, Нейронные сети: полный курс. 2-е изд. М.: Издательский дом «Вильяме» ,2006, 1104 с.
  7. Allen R.M. (2009) The current status of earthquake early warning around the world, Eos Trans. AGU, 90(52), Fall Meet. Suppl., Abstract S21C-01.
  8. Dayan P., Abbott L. F. Theoretical neuroscience. — MIT, Berkley, 2002, 432 p.
  9. Demuth K, Beale M. Neural Network Toolbox. For Use with MATLAB // The MathWorks Inc. 1992-2000.
  10. Gentili S. and Michelini A. Automatic picking of P and S phases using a neural tree // Journal of Seismology. Volume 10, Number 1, 2006, P. 39-63.
  11. Gravirov V.V., Kislov K.V. (2009) The First Results of Testing Methods and Algorithms for Automatic Real Time Identification of Waveforms Introduction from Local Earthquakes in Increased Level of Man-induced Noises for the Purposes of Ultra-short-term Warning about an Occurred Earthquake // Eos Trans. AGU, 90(52), Fall Meet. Suppl., Abstract S13A-1731.
  12. Gravirov V. V., Kislov К V.,and Ovchinnikova T. V. Neural network method for identification of earthquake phases in increased noise level conditions // EGU General Assembly 2010. Geophysical Research Abstracts. Vol. 12, EGU2010-2434-1, 2010.

Электронный научный журнал «ИССЛЕДОВАНО В РОССИИ»       836       http://zhumal.ape.relarn.ru/articles/2010/070.pdf

    • Gutierrez L.H.O., Morales J.L., Vargas-Jimenez С.A., Nino L.F. (2009) Fast Seismic Event Classification Based On Magnitude-Distance Relation Based On Support Vector Machines Using Only One Three Component Station II Eos Trans. AGU, 90(52), Fall Meet. Suppl., Abstract S22A-03.
    • Kanamori H. Real-time seismology and earthquake damage mitigation // Annu. Rev. Earth Planet. Sci. 2005. V.33, P. 195-214.
    • Suresh S., Sundararajan K, Saratchandran P. A sequential multi-category classifier using radial basis function networks //Neurocomputing Volume 71, Issues 7-9, P. 1345-1358.
    • US Patent 5742740 - Adaptive network for automated first break picking of seismic refraction events and method of operating the same US Patent Issued on April 21, 1998.
    • Zhao Y. and Takano K. An artificial neural network approach for broadband seismic phase picking //Bulletin of the Seismological Society of America, 1999, V. 89, No. 3, P. 670-680.
     



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.