WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

На правах рукописи

ВАСИЛЬЕВ Александр Николаевич

МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ СИСТЕМ С РАСПРЕДЕЛЕННЫМИ ПАРАМЕТРАМИ НА ОСНОВЕ НЕЙРОСЕТЕВОЙ ТЕХНОЛОГИИ

Специальность 05.13.18 – «Математическое моделирование, численные методы и комплексы программ»

АВТОРЕФЕРАТ

диссертации на соискание учёной степени доктора технических наук

Санкт-Петербург – 2011

Работа выполнена в Государственном образовательном учреждении Высшего профессионального образования «Санкт-Петербургский государственный политехнический университет»

Официальные оппоненты:

Доктор технических наук, профессор СУХОМЛИН Владимир Александрович (МГУ) Доктор технических наук, профессор ШКОДЫРЕВ Вячеслав Петрович (СПбГПУ) Доктор физико-математических наук, профессор РЕВИЗНИКОВ Дмитрий Леонидович (МАИ)

Ведущая организация: Институт прикладной математики им.М.В.Келдыша РАН, Москва

Защита состоится « » 2011 г. в часов на заседании диссертационного совета Д212.229.10 при ГОУ ВПО «Санкт-Петербургский государственный политехнический университет» по адресу: 195251, Санкт-Петербург, Политехническая ул.29, СПбГПУ, к.9, ауд.1

С диссертацией можно ознакомиться в фундаментальной библиотеке ГОУ ВПО «СПбГПУ»

Автореферат разослан « » 2011 года Учёный секретарь диссертационного совета Э.А.Кудряшов

ОБЩАЯ ХАРАКТЕРИСТИКА РАБОТЫ

Актуальность темы. В настоящее время нейросетевая теория и технология – одна из наиболее динамично развивающихся областей искусственного интеллекта – успешно применяется в различных прикладных областях, таких как: прогнозирование различных экономических показателей, биомедицинские приложения, сложные системы управления, распознавание образов, предсказание наличия полезных ископаемых и т.д. Нейроматематика доказала свою эффективность во многих задачах, которые трудно или невозможно решить аналитически, но для которых можно попытаться построить подходящую аппроксимацию.

В последние годы появился интерес к применениям нейронных сетей и в такой области как классические и неклассические задачи математической физики. По всей видимости, это было обусловлено целым рядом факторов:

разнообразие практических приложений;

общие трудности применения стандартных методов к решению многих проблем ввиду нелинейности моделей, большого объема данных (высокая размерность, большое число уравнений и условий), неточности в задании коэффициентов уравнений, краевых и начальных условий, сложности геометрии задачи;

неклассические постановки задач;

поиск единого подхода к решению совершенно разных типов задач, для каждого из которых обычно применяются свои методы;

уникальные свойства искусственных нейронных сетей;

поиск новых направлений развития численных методов (несеточные методы, интеллектуальные вычисления);

появление новых технологий (нейрокомпьютеры, grid-технологии и др.) и построение алгоритмов, естественных для таких технологий.

Лишь небольшое число задач, обычно обладающих симметрией, допускает аналитическое решение. Существующие приближенные методы решения либо позволяют получить лишь поточечную аппроксимацию подобно сеточным методам (получение из поточечного решения некоторого аналитического выражения представляет собой отдельную задачу), либо предъявляют специальные требования к набору аппроксимирующих функций и требуют решения важной вспомогательной задачи разбиения исходной области подобно тому, как это происходит в методе конечных элементов.

При совершенствовании модели: корректировке постановки задачи, связанной с модификацией уравнений или условий, уточнении или пополнении экспериментальных данных – при решении серии близких задач – нет необходимости строить нейросетевую модель вновь: достаточно использовать имеющуюся нейронную сеть и доучить ее.

Имеющиеся нейросетевые подходы к решению задач математической физики либо узкоспециализированы (клеточные сети, линейные уравнения в случае областей с несложной геометрией и т.д.), либо используют варианты метода коллокации при неизменных нейросетевых функциях, что может приводить к заметным ошибкам между узлами.

Создание на основе нейросетевой методологии единого подхода к построению устойчивых уточняемых моделей систем с распределенными параметрами и конструирование соответствующих нейросетевых алгоритмов, использующих достоинства нейросетевых аппроксимаций, представляет актуальную и недостаточно изученную научную проблему. Задача построения робастной математической модели по разнородным данным, включающим как уравнения, так и экспериментальные наблюдения, является весьма актуальной для практики, и её недостаточная изученность вызвана трудностью применения к ней классических методов.

Цель диссертационной работы. Диссертация посвящена созданию методологии применения нейронных сетей к задачам математического моделирования сложных систем с распределенными параметрами по разнородной информации, содержащей уточняемые данные.

Достижение этой цели связано с выполнением следующих этапов исследования:

Формулировка задач в рамках нейросетевой парадигмы. Разработка общих методов выбора и настройки нейросетевого функционального базиса.

Рассмотрение простой задачи, имеющей известное аналитическое решение, с которым сравнивается решение, найденное с помощью нейронных сетей. Распространение методики решения этой задачи на некоторый достаточно широкий класс практически важных задач.

Решение нескольких более сложных задач, известные численные подходы к которым наталкиваются на некоторые трудности, хотя и не являющиеся непреодолимыми, но требующие применения разного рода искусственных приёмов.

Решение задач, для которых стандартные методы неприменимы.

Обобщение результатов исследования в форме новой парадигмы построения иерархии нейросетевых моделей по разнородной информации (модифицируемые уравнения, уточняемые данные, законы и т.д.).

Методы исследования. Основой для создания нейросетевых моделей и исследования разработанных алгоритмов является функциональный анализ, теория дифференциальных уравнений в частных производных и обыкновенных дифференциальных уравнений, теория представлений групп, интегральная геометрия, методы оптимизации, метод группового учёта аргументов (МГУА) и эволюционное моделирование, методы аппроксимации и численные методы.

Научная новизна. Все результаты, включенные в диссертацию, – новые.

• Нейронные сети трактуются как новый универсальный подход к численному решению задач математической физики. Известные методы (например, метод конечных элементов) рассматриваются как частные случаи RBFсетей или полиномиальных сетей с персептронными коэффициентами.

• Приводятся (отсутствовавшие ранее) нейросетевые несеточные методы приближенного решения задач математической физики и соответствующие приложения к задачам нелинейной оптики, квантовой физики, акустики, теплопроводности.

• Нейросетевая методология применена к построению математических моделей прецизионных поверочных установок. Дан сравнительный анализ классического и нейросетевого подходов к моделированию акустического волнового поля в образцовой поверочной установке переменного давления с рабочей камерой оптимальной формы и рекомендации по совершенствованию нейросетевой модели.

• Исследованы вопросы регулярных возмущений коэффициентов уравнений, краевых условий, формы области. С новой точки зрения рассмотрены задачи с неточно заданными коэффициентами, некоторые нелинейные задачи, задачи со свободной поверхностью.

• Рассмотрены возможности построения на основе нейронных сетей регуляризаций решений некорректных задач на примере продолжения стационарных и нестационарных полей по данным точечных измерений и приближенного решения переопределенной характеристической задачи для неклассического ультрагиперболического уравнения в классе разрешимости.

• Предложена новая нейросетевая точка зрения на построение иерархии уточняемых моделей по разнородной информации, содержащей уравнения и данные. Соответствующие нейросетевые алгоритмы допускают эффективное распараллеливание.

На основе разработанных общих принципов созданы нейросетевые алгоритмы решения ряда классических и неклассических задач математической физики.

Данные методы реализованы численно и результаты расчётов сопоставлены с точными решениями в модельных задачах и с результатами, которые получаются применением других методов.

Обоснованность и достоверность результатов. Обеспечивается строгостью математических построений и применения математического аппарата, сопоставлением полученных результатов со свойствами точных решений задач, известными в простых частных случаях, хорошим совпадением результатов численных экспериментов с точными или приближенными решениями тестовых задач, правильным выбором исходных постановок задач, использованием систем аналитических вычислений. Выводы представленной работы находятся в логическом соответствии с физической интерпретацией полученных результатов.

Теоретическая и практическая ценность работы. Разработанная методика применения нейронных сетей к задачам математической физики проиллюстрирована на примере построения нейросетевой модели нанообъекта (квантовой точки), исследования процессов теплообмена в системе «сосудыткани», моделирования процесса фазового перехода в двухкомпонентной системе, создания приближенной нейросетевой математической модели калибратора переменного давления с оптимизацией формы поверочной камеры.

Она может быть использована в рамках grid-технологий при моделировании систем в случае сложной геометрии, при наличии нелинейности, разрывных коэффициентов, изменения типа уравнений в подобластях, при учете возмущений, уточнении модели.

Постановки задач, методы и алгоритмы их решения были полезны при разработке Нейросетевого Модуля в проекте «Сетевая Компьютерная Лаборатория». Они использовались в гранте РФФИ и НИР, проводимых по заданию Минобрнауки, а также при расчете параметров теплофизических процессов и геометрии рабочих камер сложных технических установок, при разработке компьютерных интеллектуальных баз данных этих процессов.

Предлагаемые методы нейрокомпьютинга могут быть применены в компьютерном обеспечении будущей базовой установки Объединенного Института Ядерных Исследований (Дубна).

Результаты работы могут быть учтены при подготовке курсов лекций по современной вычислительной математике, неклассическим задачам математической физики, нейросетевым алгоритмам.

Апробация работы. Основные результаты работы докладывались на следующих научных форумах:

• Всесоюзная школа «Неклассические уравнения математической физики», Новосибирск, 1989;

• Второй научно-технический семинар «Современные системы контроля и управления электрических станций и подстанций (АСУ ТП) на базе микропроцессорной техники» в 2001 году;

• Международная конференция по мягким вычислениям и измерениям – SCM’2003, Санкт-Петербург, СПбГЭТУ «ЛЭТИ»;

• VI Всероссийская научно-техническая конференция «Нейроинформатика-2004», Москва, МИФИ;

• V-я Международная научно-техническая конференция «Компьютерное моделирование 2004», СПб., СПбГПУ;

• Международная конференция по мягким вычислениям и измерениям – SCM’2004, Санкт-Петербург, СПбГЭТУ «ЛЭТИ»;

• 10-й Международный симпозиум IMEKO «TC7 International Symposium on Advances of Measurement Science», 2004, Санкт-Петербург;

• Пятая Международная научно-техническая конференция «Искусственный интеллект. Интеллектуальные и многопроцессорные системы», 2004, Кацивели, Крым;

• VII Всероссийская научно-техническая конференция «Нейроинформатика-2005», Москва, МИФИ;

• V Международная конференция «Интеллектуальные системы» - IEEE AIS’05;

• Шестая Международная научно-техническая конференция «Интеллектуальные и многопроцессорные системы» (ИМС-2005) и научные молодежные школы «Высокопроизводительные вычислительные системы» (ВПВС2005) и «Нейроинформатика и системы ассоциативной памяти» (Нейро2005), Дивноморск;

• VIII Всероссийская научно-техническая конференция «Нейроинформатика-2006», Москва, МИФИ;

• VI Международная конференция по неравновесным процессам в соплах и струях - NPNJ-2006, СПб, СПбГПУ;

• Седьмая Международная научно-техническая конференция «Искусственный интеллект. Интеллектуальные и многопроцессорные системы» (ИИИМС'2006), 2006, Кацивели, Крым;

• XV Международная конференция по вычислительной механике и современным прикладным программным системам «ВМСППС'07», 2007 г., Алушта, Крым;

• Первая Всероссийская конференция «Нейросетевые алгоритмы решения задач математической физики», Москва, 2007 г.;

• 11 Всероссийская конференция по проблемам науки и высшей школы "Фундаментальные исследования и инновации в технических университетах". – СПб, 2007;

• VIII Международная научно-техническая конференция «Компьютерное моделирование 2007», СПб;

• Научно-техническая конференция «Научное программное обеспечение в образовании и научных исследованиях», СПб., 2008 г.;

• VII Международная конференция по неравновесным процессам в соплах и струях – NPNJ-2008, Алушта, Крым;

• Симпозиум “Distributed Intelligent Systems and Technologies Workshop”, СПб, ИМОП, 2008 г.;

• III Международная научно-практическая конференция «Современные информационные технологии и ИТ-образование», М., МГУ, 2008 г.;

• XVI Международная конференция по вычислительной механике и современным прикладным программным системам «ВМСППС'09», 2009 г., Алушта, Крым;

• Международная научно-техническая конференция «Многопроцессорные вычислительные и управляющие системы» (МВУС-2009), Дивноморск;

• VIII Международная конференция по неравновесным процессам в соплах и струях (NPNJ'2010), 2010 г., Алушта, Крым;

• Всероссийская научно-методическая конференция «Актуальные проблемы охраны труда», СПб, 2010 г.;

• заседание научного семинара Санкт-Петербургского отделения Российской Ассоциации "Нейроинформатика", 2005-2009 годы;

• научный семинар Лаборатории Информационных Технологий ОИЯИ, Лаборатории Теоретической Физики ОИЯИ, Дубна, 2006, 2007 годы;

• научный семинар кафедры «Высшая математика» СПбГПУ.

Публикации результатов. По теме диссертации опубликовано более работ, среди которых монография и 30 статей в научных периодических изданиях из Перечня ВАК. Список публикаций, в которых отражены основные результаты диссертации, приведен в конце автореферата.

На защиту выносятся:

1. Новая нейросетевая парадигма построения иерархии математических моделей сложных систем с распределенными параметрами по разнородной уточняемой информации. Общий подход к выбору архитектуры и настройки нейросетевого базиса при моделировании таких систем.

2. Нейросетевые методы решения задач математической физики в классической постановке и соответствующие им алгоритмы настройки весов известных и новых видов нейронных сетей. Особенности построения нейросетевых моделей в случае составных областей и разрывных коэффициентов.

3. Эволюционные алгоритмы нейросетевого подхода, допускающие распараллеливание и сочетающие подбор структуры сетей с одновременной настройкой их параметров. Сравнительный анализ результатов нейрокомпьютинга для тестовой L-области.

4. Особенности нейросетевого подхода при построении приближенных решений практически важных примеров краевых задач для уравнений эллиптического и параболического вида в случае областей с фиксированной, свободной и управляемой границей:

• модель температурного поля в системе «сосуды-ткани», • модель нанообъекта (квантовая точка), • модель двухфазной системы со свободной границей, • модель образцовой поверочной установки переменного давления с оптимизацией формы камеры.

5. Применение нейросетевого подхода к построению нейросетевых регуляризаций решений неклассических задач математической физики на примерах характеристической краевой задачи для ультрагиперболического уравнения при учете критерия ее разрешимости и некорректной задачи продолжения полей по данным точечных измерений, а также задач с неточно заданными параметрами.

Структура и объем работы. Диссертация состоит из введения, пяти глав, заключения, приложения с актами внедрения и списка литературы из 260 наименований. Объем диссертационной работы составляет 365 страниц.

СОДЕРЖАНИЕ ДИССЕРТАЦИОННОЙ РАБОТЫ Во введении обосновывается актуальность темы исследования, формулируется цель работы, отмечается научная новизна, теоретическая и практическая ценность работы, кратко излагается содержание диссертации.

В главе 1 дается постановка задачи, вводятся необходимые понятия и обсуждаются достоинства нейросетевого подхода.

Модель системы с распределенными параметрами обычно формулируют в виде краевой задачи p A(u) = g, u = u(x), x R, B(u) = f, (1) здесь A() – некоторый дифференциальный (интегро-дифференциальный) оператор, B() – оператор, задающий граничные условия, =. Операторы A и B могут быть нелинейными, менять тип в подобластях , коэффициенты операторов и функции f, g могут иметь разрывы и т.д.

Отмечаются проблемы, которые характерны для известных численных методов при построении приближенных решений таких задач.

Использование нейронных сетей в качестве новой методологии построения приближенных решений как старых – классических, так и новых – неклассических задач математической физики позволяет преодолеть недостатки классических методов. Нейрокомпьютинг основан на целом ряде особенных свойств нейросетей:

нейросетевое решение получается сразу в аналитической (или кусочно аналитической) форме;

нейросетевой функциональный базис является универсальным;

нейросетевая модель устойчива по отношению к неточностям в задании коэффициентов уравнений, граничных и начальных условий, возмущениям границы, погрешностям вычислений;

при решении серии задач с уточняющейся постановкой нет необходимости решать задачу заново – достаточно доучить уже настроенную сеть;

удобство распараллеливания задачи, использование набора сетей при построении моделей распределенных систем с кусочно заданными параметрами.

Нейросетевой подход в предлагаемой форме слабо зависит от формы области и может быть применен в случае задач типа (1) со сложной геометрией.

Указанный подход позволяет применить хорошо отработанные для нейронных сетей приемы поиска оптимальной структуры, использующие кластеризацию, генетические алгоритмы (например, процедуры типа многорядного алгоритма МГУА), ансамбль сетей-экспертов, методы искусственного интеллекта.

Приводится обзор литературы по нейросетевым методам аппроксимации, несеточным методам решения задач для дифференциальных уравнений, по применению нейронных сетей к построению приближенных решений задач математической физики.

В соответствии с предлагаемым подходом приближенное решение u задачи (1) представляется в виде нейросетевой аппроксимации N u(x) = v(x,ai), (2) c i i=веса которой – линейно входящие параметры ci и нелинейно входящие параметры ai – находятся в процессе поэтапного обучения сети, построенном в общем случае на минимизации некоторого функционала ошибки J (u); возможны и другие подходы к настройке параметров нейронной сети. Представление (2) лишь внешне напоминает разложение Галеркина. Подходящий выбор нейросетевых базисных элементов v позволяет включить хорошо известный Метод Конечных Элементов в рассматриваемый подход.

Рассматриваются некоторые типы нейронных сетей, используемых в работе: RBF-сети (сферические и эллипсоидальные), персептроны, полиномиальные сети с нейросетевыми коэффициентами – в случае весов, зависящих и не зависящих от времени, рекуррентные сети, естественные обобщения используемых нейросетевых разложений. Выбор типа сети, ее структуры и методов обучения определяется свойствами коэффициентов и геометрией рассматриваемой задачи.

Обсуждаются варианты построения функционала ошибки, по которому производится настройка весов сети.

В простейшем случае функционал ошибки J (u) выбирается в виде J (u) = A(u) - g d + B(u) - f d. (3) На практике обычно удобнее использовать дискретную форму представления функционала MM J (u) = A(u(x )) - g(x ) + B(u(x )) - f (x ), (4) j j jj j=1 j= M M здесь x – пробные точки в области , x – на её границе .

{ } { } j j j=1 j=Множества пробных точек могут задаваться (вариант метода коллокации), но могут и меняться в процессе обучения. Обучение сети при фиксированном наборе контрольных точек и при большом числе функций часто приводит к переобучению. Перегенерация тестовых точек после определенного числа шагов процесса обучения сети делает его более устойчивым, ибо позволяет избежать вырождения зависящего от параметров a линеала, задаваемого функциями вида (2). Обсуждается проблема выбора тестовых точек в случае ограниченной и неограниченной области, негладких условий и т.п.

Указанный способ задания (3) функционала ошибки J (u), удобен в случае нелинейных уравнений с комплексными коэффициентами, он допускает обобщение и на случай систем уравнений. Выбор подходящего решения в некоторых задачах может быть сведен к изучению совместных экстремумов системы функционалов.

{ J (u )} s В случае линейных задач предложены методы, использующие интегральное представление решения задачи (1), фундаментальные решения и некоторые другие специальные методы.

Обсуждается вопрос точности нейросетевых аппроксимаций решения задачи и оценки числа нейроэлементов.

Первая часть главы 2 посвящена применению методов главы 1 к простым задачам, точное решение которых известно – есть возможность тестирования получаемых результатов. Во второй – изучается устойчивость нейросетевых приближений и рассматриваются более изощренные методы одновременной настройки весов и структуры нейросети.

Первой рассматривается задача Дирихле для уравнения Лапласа в единичном круге : u = 0, u = f. Свойства решений эллиптических крае вых задач во многом схожи со свойствами решения этой модельной задачи, для которого имеется явное представление – интеграл Пуассона, вычисляемый аналитически только в исключительных случаях. Даны подходы к решению задачи на основе нейросетевой методологии:

1. Непосредственное применение указанной выше общей процедуры построения нейросети для случая, когда A – оператор Лапласа, B – оператор, задающий условие Дирихле.

2. Подход, при котором в качестве нейросетевых базисных функций выбираются фундаментальные решения линейного дифференциального оператора A = с центрами (xi, yi) вне круга . При этом обучение сети сведется к удовлетворению краевых условий.

3. Использование линейности задачи: действие оператора A = сводитN ся к вычислению его для каждой из базисных функций v : Au = Av(x,ai).

c i i=Явные выражения для лапласиана в случае функции Гаусса (или Коши) приводят к «компенсационным» методам, связанным со специальными способами расстановки центров RB-функций.

4. Выбор интеграла Дирихле в качестве функционала ошибки J, краевое условие вводится как штрафное слагаемое:

J (u) = u d + u - f d. Интегралы вычислены в явном виде, что позволило уменьшить общее число параметров – ускорить настройку сети.

5. Формула Пуассона дает еще один способ построения RBF-сети: приближаем граничные данные радиальными базисными функциями , затем вычисляем решение задачи Дирихле uN (x, y), выбрав в качестве краевого условия это приближение fN (). Явные представления и в этом случае существенно ускоряют процесс построения нейросетевой модели.

Можно искать решение в виде двух слагаемых – одно удовлетворяет граничному условию и не содержит подбираемых параметров, а другое – уравнению с учётом первого слагаемого и содержит подбираемые параметры. Приведен еще один вариант конструирования приближенного решения, при котором нейронная сеть fN используется для интерполяции граничных данных f, изначально представленных поточечно, решение u в строится по формуле Пуассона. Другой вариант – решение строится в точках некото рого представительного конечного подмножества , а затем продолжается на всю область с помощью нейронной сети.

Приведены результаты сравнительного исследования этих подходов.

Как и следовало ожидать, быстрее всего работают методы, в максимальной степени учитывающие особенности задачи, однако эти методы трудно распространить на более сложные случаи, например, на нелинейные задачи.

Далее рассмотрены возможные направления усложнения задачи.

В любой реальной задаче присутствуют случайные добавки – погрешности измерений, шумы и т.д. Для изучения влияния таких добавок было рассмотрено несколько задач.

В первой такой задаче уравнение Лапласа заменяется уравнением Шредингера со случайным потенциалом -u + u = 0, во второй – аналогичная случайная добавка вводится в граничное условие: функция f заменяется данными f + . Здесь – случайная функция типа равномерного белого шума определённой амплитуды. Третья задача возникает при возмущении границы : случайная функция вводится в уравнение окружности. В четвертой задаче рассматривался случай области , в подобласти D которой выполняется уравнение u = u -1, – малая случайная функция, а в дополнении \ D – уравнение u = 0, на границе задается, например, условие Дирихле u = f, на D – естественное условие согласования.

Численные эксперименты показали, что регулярные возмущения коэффициентов уравнений и функций, входящих в описание краевых условий, практически не меняют приближенное решение исходной задачи при изменении амплитуды решения в весьма широком диапазоне. Это нельзя утверждать относительно случайных возмущений границы области; при малом неслучайном возмущении результаты аналогичны полученным в первых двух задачах (ибо в этом случае заменой переменных «шевеление» границы пересчитывается в возмущение коэффициентов задачи).

Рассматривались и более сложные граничные условия: задание граничного условия не на всей границе, а только на её части (полуокружности);

задание условия на окружности и радиусе; задание на части границы условия Дирихле, а на другой части – условия Неймана (задача Зарембы). Вычислительный эксперимент показал вполне приемлемую точность и сходимость процесса обучения, при этом «эллипсоидальные» RBF–сети показали себя намного эффективней обычных.

Методология применения нейронных сетей слабо зависит как от уравнения, так и от формы области и типа граничных условий. Уравнение и граничные условия могут быть и нелинейными, достаточно сопоставить им минимизируемый функционал типа J (u). Если область имеет особенности, например, острые углы, в их окрестности можно взять больше точек (как при аппроксимации интегралов вида J (u), так и при интерполяции u ). Использование гетерогенных нейронных сетей специальной архитектуры делает возможным рассмотрение сингулярных задач. Данный подход иллюстрирован примерами.

Естественные обобщения нейросетевых подходов на случай более высоких размерностей для линейных задач получаются несложной модификацией указанных подходов для двумерного случая.

Следующей ступенью в усложнении постановки являются задачи, допускающие декомпозицию, то есть задачи, алгоритм решения которых сводится к некоторой итерационной последовательности решений однотипных «простых» задач. Большинство стандартных численных методов решения задач математической физики трудно применять в случае областей сложной геометрии. Алгоритм решения для каждой такой задачи приходится существенно перерабатывать для того, чтобы учесть её особенности. Использование нейронных сетей для решения задач такого рода позволяет с одной стороны строить алгоритмы единообразно, с другой – рассмотреть набор принципиально различных алгоритмов, каждый из которых является наиболее эффективным для определённого круга задач.

Предположим, что область , участвующая в постановке задачи (1) допускает декомпозицию, то есть может быть представлена в виде объединения подобластей, для которых приближённое решение соответствующей краевой задачи может быть получено более просто, чем для исходной задачи. Построение решения в области естественно сводить к случаю =1 2.

На примере простейшей модельной задачи обсуждаются пять подходов к построению нейросетевой аппроксимации ее решения.

Будем искать решение u = u(x, y) двумерного уравнения Лапласа u = в области L : 0 < x, y < a, min(x, y) < d < a, являющейся объединением двух прямоугольников 1 :0 < x < a; 0 < y < d и 2 :0 < x < d;0 < y < a ; на участках k k =1 границы области решение удовлетворяет условиям Дирихле: u = fk.

{ } k Решение u для выбранных краевых условий f1(x) = sin( x a), f2( y) = f1( y), fk = 0, k = 3,6 находится в явном виде и играет роль эталона при сравнении предложенных подходов.

Рис.1. Область L, в которой ищется решение Подход I. Для приближенного решения задачи используется единая нейронная сеть на основе «эллиптических» экспонент, обучаемая на основе минимизации функционала ошибки J (u). Предложенный метод не предъявляет особых требований ни к уравнению, ни к форме области, однако ее усложнение приводит к трудности выбора начальных весов сети, увеличению требуемого числа нейрофункций для достижения заданной точности решения и соответствующему замедлению процесса нелинейной оптимизации.

Подход II. Предлагаются две модификации известного метода Шварца с использованием нейросетевых аппроксимаций для подобластей 1 и 2.

Следующие подходы, использующие эволюционные алгоритмы, позволяют не только обучить сеть, но и подобрать её структуру.

Подход III. При этом подходе используется идеология МГУА – Метода Группового Учета Аргументов. Строится несколько вариантов многорядного алгоритма отбора лучших функций.

Подход IV. Предложены модификации генетического алгоритма построения нейронной сети, использующие обучение двух ансамблей сетей.

Генетические операции (мутации, транслокации, скрещивание) задаются в нейросетевых характеристиках, а не в терминах бинарных кодов.

Подход V. Происходит обучение ансамбля сетей-экспертов – получившаяся группа сетей дает локальное представление для решения задачи во всей области, т.е. каждая сеть даёт решение в своей подобласти.

Процедура декомпозиции области, на которую опираются подходы II-V, может быть проведена и в случае областей более сложной формы, когда область разбивается на большее число компонент. Описаны реализации подходов в этом случае.

Сравнительный анализ результатов вычислений показал, что эволюционные подходы III-V приводят к существенному сокращению числа нейронов, требуемых для достижения данной точности. При подходе I график приближенного решения uN для 128 нейронов визуально неотличим от эталонного u. При подходе IV сеть из 32 нейронов даёт приближенное решение, которое практически совпадает с точным решением:

0.0.0.0.0.2 0.4 0.6 0.8 Рис.2. Подход IV: Удовлетворение граничного условия на отрезке Подход V позволил получить вполне приемлемую точность уже при использовании сети из 12 нейронов.

В главе 3 диссертации дается построение устойчивых нейросетевых моделей многокомпонентных систем с распределенными параметрами в случае фиксированных границ раздела компонент.

Постановка задачи. Два нейросетевых подхода к решению Рассмотрим многокомпонентную систему, описываемую краевой задачей для нелинейного дифференциального уравнения в частных производных A(u) = g, u = u(x), x Rp в области составного типа = : A = Aj, j j j uj = u, g = g ; с краевыми условиями B(u) = f на частях i границы j j j = = i, определяемыми допустимыми операторами B = Bi и i i f = fi, и условиями согласования компонент решения u на участке kl i j стыка подобластей k и l : Ckl (uk ) = Clk (ul ). Функции, входящие в поkl kl становку задачи и коэффициенты операторов, могут быть разрывными, но на каждой из компонент и i они непрерывны.

j Предложенный способ построения приближенного решения задачи допускает две реализации, основанные на представлении его в виде выхода единой нейронной сети для всей области N u(x) = (x,as) c s s=или согласованного набора сетей, дающих приближения для подобластей j N j uj (x) = (x,as, j ).

c s, j j s=При первом подходе обучение сети проводится на основе минимизации единого функционала ошибки J (u). Выберем этот функционал в дискретном представлении следующим образом M Mi j J (u) = Aj (u) - g (xt ) + Bi(u) - f (xt ) + j i j i j t =1 i ti =j.

Mi + Ckl (u) - Clk (u) (xt ) kl k il kl t =kl При втором подходе обучение нейросетей, дающих приближенные решения в подобластях , проводится как одновременно – вся совокупность j сетей обучается сразу, с учетом условий согласования, соответствующее слагаемое добавляется в функционал, так и раздельно – с чередованием процессов обучения сетей на основе минимизации соответствующих функционалов ошибок J по подобластям , представленных в дискретной форме j j M Mi j J (u) = Aj (uj ) - g (xt ) + Bi(u ) - fi (xt ), j j i j i t =1 ti =j где суммирование во втором слагаемом проводится по таким значениям i, что i , с процедурой их стыковки.

j Достоинством первого подхода является простота реализации и бесконечная гладкость полученного решения в случае выбора соответствующих функций активации. Главный недостаток состоит в том, что точные решения, которые могут быть разрывными или у которых разрывны первые или вторые производные, приближаются бесконечно гладкими функциями. При втором подходе для каждой подобласти строится своя сеть. Достоинством второго подхода является большая точность аппроксимации для каждой подобласти при фиксированном числе нейронов, недостатком – необходимость стыковать сети между собой, что влечёт усложнение алгоритма.

Предложенные общие нейроподходы проиллюстрированы на нескольких характерных примерах построения приближенных математических моделей.

Задача Пуассона: пусть R2 – ограниченная область с кусочногладкой границей ; D – ее строго внутренняя подобласть; требуется найти решение u(x, y) однородной задачи Дирихле для уравнения Пуассона u = uxx + uyy = g, где g(x, y) = 0 при (x, y) \ D, u = 0.

Для численных расчетов выбирались : x2 + y2 <1, D : (x - x0)2 + (y - y0)2 < r2, x0 = 0.4, y0 = 0,r = 0.4, g = A =10,(x, y) D, g = 0,(x, y) \ D.

Рассматривались разные варианты выбора базисных нейроэлементов и функционалов ошибки, односетевой и двухсетевой подходы. Симметрия приводит к явному выражению для функционалов – аппроксимирующие нейросети характеризуются существенно меньшим набором параметров в сравнении с предложенными подходами для общих случаев, что упрощает процесс настройки сети. При первом подходе заданный уровень обучения наиболее быстро достигается в случае линейных элементов с RBFкоэффициентами (гауссианами). Использование единой сети недостаточно хорошо описывает кусочный характер решения в случае нарушения гладкости (в данном случае разрыв терпят вторые производные). Решение этой задачи, полученное на основе Метода Конечных Элементов с помощью стандартного пакета FEMLAB, привело к тем же самым результатам, что и для сети с 20 элементами.

Построение устойчивой приближенной нейросетевой модели нанообъекта (квантовая точка) – рассматривается Уравнение Шредингера с кусочным потенциалом: в составной области =1 2 Rn, где 1 – односвязная строго внутренняя подобласть с границей 1 = 12, 2 = \ – двусвязная подобласть с полной границей 2 = 12 , требуется найти решение стационарного уравнения Шредингера - ( pu) + (q - )u = в случае кусочно-постоянных коэффициентов p = pj, q = qj, j =1,2, j j условий согласования вида p1 u1 n = p2 u2 n на участке стыка 12 – 12 Ben Daniel-Duke interface condition – при разрывном коэффициенте p :

p1 p2, и краевых условий Дирихле u2 = 0 на участке границы . Подобласть 1 отвечает квантовой точке, а подобласть 2 – окружающей ее матрице.

Коэффициенты pj являются рациональными функциями спектрального параметра : pj = K (( + Ej - qj )-1 + (2( + Ej - qj + ))-1), константы K, j j j Ej, и потенциалы qj считаются известными. Спектральный параметр j входит нелинейно, что осложняет решение задачи.

Рассмотрен случай размерностей n =1,2,3, расчет сделан для n =1,2.

Волновая функция u приближается кусочно в каждой из подобластей , j системой нейронных сетей на основе радиальных базисных функций вида N j uj(x) = exp(-aij x - bij ), j =1,2.

c ij i=Настройка весов сетей осуществляется на основе минимизации функционала ошибки J, который в данном случае взят в виде M1 M22 2 J (u) = p1 u1 + (q1 - ) u1 )(xm ) + p2 u2 + (q2 - ) u2 )(xm ) + ( ( 1 m1=1 m2 = M12 MM +1 u1 - u2 (xm ) + 2( p1n u1 - p2n u2 (xm ) + u2 (xm).

12 m12 =1 m12 =1 m=Здесь через k > 0 обозначены штрафные множители, n – единичный вектор нормали к 12.

-Рис.3. Аппроксимация решения для min На Рис.3 приведен график приближенного нейросетевого решения задачи в двумерном случае для минимального значения спектрального параметра (энергетического уровня). Численные эксперименты показали хорошее соответствие приближений точным решениям (в простых случаях) и решениям, полученным другими методами.

В качестве модельного уравнения рассматривалось стационарное уравнение Шредингера с кубической нелинейностью Au) =u -{( k - )u - 2ik u - u u} = g, (.

k = (kx,ky) R2, x = (x, y) R2, k x = kxx + ky y Рассмотрим два типа граничных условий – два варианта постановки задачи.

Во-первых, можно искать решение уравнения в ограниченной области на плоскости – для численных расчетов и здесь в качестве модельной области выбирался круг : x2 + y2 <1 – и задать условие на границе области (круга). В качестве g использовались функции двух типов гладкости с носителем в некотором небольшом круге D . В случае цилиндрической ступеньки получаются вполне приемлемые результаты, если исключить окрестность границы этой ступеньки (или выбирать при обучении специальный закон распределения тестовых точек); для гладкой функции g результаты получаются существенно лучше.

Во-вторых, можно искать решение уравнения во всей плоскости, при этом в качестве граничного условия обычно выступает требование ограниченности или квалифицированного стремления к нулю на бесконечности. Рассматриваемый класс RBF–сетей удовлетворяет этому условию автоматически (подмножество пространства S ). При обучении нейронной сети в этом случае часть тестовых точек бралась равномерно распределённой в окрестности особенности, а часть – нормально распределённой во всей плоскости.

На Рис.4 особенно наглядно видно качество нейросетевой аппроксимации в случае гладкой правой части g в виде Гауссова пакета.

Рис.4. Графики значений Re A(u)и g на сечении y = Далее рассматривается плоская и пространственная задача теплообмена в системе «сосуды-ткани»: венозный и артериальный сосуды окружены мышечной тканью, в которой выделяется тепло. Предполагаем, что перенос тепла в сосудах осуществляется, в основном, за счет конвекции, в тканях – за счет кондукции.

Рис.5. Область определения температурного поля (плоская задача) Пусть u – скорость кровотока в сосуде, q – плотность тепловыделения в мышечной ткани, c – ее теплоемкость, b – коэффициент температуропроводности, – плотность, (x, z) – малая случайная величина с оценкой, определяемой экспериментально.

Возникает следующая краевая задача, связанная с изменением типа уравнения и краевого условия:

v a температура T и T (ткань) удовлетворяет уравнению Пуассона (эл2T 2T q липтический тип) + = -, x2 z2 cb в сосудах температура Tv и Ta удовлетворяет уравнению теплопереноса 2T T T (параболический тип) b + - u = 0, при этом в вене T = Tv и x2 x z u = uv, а в артерии T = Ta и u = ua ;

на 1, 7 и 8 – условие Дирихле T = T0, на 3, 4 и 5 – условие ДиT рихле T = T1, на 2 и 6 – условие Неймана = 0;

x условия согласования на участках стыка подобластей имеют вид:

v T Tv Tv Ta v a на 12 – T = Tv, =, на 23 – Tv = Ta, =, на 34 – Ta = T, x x x x a Ta T =. (При этом учитывалось, что толщина стенок капилляров мала, а x x коэффициенты теплопроводности тканей и крови примерно равны – поэтому равенство потоков приводит к равенству производных на границах раздела.) В случае плоской задачи рассматривались возмущения двух типов: сосуды с искривленными стенками и сосуды с пристеночными бляшками.

Предлагаемый нейросетевой подход позволяет и при этих усложнениях построить достаточно точные решения возмущенных задач.

В диссертации также дается обобщение рассмотренной постановки задачи на случай трех переменных и ее нейросетевое решение.

Для ускорения процесса построения оптимальных весов сети целесообразно соответствующим образом выбрать их начальные значения. При расчётах они разделялись на две группы: одна (сосуды) – для эллипсоидальных Гауссовых функций, сильно вытянутых по z, другая (ткани) – для слабо деформированных функций.

Рассматривались оба подхода с присущими им особенностями. Численные расчеты показали, что нейросетевая аппроксимация правильно отражает поведение решения задачи в плоском и в пространственном случае.

Глава 4 посвящена приложению нейросетевого моделирования к исследованию многокомпонентных систем в случае неизвестных изначально переменных границ между компонентами (как свободных, так и управляемых).

В первой части главы рассматриваются нейросетевые подходы к моделированию систем с фазовыми переходами, когда одна компонента переходит в другую.

Будем исходить из модели многокомпонентной системы в виде начально-краевой задачи математической физики вида p+A(u) = g, u = u(t,x), (t,x) R ; Bi(u) = fi, = = i, i i где A и Bi – некоторые операторы в частных производных. Коэффициенты этих операторов, а также функции g, fi задаются кусочно в подобластях = и, вообще говоря, могут иметь разрывы на участках kl стыка j j j подобластей k и l. При этом граница области (или ее частьi ) или какие-то участки стыка kl не фиксированы заранее, а находятся в процессе решения задачи. Численное решение поставленной задачи в рамках нейросетевой методологии проведено на примере связанной с фазовыми переходами одномерной задачи Стефана, решение которой известно и может использоваться для контроля предлагаемого нейросетевого подхода.

Пусть двухфазная система описывается следующим образом:

в прямоугольнике = (0;T ) (0;1) =+ , где + = (t, x) 0 < t < T,0 < x < (t), = (t, x) 0 < t < T, (t) < x <1, { } { } требуется найти решения уравнений теплопроводности для каждой из фаз u± 2 2u± = a±, (t, x)±. Здесь a± – коэффициенты температуропроводности t xсоответствующих фаз, u±(t, x) – температуры этих фаз, которые удовлетворяют начальным условиям u-(0, x) = u0(x) 0, краевым условиям u+(t,0) = (t) 0, u-(t,1) = (t) 0 и условиям на свободной поверхности – фронте фазового перехода , заданном некоторой неизвестной функцией x = (t),t 0, которую требуется определить в процессе решения задачи в соответствии с требованиями u+ x= -0 = u- x= +0= 0, u+ u- d k+ x= -0 - k- x= +0 = q, где k± – коэффициенты теплопроводности, x xdt d q – теплота фазового перехода, а для вычисления можно воспользоватьdt u (,t) d t ся выражением =-. Несложные модификации рассматриваемых u dt (,t) x ниже подходов позволяют рассмотреть случаи, когда функции u0(x), (t) и (t) меняют знак, а граница распадается на несколько компонент связности. Многомерный случай также не требует принципиального изменения подхода и не приводит к значительному увеличению времени вычислений.

Рассмотрены следующие естественные с точки зрения методологии нейронных сетей подходы к задаче Стефана:

1. Аппроксимация температурных полей для обеих фаз с помощью соответствующим образом обученной RBF-сети или персептрона.

2. Построение гетерогенной сети, которая включает в себя наряду с RBF-сетями для каждой из фаз, описывающими температурные режимы, еще и персептрон с одним скрытым слоем, задающий фронт, т.е. функцию (t).

3. Поиск температурного поля с помощью пространственной RBF сети (т.е. сети, входом которой является переменная x ), зависящие от времени веса которой находятся из системы обыкновенных дифференциальных уравнений.

4. Использование рекуррентных нейронных сетей для задания нестационарных температурных режимов фаз.

Приведем некоторые результаты вычислений. Для модельной задачи выбирались значения параметров: a+ =1.2, a- =1, T = 3, k+ =1.2, k- =1, q =1.

Краевые условия: = t -1, = -1; начальные условия: u0 =-1.

Численный эксперимент показал, что сети, построенные на основе персептронов, легче обучаются и лучше приближают решения нелинейных задач с разрывными коэффициентами, чем гладкие RBF-сети. Первый подход наиболее прост в реализации и мало отличается от своих нейросетевых аналогов для других задач математической физики. Второй подход не многим сложнее, но лучше отвечает особенностям задачи и позволяет достигать требуемой точности, используя сети с меньшим числом элементов и меньшее время обучения; он также допускает распараллеливание задачи. Третий и четвёртый подходы быстрее, что особенно существенно при решении серии однотипных задач, однако требуют тщательного учёта особенностей задачи для обеспечения устойчивости реализующих их алгоритмов.

В качестве аппроксимирующей рассматривалась нейронная сеть из линейных элементов с коэффициентами в виде однослойных персептронов с функцией активации th(). Хорошее согласование с известным решением.

Рис.6. График изотерм Рис.7. Графики вычисленной и заданной температуры на границе x = Во второй части главы проводится сравнительный анализ классического и нейросетевого подходов к построению приближенной модели калибратора переменного давления. Рассмотрена образцовая поверочная установка переменного давления, измерительная рабочая полость которой симметрична как относительно оси вращения, так и перпендикулярной ей плоскости. Полость наполнена вязкой жидкостью. На цилиндрической части границы полости находится пьезоэлектрический источник гармонических колебаний. Он накладывает переменное давление на присутствующее постоянное давление. Мы полагаем, что акустическое волновое поле в измерительной камере является гармоническим во времени, осесимметричным и четным по отношению к плоскости симметрии. На оси симметрии расположены два датчика давления – стандартный и проверяемый. Нужно подобрать форму части границы, содержащей датчик, таким образом, чтобы давление на нем было максимальным.

Введем обозначения: p – давление, – плотность, – кинематическая вязкость, c – скорость звука в среде, (,, z) – цилиндрические координаты.

Линейная аппроксимация уравнений акустики и использование разложения Фурье приводит к краевой задаче Неймана для уравнения Гельмгольца (+ k2)u = 0, k2 = 2 (c2 + i), (5) u n = f, где u – давление в R3 – рабочей полости поверочного устройства, – оператор Лапласа, – циклическая частота, ==0 – граница области , f = f0, f = 0, =+ -, – часть границы, которую нужно оптимизировать, учитывая функционал I[u], описывающий волновое поле в месте расположения датчика.

Симметрия задачи приводит к четному по переменной z осесимметричному решению u(x, y, z) = u(, z) = u(,-z) в замкнутой области :

- () z (), 0 a; с компонентами границы в виде 0 : = a, -H z H; ± : z = ± (), 0 a, (a) = H, (0) = h > 0, (0) = 0. Ука занная функция z = () > 0 задает параметризацию участка границы области . Соответствующее граничное условие Неймана получаем в следующей форме:

u (a, z) = f0(z),-H z H; u (0, z) = 0,-h z h;

uz (,± ()) ()u (,± ()) = 0, uz (,0) = 0, 0 a.

Среди различных способов описания условий оптимизации для модели рования датчика G было выбрано следующее: I[u] = u(G) = u(0,h) ; () = 0, 0 < a. Возникает вариационная задача I[u] Max с условием связи в виде краевой эллиптической задачи Неймана (5). Нас будут интересовать ненулевые значения экстремумов, неспектральные значения параметра k (в том случае, если они вещественные).

Классический подход. Оригинальный метод оптимизации границы , вычисления переменного давления u был предложен автором ранее (19г.). Экстремальную задачу с условием связи (5) заменим необходимым условием экстремума I = 0 с условием связи в виде граничного интегрального уравнения = K + F для функции = u (внутреннее предельное значе ние решения u на ). Наличие симметрии упрощает условие связи: граничное интегральное уравнение становится одномерным.

Указанный прямой метод приводит к алгоритму итерационного типа:

заданное приближение ( p) для позволяет с помощью интегрального уравнения найти предельные значения решения u на границе (а тем самым и внутри области), а затем корректировать границу при помощи уравнения Эй лера и, таким образом, определить ( p+1). При этом начальное приближение (0) выбирается обычно из физических соображений.

Нейросетевой подход. К решению задачи применяется неклассический подход, основанный на проектировании гетерогенной нейронной сети и технологии ее обучения, который представляется более эффективным и адекватным. Аппроксимируем решение u(, z) с помощью RBF-сети:

N i u(, z) = e-a [( -i)2 +( z-zi )2 ], c i i= где {(i, zi)}iN – набор центров RBF-сети, wi = (ci,ai, i, zi) – настраиваемый =векторный параметр. Значения параметров ищутся из условия минимизации функционала ошибки J[u].

Для аппроксимации неизвестной части границы используется другая n сеть – персептрон с одним скрытым слоем () = (di - ei) + b0. После b i i=дискретизации задачи аналоги функционалов получаются в следующей форме:

Функционал, в соответствии с которым обучается нейросеть, задающая поле давления:

MMM J[u] = 1 u + k2u (, z ) + 2 uz - u (, z ) + 3 u - f0 (, z ), j0 jj j j j j=1 j=1 j0 = где используется три набора тестовых точек: {(, z )}M – внутри области j j j= , {(, z )}M – на граничной части , {(, z )}M – на граничной части j0 j0 j0 =j j j=0.

Функционал, описывающий требования, предъявляемые к датчику:

mG -I[u] = 4 u(0,h) + 5 ( (a) - H )2 + 6 (i) - h)2.

( i=Здесь i > 0, i =1,...,6, – штрафные коэффициенты.

Разработан специализированный алгоритм итерационного типа обучения гетерогенной нейронной сети (на основе минимизации функционалов I и J ). Приведены результаты вычислений, примеры оптимальной области .

Рис.8. Оптимальная область Новый подход к решению описанной задачи имеет следующие очевидные преимущества: помехоустойчивость – результат мало меняется при небольших изменениях входных данных (граничные условия, свойства среды, временная нестабильность); нет необходимости при решении серии задач обучать сеть заново; возможность применения к нелинейным и неклассическим задачам, в случае сложной геометрии.

Далее приведена Абстрактная постановка задачи управления границей и Обобщение нейросетевого подхода, когда ищется не только решение.

К переменным, подлежащим определению, относится и сама форма области, граничные условия и др., рассматриваемые в качестве элемента некоторого параметрического семейства, элементы которого подлежат определению.

В главе 5 даны общие методы построения приближенных нейросетевых моделей по разнородной информации (дифференциальные уравнения и данные). В предлагаемом подходе, заменяющем традиционный двухэтапный метод построения модели, рассматривается иерархия моделей, как дифференциальных, так и функциональных, включающая всю имеющуюся исходную информацию, допускающая эволюцию моделей на любом уровне и способная включать в рассмотрение вновь поступающую информацию. На этом пути возможно и построение регуляризаций решений некорректных или неклассических задач.

Обсуждение методов решения обыкновенных дифференциальных уравнений в классе нейронных сетей проводится в начале главы. Прибли жённое решение классической задачи Коши y (x) = F(x, y), y(x0) = y0 на промежутке (a;b) может быть получено минимизацией функционала ошибки, для которого на практике используется дискретное представление M J (y) = y (xj ) - F(xj, y(xj )) + y(x0) - y0, j=N на некотором достаточно богатом множестве функций вида y = c(x,a ) i i i=одной переменной, например, RBF-сетей. Важной для приложений является возможность построения приближенных решений заведомо переопределенных задач. Простейшим примером является модификация задачи Коши, состоящая в замене равенства y(x0) = y0 набором условий (обычно это резуль таты наблюдений) y(x1) = f1,..., y(xp) = fp, некоторые из точек xk могут и не принадлежать промежутку (a;b). (Заметим, что точное решение такой задачи в общем случае не существует.) При реализации рассмотренного выше нейросетевого подхода к построению аппроксимаций решения изменится лишь второе слагаемое в выражении для функционала ошибки – например, в слуp чае неравноточных измерений оно примет вид y(xk ) - fk, где более k k=достоверные наблюдения входят с большими весами k. Небольшие погрешности в этих данных мало влияют на построенное приближённое решение.

Намного более сложной является задача поиска функции F(x, y) по результатам наблюдений. Будем строить её в виде нейросетевого разложения N FN (x, y) = (x, y;ai). Для такой задачи наиболее перспективным пред h i i=ставляется использование персептронов с гладкими функциями активации, что позволяет приблизить кусочно-непрерывную функцию с неизвестными точками разрывов, которые определяются в процессе обучения в соответствии с имеющейся информацией, формализованной в виде функционала ошибки. Обсуждаются варианты использования структурных алгоритмов при такой постановке задачи, когда одновременно строится и уравнение, и его решение – совмещаются оба этапа моделирования, рассмотренные выше.

Предлагаются и подходы, сочетающие подбор аппроксимации F(x, y) в виде нейронной сети и какой-либо классический способ численного решения дифференциального уравнения (типа метода Рунге-Кутта) или использующие рекуррентную сеть для построения поточечного решения аналогично четвёртому подходу в главе 4.

Рассмотрены естественные обобщения приведенного выше подхода на системы обыкновенных дифференциальных уравнений и уравнения более высокого порядка, на уравнения, не разрешенные относительно старшей производной; аналогичные обобщения проводятся для задач, в которых восстановление коэффициентов уравнений сочетается с построением решений.

Например, нахождение потенциала для стационарного уравнения Шредингера. (При этом особый интерес представляет персептрон, позволяющий приблизить потенциал, который является комбинацией стандартных прямоугольных ям.) Далее кратко очерчиваются особенности нейросетевого моделирования динамического объекта: постановка задачи, алгоритмы подбора структуры сети, восстановление уравнения в процессе наблюдений, управление объектом.

Предложенная методика работы с моделями, основанными на обыкновенных дифференциальных уравнениях, применяется и к моделям, в описании которых участвуют дифференциальные уравнения в частных производных. Приближённое решение задачи (1) ищем в виде нейронной сети некоторой заданной архитектуры, веса которой определяются в процессе обучения на основе минимизации функционала ошибки. Различные модификации такого рода задач, включая случай, когда неизвестная граница задаётся некоторой отдельной нейронной сетью, рассматривались в предыдущих главах.

Так же, как и для обыкновенных дифференциальных уравнений, строится модель в виде уравнения в частных производных по данным измерений с определением коэффициентов этой модели как некоторых нейросетевых функций. В частности, в классе нейросетевых функций можно подбирать g(x), f (x), коэффициенты операторов A(u) и B(u), которые могут зависеть заранее неизвестным образом, как от пространственных переменных, так и от искомой функции, а также функцию, которая задаёт границу , так как граница исследуемого объекта или граница раздела сред не всегда является наблюдаемой. Такие задачи естественным образом возникают во многих практических приложениях. Их обычно ставят как обратные задачи математической физики, решая тем или иным методом регуляризации. Представляется целесообразным рассматривать эти задачи в рамках нейросетевого подхода в виде иерархии моделей, усложняющихся и уточняющихся в процессе расчётов и наблюдений. Такое уточнение моделей без принципиальных трудностей может быть автоматизировано.

На примере задачи о тепломассопереносе в гранулах пористого катализатора рассматривается нейросетевой подход к моделированию систем с неточно заданными параметрами: в краевой задаче для нелинейного ОДУ d y p y dy + y = (1+ y)exp - , (0) = 0, y(1) = 0, dx2 x 1- y dx модель в виде приближенного нейросетевого решения строится с высокой точностью как для фиксированных значений параметров ,,, так и в случае, когда параметры заданы приближенно: они изменяются в интервалах (min;max ), (min;max ) и (min;max ). При этом используется унифицированный метод построения модели, в качестве настраиваемой ИНС применялась гетерогенная нейронная сеть с базисными нейроэлементами v(x,,,,a1i,a2i,...,a8i) =.

= exp{-a1i(x - a2i)2}th{-a3i( - a4i)}th{-a5i( - a6i)}th{-a7i( - a8i)}.

Для приближенного нейросетевого решения из 30 таких нейроэлементов расхождение в контрольных точках с известными данными не превосходит 2%.

Рис.9. График нейросетевого решения y для N = Многие прикладные задачи приводят к необходимости строить приближенное решение дифференциального уравнения (или набора уравнений) в некотором классе функций, выделяя это решение не начально-краевыми условиями, как это принято в классических постановках задач математической физики, а, например, неким набором экспериментальных данных. Заметим, что в столь нетрадиционной постановке, задачи становятся некорректными и, вообще говоря, могут и не иметь решения. Предлагаемый нейросетевой подход является приближенным аналитическим методом исследования математических моделей: он позволяет конструировать приближенные решения на начальном этапе моделирования и в столь нестандартных ситуациях.

В качестве примера неклассической постановки исследовалась задача нахождения функции, для которой в некоторой части области известно уравнение, кроме того, получены (например, в результате измерений, возможно, с некоторой погрешностью) её значения в некотором наборе точек. Будем исp кать в области =1 2 функцию u(x), x R, удовлетворяющую усло виям: u(x ) = zj, x 1, j =1,...,m1, x 2, j = m1 +1,...,m1 + m2 ; A(u) = 0, j j j x2, где A – известный дифференциальный оператор (например, эллиптический оператор). Отказываясь от единственности решения и переходя к классам эквивалентных решений данной точности, строим на основе нейросетевого подхода регуляризованную аппроксимацию uN решения в виде лиN нейной комбинации нейросетевых базисных функций uN (x) = (x;ai), с c i i=настройкой сети на основе минимизации функционала ошибки J (u), взятого в виде m1+mM J (u) = A(u) (xk ) + u(x ) - z, j j k=1 j=M где {xk}k=1 – набор тестовых точек в подобласти 2.

Для расчетов выбирались двумерный оператор Лапласа A =, область – круг, подобласть 2 – полукруг. Пусть заменяющие краевые условия «измеряемые» данные {z } известны с ошибкой, которая является случайной j величиной, равномерно распределенной на отрезке [-; ]. В качестве исходной была взята гармоническая функция u = xy. Решение u восстанавливается во всем круге с ошибкой, не превосходящей выбранного = 0.1, с помощью гауссовой RBF-сети из 30 функций: M = 50, m1 = 7, m2 = 3, =100.

Предложенная методика позволяет работать не только с уравнениями эллиптического типа. На примере уравнения теплопроводности она применялась к эволюционным уравнениям – задача продолжения нестационарных полей по данным точечных наблюдений (рассматривался случай одной и двух пространственных переменных).

В области = (0;T ) требуется найти решение u(x,t) уравнения теплопроводности ut - u = 0, удовлетворяющее каким-то допустимым краевым условиям на (0;T )(например, условию Дирихле). Данные Коши при t = отсутствуют, вместо них указаны экспериментально измеренные значения u(xk,t ) = k, k =1,..., p, известные с некоторой ошибкой. Нейросетевой меk тод позволяет построить регуляризацию решения этой некорректной задачи.

(Здесь при нейрокомпьютинге в качестве области выбирался интервал или квадрат. Применялись сети постоянного размера и растущие сети.) При решении этой задачи рассматривались разные варианты настройки весов нейронной сети и выбора типа нейросетевого функционального базиса.

Изучался различный характер зашумления известного решения, являвшегося источником «данных эксперимента».

1.0 1.0.8 0.0.6 0.0.4 0.0.2 0.0.2 0.4 0.6 0.8 1.0.2 0.4 0.6 0.8 1.Рис.10. Восстановленные данные Коши Рис.11. Решение на оси x = 0.Некоторые начально-краевые задачи становятся корректно поставленными лишь при наложении определенных требований на краевые или начальные условия: при выполнении этих соотношений (порой зависящих от векторного параметра) задача корректна. Наш подход позволяет изучить и такие задачи: в главе рассмотрен другой нетривиальный пример – построение приближенных решений неклассического ультрагиперболического уравнения: xu = yu, где x – оператор Лапласа по переменной x. В последнее время это малоизученное уравнение вновь привлекло к себе внимание. Оно оказалось связанным с задачами интегральной геометрии, теории представлений групп, обратными задачами квантовой теории рассеяния, распространения волн, задачами компьютерной томографии.

В первой части данного раздела на основе нейросетевых RBFаппроксимаций и лучевого преобразования Ф.Йона строятся решения ультрагиперболического уравнения во всем пространстве. Приводятся принадлежащие автору результаты, обосновывающие корректность некоторых краевых характеристических задач с условиями Дирихле u = f для ультрагиперболического уравнения. В частности, устанавливается критерий разрешимости задачи вида Cf = 0 и полностью описывается класс A допустимых граничных функций f. Во второй части раздела описываются два нейросетевых подхода к построению приближенных решений этих корректных задач. При первом подходе строится нейросеть, аппроксимирующая решение в области, а необходимое и достаточное условие разрешимости алгебраического характера Cf = 0 учитывается как одно из требований к решению введением соответствующего слагаемого в функционал ошибки. При втором – обучается нейронная сеть, приближающая граничные данные из класса разрешимости A, решение во всей области восстанавливается по ее выходу с помощью явного интегрального представления.

Кратко рассматриваются многослойные модели с производными.

Построения, аналогичные проведенным, могут быть сделаны для выделения множеств решений интегральных уравнений, интегродифференциальных и иных уравнений; более подробно такие постановки и возможные обобщения рассматриваются в конце главы. Естественно напрашивающееся и не вызывающее особых трудностей направление обобщения используемых нейросетевых подходов – рассмотрение случая систем уравнений и сопутствующих ограничений (условий в весьма общей постановке).

Q Пусть задан набор условий Aq(u1,u2,...,ur ) = 0, где q – некоторое { } q q=множество, на котором соответствующее условие должно быть выполнено, us – неизвестные функции. Операторы Aq могут задавать уравнения, а также граничные и иные условия – например, законы сохранения или данные, полученные из опыта. Будем искать каждую неизвестную функцию как выход Ns нейронной сети: us (x) = s(x;ai,s), s =1...r подбирая веса – параметры c i,s i=ai,s и ci,s – путём минимизации функционала, составленного из слагаемых Mq вида Aq(u1,u2,...,ur )(x ), каждое из которых входит в сумму с некото j,q q j=рым весовым множителем q > 0, обычно фиксируемым заранее или пересчитываемым время от времени по указанной процедуре. При таком обобщении, так же как и ранее, могут использоваться алгоритмы, позволяющие наряду с настройкой весов нейронных сетей подобрать и их структуру. Рассматриваются варианты распараллеливания соответствующих подходов.

Нейросетевой подход позволяет с единой точки зрения рассмотреть достаточно широкий круг практически важных задач, включая некорректные.

При этом возможно использование неклассического нейросетевого базиса и рассмотрение классических методов сеток и конечных элементов с единой точки зрения, что придает им больше гибкости, позволяя применять характерные для нейронных сетей эволюционные методы и используя сильные стороны каждого из базисов.

На основе предлагаемой методологии разработан унифицированный процесс решения сложных задач математической физики. Его основные этапы:

1. Характеристика качества модели в виде функционала (набора функционалов). Данный этап основан на информации об изучаемых явлениях (модели и функционалы могут уточняться в процессе построения решения, конструирования и функционирования объекта) и может быть реализован специалистом в предметной области.

2. Выбор функционального базиса (базисов).

Данный этап может быть выполнен как специалистом в предметной области на основе информации о характере моделируемых явлений, так и автоматически, с помощью разработанных автором эволюционных алгоритмов.

3. Выбор и реализация методов подбора структуры модели и настройки параметров. Данный этап может быть полностью автоматизирован и не требует обязательного вмешательства специалиста в предметной области, хотя имеющаяся у него приблизительная информация о поведении объекта может быть легко учтена при построении модели.

4. Реализация методов уточнения моделей объектов в процессе их функционирования (и соответствующей подстройки алгоритмов управления ими). Принципы построения таких методов разработаны, данные методы и алгоритмы могут быть реализованы в программном комплексе, который будет применяться специалистами в прикладных областях без доработки для решения широкого круга задач.

5. Пополнение базы данных моделей, алгоритмов и программ.

Этот этап существенно учитывает конкретный способ реализации вычислительной среды. Накопление базы построенных моделей (иерархий моделей) или обученных нейросетей для типовых задач, которые можно использовать готовыми или уточнять при решении новых задач, беря эти базовые модели в качестве начального приближения, должно стать одним из важнейших направлений деятельности.

Унифицированный метод был предложен и применен в ходе выполнения научно-исследовательских работ по госконтракту № 02.740.11.0204 - по теме "Разработка сетевой компьютерной лаборатории аэрогидромеханики, тепломассопереноса и механики невесомости" – СКЛ. В частности, он был реализован в Нейросетевом Модуле СКЛ.

Рис.12. Нейросетевой Модуль По мнению экспертов, СКЛ и модули системы не имеют мировых аналогов – сайт проекта http://net-lab.keldysh.ru.

ЗАКЛЮЧЕНИЕ В заключении приведены основные результаты диссертации и намечены перспективные направления исследований.

Итогом диссертационной работы являются следующие научные и практические результаты:

• Разработана методология моделирования сложных систем с распределенными параметрами по разнородной информации с уточняемыми данными. Сформулирована новая парадигма моделирования таких систем на основе нейросетевой вычислительной технологии. В рамках этой парадигмы определены методы решения задач математической физики, разработан общий подход к выбору архитектуры и настройки нейросетевого функционального базиса.

• Предложен подход к построению устойчивых математических моделей сложных физических, технических и других систем на основе методологии нейросетевого моделирования. Реализация этого подхода позволяет преодолеть многие проблемы моделирования (сложность геометрии, разномасштабность процессов, ошибки данных, погрешности вычислений и др.) как на начальном его этапе, так и при построении иерархии моделей по уточняемой разнородной информации.

• Разработаны нейросетевые методы и алгоритмы решения задач математической физики в классической и неклассической постановке, допускающие распараллеливание и позволяющие сочетать подбор оптимальной структуры моделирующей системы с настройкой параметров нейросетевого функционального базиса в зависимости от решаемой задачи моделирования.

• Проведен анализ особенностей применения нейросетевого подхода при построении приближенных решений краевых задач для уравнений эллиптического и параболического типа для областей с фиксированной, свободной и управляемой границей. Рассмотрены важные для практики приложения: модель температурного поля в системе «сосуды – ткани», модель нанообъекта (квантовая точка), модель двухфазной системы со свободной границей и модель образцовой поверочной установки переменного давления с оптимизацией формы рабочей камеры.

• Проведен анализ построения нейросетевых регуляризаций решений неклассических задач математической физики на примерах характеристической краевой задачи для ультрагиперболического уравнения при учете критерия ее разрешимости и некорректной задачи продолжения полей по данным точечных измерений.

СПИСОК ОСНОВНЫХ ПУБЛИКАЦИЙ ПО ТЕМЕ ДИССЕРТАЦИИ 1. Васильев, А.Н. Нейросетевое моделирование. Принципы. Алгоритмы.

Приложения [Текст]/ А.Н.Васильев, Д.А.Тархов. – СПб.: Изд-во СПбГПУ, 2009. – 528 с.

2. Современные проблемы нейроинформатики. Научная серия – Нейрокомпьютеры и их применение. Книга 23. Коллективная монография [Текст]: в 2-х ч./ А.Н. Васильев [и др.]. – М.: Радиотехника, 2006. – часть 2. – 80 с.

3. Васильев, А.Н. Некоторые новые корректные задачи для ультрагиперболического уравнения [Текст]/ А.С.Благовещенский, А.Н.Васильев// Вестник ЛГУ. – 1976. – № 19. – С.152-153.

4. Васильев, А.Н. О новом законе сохранения для волнового уравнения [Текст]/ А.Н.Васильев// Вестник ЛГУ. – 1977. – №7. – С.25-31.

5. Васильев, А.Н. Нейронные сети как новый универсальный подход к численному решению задач математической физики [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2004. – №7-8. – С.111-118.

6. Васильев, А.Н. Новые подходы на основе RBF-сетей к решению краевых задач для уравнения Лапласа на плоскости [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2004. – №7-8. – С.119-126.

7. Васильев, А.Н. Нейросетевые подходы к решению краевых задач в многомерных составных областях [Текст]/ А.Н.Васильев, Д.А.Тархов// Известия ТРТУ. – 2004. – №9. – С.80-89.

8. Васильев, А.Н. Применение искусственных нейронных сетей к моделированию многокомпонентных систем со свободной границей [Текст]/ А.Н.Васильев, Д.А.Тархов// Известия ТРТУ. – 2004. – №9. – С.89-100.

9. Васильев, А.Н. Построение нейросетевой модели по дифференциальным уравнениям и экспериментальным данным [Текст]/ А.Н.Васильев, Д.А.Тархов// Известия ТРТУ. – 2005. – №10(54). – С.98-107.

10. Vasilyev, A.N. New neural network technique to the numerical solution of mathematical physics problems. I: Simple problems [Текст]/ A.N.Vasilyev, D.A.Tarkhov// Optical Memory and Neural Networks (Information Optics), Allerton Press, Inc. –2005. – Vol. 14, No. 1. – pp. 59-72.

11. Vasilyev, A.N. New neural network technique to the numerical solution of mathematical physics problems. II: Complicated and nonstandard problems [Текст]/ A.N.Vasilyev, D.A.Tarkhov// Optical Memory and Neural Networks (Information Optics), Allerton Press, Inc. – 2005. – Vol. 14, No.

2. – pp. 97-122.

12. Васильев, А.Н. Нейросетевые подходы к решению нестандартных задач моделирования теплообмена в системе «сосуды – ткани» [Текст]/ В.И.Антонов, А.Н.Васильев, Д.А.Тархов// Известия ТРТУ. – 2006. – №16(71). – С.54-58.

13. Васильев, А.Н. Новые нейросетевые подходы к решению краевых задач в областях, допускающих декомпозицию [Текст]/ А.Н.Васильев// «Нейрокомпьютеры»: разработка, применение. – 2006. – №7. – С.32-39.

14. Васильев, А.Н. О нейросетевом подходе к построению приближенных решений прикладных задач математической физики [Текст]/ А.Н.Васильев// Научно-технические ведомости СПбГТУ. – 2006. – №3.

– С.182-186.

15. Васильев, А.Н. Расчет теплообмена в системе «сосуды – ткани» на основе нейронных сетей [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2006. – №7. – С.48-53.

16. Васильев, А.Н. Нейросетевой подход к расчету квантовых точек [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2007. – №6. – С.87-95.

17. Васильев, А.Н. Математическое моделирование распределенных систем с помощью нейронных сетей [Текст]/ А.Н.Васильев// Математическое моделирование. – 2007. – Том 19, №12. – С.32-42.

18. Васильев, А.Н. Построение приближенных нейросетевых моделей по разнородным данным [Текст]/ А.Н.Васильев, Д.А.Тархов// Математическое моделирование. – 2007. – Том 19, №12. – С.43-51.

19. Васильев, А.Н. Эволюционные алгоритмы решения краевых задач в областях, допускающих декомпозицию [Текст]/ А.Н.Васильев, Д.А.Тархов// Математическое моделирование. – 2007. – Том 19, №12. – С.52-62.

20. Васильев, А.Н. Построение приближенных математических моделей распределенных систем на основе нейросетевой методологии [Текст]/ А.Н.Васильев// «Нейрокомпьютеры»: разработка, применение. – 2007.

– № 9. – С.103-116.

21. Васильев, А.Н. Принципы нейросетевого моделирования многокомпонентных распределенных систем [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2007. – № 9. – С.166186.

22. Васильев, А.Н. Нейросетевое моделирование систем с фазовыми переходами [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2007. – № 9. – С.5-13.

23. Васильев, А.Н. Сравнительный анализ традиционного и нейросетевого подходов к построению приближенной модели калибратора переменного давления [Текст]/ А.Н.Васильев// «Нейрокомпьютеры»: разработка, применение. – 2007. – № 9. – С.14-23.

24. Васильев, А.Н. Общие методы построения приближенных нейросетевых моделей по разнородной информации [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – 2007. – № 9. – С.195-205.

25. Васильев, А.Н. Особенности эволюционных алгоритмов построения приближенных нейросетевых решений задач математической физики для областей, допускающих декомпозицию [Текст]/ А.Н.Васильев, Д.А.Тархов // «Нейрокомпьютеры»: разработка, применение. – 2007. – № 9. – С.187-194.

26. Васильев, А.Н. Нейросетевая аппроксимация решения корректной краевой задачи для ультрагиперболического уравнения [Текст]/ А.Н.Васильев// «Нейрокомпьютеры»: разработка, применение. – 2007.

– № 9. – С.117-126.

27. Васильев, А.Н. Нейросетевое решение задачи о пористом катализаторе [Текст]/ А.Н.Васильев, Д.А.Тархов// Научно-технические ведомости СПбГПУ. Физ.-мат. науки. – 2008. – №6(67). – С.110-113.

28. Васильев, А.Н. Нейросетевое моделирование в математической физике [Текст]/ А.Н.Васильев// «Нейрокомпьютеры»: разработка, применение. – М.: Радиотехника, 2009. – №5. – С.25-38.

29. Васильев, А.Н. Унифицированный процесс построения иерархии нейросетевых моделей и проблема адекватности в математическом моделировании [Текст]/ А.Н.Васильев, В.П.Осипов, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – М.: Радиотехника, 2010. – №7. – С.20-28.

30. Васильев, А.Н. Нейросетевые подходы к регуляризации решения задачи продолжения температурных полей по данным точечных измерений [Текст]/ А.Н.Васильев, Д.А.Тархов// «Нейрокомпьютеры»: разработка, применение. – М.: Радиотехника, 2010. – №7. – С.13-19.

31. Васильев, А.Н. Унифицированный процесс моделирования физикотехнических объектов с распределенными параметрами [Текст]/ А.Н.Васильев, В.П.Осипов, Д.А.Тархов// Научно-технические ведомости СПбГПУ. Физ.-мат. науки. – 2010. – №3(104). – С.39-52.

32. Васильев, А.Н. Нейросетевой подход к решению некорректных задач теплопереноса [Текст]/ А.Н.Васильев, Ф.В.Порубаев, Д.А.Тархов// Научно-технические ведомости СПбГПУ. Информатика. Телекоммуникации. Управление. – 2011. – №1(115). – С.133-142.

33. Васильев, А.Н. Нейросетевая методология построения приближенных математических моделей распределенных систем [Текст]/ А.Н.Васильев, Д.А.Тархов// Труды научно-методического семинара кафедры высшей математики. Вып.1. – СПб.: Изд-во Политехн. ун-та, 2008. – С.115-170.

34. Васильев, А.Н. О некоторых экстремальных задачах, возникающих в акустике [Текст]/ А.Н.Васильев, Н.Г.Кузнецов// «Краевые задачи для неклассических уравнений математической физики» – Сборник трудов всесоюзной школы «Неклассические уравнения математической физики». – Новосибирск, 1989. – С.94-98.

35. Васильев, А.Н. Нейросетевой подход к решению некоторых неклассических задач математической физики [Текст]/ А.Н. Васильев, Д.А. Тархов// сборник научных трудов VII Всероссийской научнотехнической конференции «Нейроинформатика-2005». – Москва, МИФИ, 2005. – Часть 2. – С.52-60.

36. Васильев, А.Н. Некоторые эволюционные подходы к нейросетевому решению задач математической физики [Текст]/ А.Н. Васильев, Д.А. Тархов// сборник научных трудов VIII Всероссийской научнотехнической конференции «Нейроинформатика-2006». – Москва, МИФИ, 2006. – Часть 1. – С.24-31.

37. Васильев, А.Н. Применение нейронных сетей к неклассическим задачам математической физики [Текст]/ А.Н. Васильев, Д.А. Тархов// Сборник докладов Международной конференции по мягким вычислениям и измерениям – SCM’2003. – СПб., 2003. – Том 1. – С.337-340.

38. Vasilyev, A. Neural Networks Method in Pressure Gauge Modeling [Текст]/ A. Vasilyev, D. Tarkhov, G. Guschin// Proceedings of the 10th IMEKO TC7 International Symposium on Advances of Measurement Science. – Saint-Petersburg, Russia, 2004. – Vol.2. – pp.275-279.

39. Васильев, А.Н. RBF-сети и некоторые задачи математической физики [Текст]/ А.Н. Васильев, Д.А. Тархов// Сборник докладов Международной конференции по мягким вычислениям и измерениям – SCM’2004. – СПб., 2004. – Том 1. – С.309-312.




© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.