WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Глава 6 МЕТОДЫ ТЕОРИИ РАСПОЗНАВАНИЯ ОБРАЗОВ При бурении нефтяных и газовых скважин, как и при осуще ствлении любого сложного технологического процесса, перед технологом-буровиком возникает задача

оценки ситуаций в це лях предсказания возможного характера течения процесса и при нятия решения о выборе управляющих воздействий для эффек тивного ведения работ. Приходится сталкиваться с объектами и процессами, характеризующимися большим числом количествен ных и качественных признаков. При решении этой задачи инже неру очень важно создать формализованное описание рассматри ваемых объектов, процессов или ситуаций, зависящих от боль шого числа определяющих поведение объектов факторов, многие из которых носят вероятностный характер;

при этом ситуации оцениваются в условиях неопределенности и носят характер рас познавания образов.

Математический аппарат принятия решений об образе рас сматриваемых объектов за последние десятилетия получил бур ное развитие в кибернетике, он проникает в самые разные отрас ли знаний – медицину, лингвистику, геологию, экономику, связь, электронику и др. Особенно интенсивно стала развиваться тео рия распознавания образов в связи с широким внедрением ЭВМ в инженерную практику, так как создана возможность быстрой переработки больших объемов информации.

Основными задачами теории распознавания образцов можно считать следующие:

дискриминация (идентификация), или опознание, объекта, т.е.

отнесение конкретного объекта или ситуации к той или иной, заранее оговоренной категории;

классификация (кластеризация) совокупности объектов, т.е.

разделение множества объектов на группы, характеризующиеся общими (родственными) свойствами.

Под образом будет понимать некоторое обобщение множества различных представлений об объекте, из которых выделяются наиболее устойчивые его характеристики. Каждый индивидуаль ный объект обладает набором признаков, в качестве которых мо гут служить показатели свойств рабочих агентов (буровой рас твор, тампонажная смесь и др.), режимные характеристики рабо ты оборудования (подача бурового насоса, момент на роторе, давление в элементах циркуляционной системы и т.п.), сведения о внешних воздействиях (пластовые давления и температура, свойства пород и флюидов, углы напластования и т.д.), номенк латура используемых материалов и оборудования. При этом оби лие привлекаемых к рассмотрению факторов связано не с их доступностью, а с одной стороны, с недостаточной точностью измерений и, с другой, – со сложностью априорного выделения наиболее информативных признаков. В подобной ситуации весь ма эффективным является привлечение к рассмотрению косвен ных признаков, согласованность которых при распознавании убеждает в правильности прогнозов.

В общем случае любой объект характеризуется вектором со стояния или признаков X(X1, X2,..., Xn), в зависимости от кон кретных значений компонент которого можно утверждать о при надлежности объекта к тому или иному образу. В качестве об раза или класса ситуаций можно использовать самые разные представления (устойчивый или неустойчивый разрез;

успешный или неуспешный результат работ;

нормальное состояние скважи ны, осыпи и обвалы, прихваты колонн труб, поглощения или проявления;

углы искривления ствола скважины в тех или иных пределах и многое другое), которые позволяют инженеру оце нить технологический процесс и выбрать соответствующее управляющее воздействие.

Решение задачи о дискриминации объекта подразумевает соз дание определенных правил, которые в зависимости от значений компонент вектора признаков X(X1, X2,..., Xn) позволяют при нять решение о принадлежности объекта к какому-либо образу.

Системы подобных правил, представляющих собой совокупность некоторых разрешающих функций gi(X) и условий принятия ре шений при их известных значениях, можно строить на основе предварительно собранных выборок с представлениями разных образов – обучение с учителем или с помощью автоматических процедур кластеризации, в которых разбиение на образы осуще ствляется на основе некоторых адаптационных процедур и вы бранных критериев близости объектов. В инженерной деятельно сти более распространен первый вариант, так как обычно в зави симости от целей разбиение множества объектов на образы явля ется возможным. При этом удается сформировать представи тельные выборки объектов для каждого из образов.

В основе математических методов теории распознавания обра зов используются следующие основные идеи: распознавание об разов по мере сходства или близости между объектами разных классов или вероятностное по фазовому интервалу.

Применение конкретного метода обусловливается постанов кой задачи и признаками, характеризующими объект. Так, при первом подходе необходимо количественное задание вектора признаков. Два других подхода могут оперировать как количест венными, так и качественными факторами. Кроме того, увеличе ние числа классов весьма усложняет использование первого и третьего подходов, в то время как вероятностное распознавание является наиболее универсальным и обобщающим. Следует от метить, что все алгоритмы распознавания образов, как правило, сложны и обычно реализуются с помощью ЭВМ. Далее будут рассмотрены несколько достаточно простых алгоритмов и даны основные сведения о более сложных процедурах. При этом в ря де случаев иллюстрация будет менее доступной, чем для преды дущих статистических алгоритмов.

Использование меры сходства или близости подразумевает, что вектор признаков любого объекта задает некоторую точку в многомерном пространстве. При наличии заданных объектов, принадлежащих к оговоренным классам, можно определить не которую числовую характеристику, указывающую на степень близости рассматриваемого объекта к представителям разных классов. Наименьшее значение выбранной меры близости укажет на принадлежность рассматриваемого объекта к соответствую щему классу (рис. 18).

Рис. 18. Схема распознавания объекта по евклидову расстоянию Согласно рис. 18, имеем две области А и В, центры которых соответственно обозначены О1 и О2. Новый объект (треугольник) находится на расстоянии lA и lB от классов A и B соответственно.

Следовательно, можно предположить, что он относится к классу B, так как lA > lB. Обратим внимание на то, что в обучающихся выборках, т.е. предварительно отобранных объектах из класса A, и B, имеются перекрывающиеся области, т.е. в области A есть точки из класса B, и наоборот.

Основная идея распознавания образов при таком геометриче ском подходе состоит в том, чтобы найти в пространстве компо нент вектора состояния X(X1, X2,..., Xn) такие области, в кото рых были бы сконцентрированы объекты одного класса. Эту идею можно легко проиллюстрировать для векторов состоя- ния, содержащих одну или две компоненты, т.е. X(X1) или X(X1, X2).

В первом случае объекты различимых классов группируются на разных участках числовой оси X1. Во втором случае, если на плоскости с координатными осями X1 – X2 изображать объекты разных классов, то возможно выделение областей, соответствую щих каждому классу, а если классы неразличимы, то эти области будут перекрываться.

Такой метод распознавания объектов наиболее прост и досту пен, но он приводит к успеху только при достаточно большой «удаленности» классов друг от друга и становится практически неприменимым, если классы пересекаются, т.е. при существова нии областей, общих для разных классов. Кроме того, при распо знавании образов геометрическими способами без специальных преобразований, которые будут изложены ниже, для многомер ных векторов состояния (число компонент более двух) невоз можно найти удобные координаты для наиболее четкого разде ления объектов по классам.

Проиллюстрируем изложенные соображения с использовани ем данных, представленных далее в табл. 55. В примере, который будет рассмотрен ниже, вектор состояния X(X1, X2, X3, X4, X5) характеризует четыре разных типа промывочной жидкости, ис пользуемой для бурения в соленасыщенных отложениях. На рис.

19, а–г в координатах X1 - X2, X3 - X2, X1 - X4, X1 - X3 приве дены образцы промывочных жидкостей типов 1–4, представ ляющих собой соответственно глинистые растворы с добавками 1 % КМЦ;

1 % КМЦ + 1 % Na2Ca3;

1 % КМЦ + 1 % Na2CО3 + + 1 % NaOH;

1 % КМЦ + 1 % Na2CО3 + 1 % NaOH + 0,5 % СНГР. Можно утверждать, что образ промывочной жидкости типа 1 наиболее компактен и удален от всех остальных типов.

Области расположения промывочных жидкостей типов 2– Рис. 19. Образцы промысловых жидкостей разных типов близки друг к другу, и провести четкие границы для каждого из них затруднительно.

При использовании такого метода распознавания образов первую очередь возникает вопрос: какие компоненты необходи мы для построения диаграмм рассеивания образов? Особенно сложной становится эта проблема для многомерных векторов состояния, так как возможно очень большое число попарных комбинаций компонент. Кроме того, может оказаться, что ни од на из этих комбинаций не дает возможности провести классифи кацию объектов. В такой ситуации приходится применять специ альные методы, предназначенные облегчить процедуру распозна вания.

В качестве меры близости или сходства используются раз личные числовые характеристики:

а) евклидово расстояние n gi(X) = (X - Xij )2 = X - Xi, (179) j j= где n – число признаков или факторов;

Xj – значение j-го факто ра для опознаваемого объекта;

Xij – среднее значение j-го фак тора для объекта i-го класса;

i – число классов;

б) угловое расстояние между векторами n X - X ij j gi(X) = 1 -j =1 = 1-X Xi, (180) n n X Xi X2 Xij j j=1 j= где ()т – транспортированный вектор;

Xi – вектор средних зна чений факторов для i-го класса;

– норма вектора;

в) мера Тапимото n X Xij j X Xi j= gi(X) ==, (181) n n n X X + X Xi - X X i X2 + Xij - XiX2 j i j j=1 j=1 j= г) расстояние Махалонобиса - gi(X) = (X - Xi)C (X - Xi), (182) - где C – обратная ковариационная матрица совокупности объектов данного класса (сведения о матрицах приведены на с. 205–212).

Ковариационная матрица представляет собой следующее вы ражение:

kk (N - 1) cov(X1i X1i);

(N - 1) i i i=1 i= k cov(X1i X2i);

...;

- 1) cov(X1i Xni) (N i i= kk (Ni - 1)cov(X2i X1i);

(Ni - 1) i=1 i= C =, k k N1 - k (N i cov(X2i X2i);

...;

- 1) cov(X2i Xni) i= i=................................

kk (N - 1)cov(Xni X1i);

(N - 1) i i i=1 i= k cov(Xni X2i);

...;

- 1) cov(Xni Xni) (N i i= где k – число классов (i = 1, 2, …, k);

Ni – число объектов в i-м классе;

Ni cov(Xri Xmi) = (X - Xr )(Xmi - Xm);

(183) ri Ni - 1 i= Xr, Xm – r-й и m-й факторы вектора признаков;

X, X – сред r m нее значение r-го и m-го фактора вектора признаков.

Отметим, что для совпадающих индексов r и m получаем дис персию фактора, т.е. на диагонали матрицы стоят взвешенные дисперсии факторов.

Помимо указанных, используют и многие другие меры близо сти, но приведенные выше наиболее распространены.

Каждая из приведенных мер сходства имеет определенные преимущества и недостатки, и конкретизация меры должна осу ществляться в зависимости от постановки задачи и числовых характеристик объектов обучающих выборок.

При использовании меры близости очень часто из эвристиче ских соображений для каждого из признаков вводят некоторые весовые коэффициенты, которые учитывают характер разброса данных для каждого из факторов и их технологическую важ ность. В этом случае для каждого из факторов в векторе состоя ния вводят множители aij и bj, которые должны отвечать требо ваниям nn aij = 1;

bj = 1.

j=1 j= Коэффициенты aij, обычно учитывающие разброс данных, вычисляют по формуле (Xij ) aij =, (184) n 2 (Xij / ij ) ij j= где aij – весовой коэффициент j-го фактора для i-го класса;

ij – среднее квадратическое отклонение j-го фактора для i-го класса.

При ij = 0 соответствующий весовой коэффициент берут равным 1, а остальные определяют по формуле (184) для мень шего числа факторов, т.е. имеем уже не n факторов, а на соответ ствующее число меньше.

Коэффициенты bj учитывают технологическую важность фактора, и в случае равнозначности последних или невозможно сти дифференциации их считают равными.

Наиболее простое общее правило опознавания, или дискри минации, объекта при наличии k классов (i = 1, 2, …, k) состоит в определении такого gi(X), для которого gi(X) < gk(X) для любых i k. При этом объект будет отнесен к i-му классу.

Такое опознавание называют сопоставлением с кластером или эталоном.

По другому правилу находят индивидуальный объект, к кото рому наиболее близок опознаваемый объект по выбранной мере сходства. При этом считают, что рассматриваемый объект одного и того же класса с наиболее близким. Этот принцип называют правилом ближнего соседа (ПБС-правило).

Обобщение такого подхода состоит в определении q ближай ших соседей и дискриминации объекта к классу c наибольшим числом представителей (qБС-правило).

При использовании любого из правил наличие условий ра венства меры близости для двух классов и более указывает на неопределенность ситуации и от дискриминации необходимо от казаться (неопределенный случай). В более сложных алгоритмах вводят понятия радиусов класса Rimin и Rimax. При выполнении условия gi(X) < Rimin объект относят к i-му классу, а при Rimin < gi(X) < Rimax с некоторым риском (область Rimax может пересекаться с областями других классов) – к i-му классу.

Пример 13. Рассмотрим задачу об идентификации класса по роды по результатам (механический каротаж). При бурении од ними и теми же типами долот в классах пород 1 и 2 были за фиксированы следующие значения четырех признаков: проходка на долото, м, X11 = 25, 11 = 5 и X21 = 30, 21 = 5;

средняя меха ническая скорость, м/ ч, X12 = 3, 5, 12 = 0,8, X22 = 4,0, и 22 = = 0,9;

крутящий момент на роторе, кНм, X13 = 1, 5, 13 = 0,12 и X23 = 0,15, 23 = 0,15;

нагрузка на долото, кН, X14 = 20, 14 = 3 и X24 = 16, 24 = 2. Необходимо определить, к какому классу (типу пород) следует отнести результат очередного долбления с значе ниями факторов X01 = 28 м, X02 = 3,8 м/ ч, X03 = 1,4 м и X04 = = 17 кН.

В качестве меры близости выбираем евклидово расстояние, и разрешающую функцию представляем в виде n gi(X) = aijb2(X0 j - Xij )2, j j= где коэффициенты aij и bj определяем по указанным выше пра вилам.

Находим значения коэффициента aij:

(X11 / 11) a11 == (X11 / 11)2 + (X12 / 12)2 + (X13 / 13)2 + (X14 / 14) (25 / 5) == 0,10;

(25 / 5)2 + (3, 5 / 0, 8)2 + (1, 5 / 0,12)2 + (20 / 3) (3, 5/0, 8) a12 == 0,08;

(25 / 5)2 + (3, 5 / 0, 8)2 + (1, 5 / 0,12)2 + (20 / 3) 2 a13 = 0,64;

a14 = 0,18;

(X21 / 21) a21 == (X21 / 21)2 + (X22 / 22)2 + (X23 / 23)2 + (X24 / 24) (30 / 5, 5) == 0,15;

(30 / 5, 5)2 + (4,0 / 0, 9)2 + (1, 35 / 0,15)2 + (16 / 2) 2 2 a22 = 0,10;

a23 = 0,42;

a24 = 0,33.

Отметим, что при этом выполняется условие a1 j = 1, т.е.

j= 0,10 + 0,08 + 0,64 + 0,18 = 1,0;

a2 j = 1.

j= Из технологических соображений зададимся, что b1 = 0,4 b2 = = b3 = b4 = 0,2, т.е. значимость проходки на долото вдвое больше остальных признаков.

При таком задании весов согласно виду разрешающей функ ции имеем g1 = 0,10(28 - 25)2 + 0, 22 0,08(3, 8 - 3, 5)2 + 0,22 0,64(1, 4 0, 0, -1, 5)2 + 0,2 0,18(17 - 20)2 = 0, 46;

g2 = 0,15(28 - 30)2 + 0, 22 0,10(3, 8 - 4,0)2 + 0, 22 0, 48(1, 4 0, 0, -1, 35)2 + 0, 2 0, 33(17 - 16)2 = 0,33.

Таким образом, можно считать, что очередное долбление осу ществлялось в породах класса 2, так как g2 < g1 (0,33 < 0,46).

Обратим внимание на тот факт, что для принятой меры бли зости очень неблагоприятны существенные различия в значениях факторов. Для устранения этого недостатка рекомендуется ис пользовать разрешающую функцию вида g1(X) = aijbj (1 - X0 j / Xij )2, которая лишена подобного недостатка, но ее можно применять при условиях X0j > 0 и Xij > 0.

В нашем случае вычисления по разрешающей функции такого вида дают результаты g1 = 0,0510 и g2 = 0,0172, т.е. выводы ос таются прежними.

Другим подходом, более универсальным и имеющим большие дополнительные преимущества, является переход от вектора ис ходных факторов к их линейным комбинациям, обладающим свойством ортогональности, или нескоррелированности. Его на зывают дискретным разложением Карунева – Лоева, или мето дом главных компонент.

Под главными компонентами понимают переменные вида n Uk = dkm X, m m= где k = 1, 2, …, n – число главных компонент;

X – нормирован m ные значения факторов вектора состояния, вычисляемые по формуле X = (Xm - Xm) / m, m где X и m – среднее и дисперсия m-го фактора.

m Для вычисления коэффициентов dkm необходимо решить ха рактеристическое уравнение (C -k J)Dk = 0, (185) где C – ковариационная матрица, вычисленная для вектора при знаков по совокупности объектов для всех классов;

k – корни характеристического уравнения;

J – единичная матрица;

Dk – матрица коэффициентов dmk, т.е.

d11 d12... d1n d21 d22... d2n Dk =. (186)...........

dn1 dn2... dnn Отметим, что ковариационная матрица для главных компо нент удовлетворяет условию 1 0... 0 0... M(U U ) = 0 0 3... 0. (187) 0 0 0... n При этом дисперсия каждой из главных компонент n 2 = k / k. (188) k k= При выборе нумерации k, дисперсии, согласно условию 1 > 2 > 3... > k, будут убывать, т.е. наибольшую дисперсию будет иметь первая главная компонента и наименьшую – по следняя.

Если обучающие выборки состоит из объектов, приведенных в табл. 53, то в результате использования преобразования Каруне ва – Лоева получаем следующие главные компоненты и корни характеристических уравнений:

U1 = 0, 598X + 0,233X - 0,624X - 0,447X ;

1 = 1,781;

U2 = 0,048X + 0, 839X + 0,087X - 0,535X ;

2 = 0,985;

U3 = 0,459X - 0,510X - 0,238X + 0,687X ;

3 = 0,759;

U4 = -0,653X - 0,518X - 0,737X + 0,073X ;

4 = 0,475.

Таблица Класс 1 Класс Меха Крутя Проход- Механиче- Крутя- Нагрузка ниче- Нагруз Проход- щий ка на ская ско- щий на доло- ская ка на ка доло- момент долото рость X12, момент то X14, ско- долото то X21, м X23, X11, м м/ ч X13, кНм кН рость X24, кН кНм X22, м/ ч 23,5 4,5 1,52 16,4 36,0 3,2 1,17 14, 30,3 2,3 1,35 17,2 36,7 2,6 1,51 17, 25,8 4,4 1,46 23,3 29,3 5,0 1,37 18, 24,4 3,5 1,49 21,7 25,0 3,9 1,43 18, 19,0 2,8 1,57 19,6 21,4 5,1 1,34 16, 30,5 3,9 1,63 23,7 35,9 4,1 1,12 15, 20,4 3,4 1,65 19,1 28,4 4,9 1,51 12, 31,1 4,4 1,31 23,2 30,9 4,5 1,31 18, 17,2 2,5 1,39 20,5 23,3 2,9 1,53 15, 27,8 3,3 1,63 15,3 33,1 3,8 1,21 13, Согласно табл. 54, в которой объекты обучающих выборок представлены в главных компонентах, имеем следующие значе ния средних и дисперсий для эталонов обоих классов:

U = -0, 911;

11 = 0, 827;

U = 0, 911;

21 = 1,106;

11 U = -0,068;

12 = 1,059;

U = 0,068;

22 = 0, 978;

12 U = 0, 258;

13 = 0, 815;

U = -0, 258;

23 = 0, 894;

13 U = 0,015;

14 = 0,788;

U = -0,015;

24 = 0,613.

14 Воспользуемся в качестве меры близости евклидовым рас стоянием n g1(U) = aijbj (U0 j ) - U )2.

ij j= Вычисляем коэффициенты:

(-0, 911/ 0, 827) a11 == 0,92;

(0, 911 / 0, 827)2 + (0, 068 / 1, 059)2 + (0, 258 / 0, 815)2 + (0, 015 / 0, 788) a12 = 0,0036;

a13 = 0,0761;

a14 = 0,0003;

(0, 911 / 1,106) a21 == (0, 911 / 1,106)2 + (0, 068 / 0, 978)2 + (-0, 258 / 0, 894)2 + (-0, 015 / 0, 613) = 0,886 ;

22 a22 = 0,0054;

a23 = 0,107;

a24 = 0,0008.

Таблица Класс 1 Класс U11 U12 U13 U14 U21 U22 U23 U –0,380 –0,442 –1,253 –0,175 2,305 1,092 0,592 0, 0,317 1,523 1,028 0,290 0,428 1,392 1,093 –1, –0,880 –1,507 0,556 0,026 0,693 –1,297 –0,424 –0, –1,169 –0,361 0,588 0,169 –0,254 –0,180 –0,275 0, –1,956 0,668 –0,003 0,481 0,309 –1,128 –1,518 0, –1,272 –0,951 1,049 –1,229 2,575 –0,010 0,385 0, –1,905 0,225 –0,477 –0,186 0,765 –0,214 –1,828 –0, 0,298 –1,531 1,192 0,142 0,998 –0,798 0,050 0, –1,616 0,693 0,502 1,628 –0,790 1,216 –0,467 0, –0,550 1,004 –0,605 –1,000 2,084 0,607 –0,185 0, Для коэффициентов bj сохраняем прежние условия, т.е. b1 = = 0,4;

b2 = b3 = b4 = 0,2.

Тогда для идентифицируемого объекта с X01 = 28 м, X02 = = 3,8 м/ ч, X03 = 1,4 кНм и X04 = 17 кН получаем следующие значения вектора признаков в главных компонентах:

U01 = 0,598 0,087 + 0,233 0,058 - 0,624(-0,163) - 0,447(-0, 310) = 0, 305 ;

U02 = 0,048 0,087 - 0,839 0,058 + 0,087(-0,163) - 0, 535(-0, 310) = 0,107;

U03 = 0,459 0,087 - 0,510 0,058 - 0,238(-0,163) + + 0,687(-0, 310) = -0,164;

U04 = -0,653 0,087 - 0,158 0,058 - 0,737(-0,163) + + 0,073(-0, 310) = 0,032.

Разрешающие функции g1(U0) = [0, 42 0, 92(0, 305 + 0, 911)2 + 0, 22 0,0036(0,107 + 0,068)2 + + 0, 22 0,0761(-0,164 - 0, 258)2 + + 0, 22 0,0003(0,032 - 0,015)2]0,5 0, 47.

g2(U0) = [0, 42 0,886(0,305 + 0, 911)2 + 0, 22 0,0054(0,107 + 0,068)2 + + 0, 22 0,107(-0,164 + 0,258)2 + 0, 2 0,0008(0,032 + 0,015)2]0,5 0,19.

Согласно полученным значениям, рассматриваемый объект следует отнести к классу 2 (0,19 < 0,47).

Обратим внимание на тот факт, что при переходе к главным компонентам оказывается практически достаточным использова ние только первой компоненты U1 для распознавания образов (в разрешающих функциях три последних члена, намного меньших первого). Эта компонента содержит около 44 % дисперсии, так как i 1, == 0,44, (1, 781 + 0, 985 + 0, 759 + 0, 475) j j = а две первые компоненты – около 70 % дисперсии.

Таким образом, переход к главным компонентам оказывается весьма эффективным и позволяет составить наиболее информа тивную линейную комбинацию исходных признаков.

Пример 14. При бурении четырех скважин на Кубани в ин тервале 4250…750 м (температура 150…160 °С), представленном соленосной толщей с терригенными пропластками, осуществляли химическую обработку соленасыщенных утяжеленных нефте эмульсионных глинистых пород растворами с добавками (в % к объему): тип 1 – 1 % КМЦ;

тип 2 – 1 % КМЦ + 1 % Na2CO3;

тип 3 – 1 % КМЦ + 1 % Na2CO3 + 1 % NaOH;

тип 4 – 1 % КМЦ + 1 % Na2CO3 + 1 % NaOH + 0,5 % СНГР.

На устье скважин после циркуляции контролировали показа тели свойств этих растворов: условную вязкость X1, с, (по при бору СПВ-5);

водоотдачу X2, см3, за 30 мин;

статическое напря жение сдвига X3 и X4, через 1 мин и 10 мин соответственно;

плотность X4, г/ см3.

На каждой скважине было проведено по 10 измерений, ре зультаты которых представлены в табл. 55 (значение в числителе).

По результатам измерения показателей свойств (вектор со стояния объектов X(X1, X2, …, X5) необходимо было выяснить, существенны ли различия между воздействием растворов и целе сообразно ли их применение в указанных геологических условиях.

Прежде чем приступить к статистическому анализу получен ных данных методом главных компонент, приведем все компо ненты к безразмерному виду для всех рассматриваемых объектов по формуле 2Xi - (Xmax + Xmin) Xi =.

Xmax - Xmin Так, для компонент вектора состояний получаем X1max = 92;

X1min = 49;

X2max = 10;

X2min = 3,5;

X3max = 40;

X3min = 15;

X4max = 60;

X4min = 24;

X5max = 1,97;

X5min = 1,91.

Таблица № п/ п X1 X2 X3 X4 X Тип 1 91/1,00 8,0/0,38 18/–0,76 26/–0,89 1,96/0, 2 87/0,77 10,0/1,00 21/–0,52 32/–0,56 1,94/0, 3 81/0,48 10,0/1,00 18/–0,76 29/–0,72 1,94/0, 4 75/0,21 8,0/0,38 20/–0,60 30/–0,67 1,93/–0, 5 92/1,05 6,0/–0,23 19/–0,68 29/–0,72 1,97/1, 6 80/0,44 7,0/0,08 15/–1,00 27/–0,83 1,92/–0, 7 78/0,39 7,0/0,08 15/–1,00 24/–1,00 1,91/–1, 8 82/0,53 6,5/–0,08 25/–0,20 38/–0,22 1,92/–0, 9 90/0,91 6,0/–0,23 20/–0,60 30/–0,67 1,93/–0, 10 82/0,53 8,0/0,38 16/–0,92 25/–0,94 1,92/–0, Тип 1 62/–0,39 7,0/0,08 30/0,20 40/–0,11 1,96/0, 2 70/–0,02 6,0/–0,23 32/0,36 49/0,39 1,95/0, 3 64/–0,30 6,0/–0,23 40/1,00 53/0,61 1,94/0, 4 60/–0,49 5,5/–0,38 36/0,68 48/0,33 1,96/0, 5 65/–0,26 5,0/–0,54 35/0,60 50/0,44 1,93/–0, 6 65/–0,26 4,5/–0,69 38/0,84 53/0,61 1,95/0, 7 64/–0,30 5,0/–0,54 40/1,00 55/0,72 1,96/0, 8 58/–0,58 5,0/–0,54 32/0,36 50/0,44 1,97/1, 9 64/–0,30 4,5/–0,69 31/0,28 48/0,33 1,93/–0, 10 67/–0,16 6,0/–0,23 35/0,60 50/0,44 1,95/0, Тип 1 55/–0,72 4,0/–0,85 28/0,04 42/0,00 1,96/0, 2 59/–0,53 5,5/–0,38 35/0,60 49/0,39 1,94/0, 3 61/–0,44 4,0/–0,85 27/–0,04 45/0,17 1,91/–1, 4 55/–0,72 3,5/–1,00 34/0,52 59/0,94 1,93/–0, 5 60/–0,49 4,5/–0,69 30/0,20 55/0,72 1,97/1, 6 60/–0,49 4,0/–0,85 32/0,36 55/0,72 1,92/–0, 7 52/–0,86 4,0/–0,85 30/0,20 54/0,67 1/92/–1, 8 59/–0,53 4,5/–0,69 29/0,12 51/0,50 1,92/–0, 9 62/–0,40 4,5/–0,69 31/0,28 56/0,78 1,93/–0, 10 60/–0,49 4,0/–0,85 30/0,20 52/0,56 1,92/–1, Тип 1 55/–0,72 4,0/–0,85 35/0,60 58/0,89 1,95/0, 2 49/–1/00 3,5/–1,00 30/0,20 50/0,44 1,94/0, 3 51/–0,91 3,5/–1,00 35/0,60 56/0,78 1,96/0, 4 50/–0,95 4,5/–0,69 31/0,28 51/0,50 1,96/0, 5 58/–0,58 4,5/–0,69 30/0,20 48/0,33 1,97/1, 6 50/–0,95 4,0/–0,85 30/0,20 60/1,00 1,96/0, 7 61/–0,44 4,0/–0,85 27/–0,04 49/0,39 1,93/–0, 8 49/–1,00 4,5/–0,69 28/0,04 51/0,50 1,94/0, 9 52/–0,86 4,0/–0,85 30/0,20 60/1,00 1,95/0, 10 55/–0,72 3,5/–1,00 27/–0,04 55/0,72 1,96/0, Примечание. В числителе – результаты измерений, в знаменателе – нор мированные значения.

В нормированных значениях результаты наблюдений также приведены в табл. 55 (данные в знаменателе).

По этим данным построена ковариационная матрица компо нент вектора наблюдений 0,344 0,244 -0,217 -0,305 -0, 0,244 0, 272 -0,171 -0,257 -0, S = -0,217 -0,171 0,291 0,282 0,134.

-0,305 -0, 257 0,282 0,371 0, -0,113 -0,097 0,134 0,149 0, Будем искать значения корней 1, 2, 3, 4, 5 и матрицу коэффициентов линейного преобразования B методом последова тельных приближений. Выберем некоторый исходный вектор X = 0,1;

1,0;

0,1;

0,1;

0,1, который будем уточнять следующим k k- образом: X = SX (k = 1, 2, …) до тех пор, пока отношение k- k Xi / Xi = rik не станет одинаковым для всех компонент i с не которой заданной точностью (в заданном десятичном разряде).

Полученное на k-м этапе приближений значение r1k r2k r3k r4k r5k стремится в пределе к первому корню 1, k т.е. lim r = 1. Соответствующий вектор состояния, будучи нор k мированным, дает первый столбец матрицы коэффициентов B.

В рассматриваемом случае на пятом шаге приближений (k = = 5) величины rik с точностью до двух единиц в пятом десятич ном разряде совпали;

при этом получено 1 = rik = 1,143;

B 0, B 0, b(1) = Bm = B31 = -0,438, B41 -0, B51 -0, где b(1) – обозначение первого столбца матрицы B;

m = 1, …, 5.

По найденным значениям 1 и b(1) определяем новую матри цу S1, которую вычисляем из условия B B S1 = S -1b(1)b(1) = (Sij ) -1 B31 (B11 B21 B31 B41 B51).

B B В рассматриваемом примере матрица S1 приобретает следую щий вид:

0,06094 0,00510 0,03211 0,00805 0, 0,00510 0,07098 0,03878 0,00738 0, S1 = 0,03212 0,03878 0,07163 0,00567 0,00793.

0,00805 0,00738 0,00567 0,02398 0, 0,04903 0,03963 0,00793 0,03027 0, По найденной матрице S1, аналогично предыдущему этапу, 0 0 0 0 0 задаем X (X1 ;

X2 ;

X3 ;

X4 ;

X5 ) и согласно описанной выше процедуре определим 2 и b(1). В нашем случае 2 = 0, 242;

B 0, B 0,.

b(2) = Bn2 = B32 = 0, B42 -0, 0, B После преобразования матрицы S1 получаем новую матрицу S2, а затем приступаем к вычислению 1 и b(2) и т.д.

Для рассматриваемого примера 0,305 0,733 0, 3 = 0,115;

0,510 -0, 0, ;

b(4) = ;

b(5) = 4 = 0,060;

b(3) = 0,745 0,120 -0,485.

5 = 0,026;

0,192 0,081 0, -0,234 -0,040 -0, Таким образом, в результате расчета по данной процедуре по лучаем 1 = 1,143;

2 = 0,242;

3 = 0,115;

4 = 0,060;

5 = 0,026;

0,497 0,263 0,305 0,733 0, 0,420 0,231 0,510 -0,664 0, B = -0,438 0,055 0,745 0,120 -0, 485 ;

-0,551 -0,110 0,192 0,081 0, -0,284 0,929 -0,234 -0,040 -0, при этом у остаточной матрицы S5 = S4 - 5b(5)b(5) все члены с точностью до 10–7 оказались равными нулю.

По полученной матрице B находим функции U1, U2, …, U5, ко торые являются уравнениями для главных компонент, из соот ношения U = B X:

U1 = B11X1 + B21X2 + B31X3 + B41X4 + B51X5 = = 0, 497X1 + 0, 420X2 - 0, 438X3 - 0, 551X4 - 0, 284X5;

U2 = 0, 263X1 + 0, 231X2 + 0,055X3 - 0,110X4 + 0, 929X5 ;

U3 = 0, 305X1 + 0, 510X2 + 0,745X3 + 0,192X4 - 0, 485X5 ;

U4 = 0,733X1 - 0,664X2 + 0,120X3 + 0,081X4 + 0, 800X5 ;

U5 = 0, 231X1 + 0, 265X2 - 0, 485X3 - 0,040X4 - 0,078X5.

Согласно теории, вклад в общую дисперсию образов каждой k из пяти компонент U можно определить из отношения i / i.

i= В данном случае вклад первой компоненты равен 1,143/ 1,586, т.е. 73 % общей дисперсии;

для двух первых компонент вклад в общую дисперсию (1,143 + 0,242)/ 1,586100 87 %, а для трех первых компонент (1,143 + 0,242 + 0,115)/ 1,586100 95 % и т.д.

Таким образом, если в качестве главных компонент выбрать U1 и U2, то они с достаточно большой точностью будут характе ризовать дисперсию рассматриваемых образов. Построим диа грамму рассеивания контролируемых образов промывочных жидкостей в нашей задаче. Для этого по данным табл. 55 вычис ляем значения U1 и U2 по известным величинам X1, X2,..., X согласно формулам U1 = 0, 497X1 +0,420X2 - 0,438X3 - 0, 551X4 - 0, 284X5 ;

U2 = 0, 263X1 +0,231X2 - 0,055X3 - 0,110X4 +0,929X5.

Результаты расчетов приведены в табл. 56.

Таблица № Z1 Z2 Z1 Z п/ п Тип 1 Тип 1 1,29 0,494 –0,83 –0, 2 1,33 0,465 –1,19 –0, 3 1,53 0,470 –0,84 –0, 4 0,99 0,141 –1,62 –0, 5 0,83 0,393 –1,02 –0, 6 1,34 0,085 –1,44 –0, 7 1,48 0,035 –1,33 –0, 8 0,63 0,050 –0,70 –0, 9 1,08 0,183 –1,32 –0, 10 1,54 0,197 –1,09 –0, Тип 2 Тип 1 –0,38 0,023 –1,56 –0, 2 –0,57 –0,040 –1,25 –0, 3 –1,02 –0,145 –1,75 –0, 4 –1,07 –0,130 –1,35 –0, 5 –0,77 –0,250 –1,13 –0, 6 –1,22 –0,205 –1,66 –0, 7 –1,40 –0,142 –0,68 –0, 8 –1,20 –0,177 –1,08 –0, 9 –0,65 –0,304 –1,52 –0, 10 –0,78 –0,069 –1,35 –0, Диаграмма рассеивания образцов промывочных жидкостей (рис. 20), построенная по данным табл. 56, со всей очевидностью показывает, что промывочная жидкость типа 1 объективно отли чается от жидкостей других типов. Буровой раствор, в котором был использован антиоксидант СНГР (тип 4), существенно от личен от растворов типов 1–3. Различие между типами 2 и незначительно.

Таким образом, на основании расчетов по методу главных компонент можно утверждать, что различимы три образа промы вочных жидкостей, используемых при проводке рассматриваемых скважин: буровые растворы типа 1, совместная обработка раство рами типов 2, 3 и промывочные жидкости типа 4.

Результаты обучения на указанной группе типов химических обработок могут служить основой для научно обоснованного вы вода о необходимом ассортименте материалов при бурении на указанной площади в рассмотренном интервале глубин и забой ных температур, т.е. налицо факт адаптации в работе инженера по промывочным жидкостям.

Весьма близким к рассмотренным выше методам распознава ния образов является подход, использующий функцию расстоя ния между объектами, которая характеризует сферу влияния объекта. Здесь уместно провести аналогию с потенциальным по Рис. 20. Диаграмма рассеивания образов промывочных жидкостей разных ти- пов лем точки (гравитационным, электрическим, магнитным и др.), которое убывает по определенному закону по мере удаления от точки. Такой подход получил название метода потенциальных функций, и его успешно используют во многих прикладных за дачах.

Функции, используемые в данном методе, должны представ лять собой колоколообразные кривые (рис. 21), снижающиеся (убывающие) по мере удаления от соответствующей объекту точки в пространстве образов. К ним, например, относят функ ции вида = exp(-p);

= (1 + p2)-1 и другие, где – посто янная, а p2 – квадрат расстояния от рассматриваемого объекта, r которое можно определить в виде p = (X - X1 )2 или r p = (X - X2 )2. Исходя из удобства вычислений, в дальнейшем будем рассматривать функции k r A(X) = exp[-(X - X1 )2];

(189) r = k r B(X) = exp[-(X - X2 )2].

r = Рис. 21. Графическая интерпретация метода потенциальных функций при рас- познавании образов для одномерного случая Обобщение для многомерных объектов будет несложным, ес ли для вектора X(X1, X2,..., Xn) расстояние определить по формуле p2 = - Xr )2, (X j j где i = 1, 2, …, n – число компонент вектора состояния;

r = 1, 2, …, k – число объектов.

В этом случае потенциальную функцию в любой точке можно записать в виде kn i(X) = exp[- (X - Xi2)2], (190) j j r =1 j= где j = 1, 2, …, m – число классов объекта;

r = 1, 2, …, k – число объектов данного класса;

i = 1, 2, …, n – число компонент вектора состояния X(X1, X2, …, Xn).

Таким образом, если вычислить для конкретного объекта по тенциальные функции для каждого из классов j = 1, 2, …, m, то его следует отнести к тому из классов, для которого потенциаль ная функция будет наибольшей (объект наиболее близок к обра зу этого класса). Указанную процедуру распознавания используют при обучении с «учителем», т.е. по обучающим выборкам. При их отсутствии указанной процедуре должен предшествовать этап классификации объектов по категориям.

Обратим внимание на тот факт, что при создании потенци альной функции для каждой конкретной процедуры распознава ния в подборе значения постоянной заложены элементы поис ка и творчества. В зависимости от находится разрешающая способность потенциальной функции. Так, при возрастании происходит быстрое затухание потенциальной функции по мере удаления от объектов данного класса, что приводит к созданию сильно изрезанного пиками «рельефа» над «вершиной» данного образа. Уменьшение приводит к сглаживанию пиков, но одно временно и к нивелированию «высот» образов разного класса, что сильно затрудняет распознавание и приводит к большому числу неопределенных и ошибочных решений.

Проиллюстрируем этот подход. При разбуриваниии интерва лов, сложенных чередующимися глинами и карбонатами, воз никла необходимость решить вопрос о вводе глины в буровой раствор при бурении в карбонатных породах для повышения его структурно-механических характеристик и о прекращении ее ввода при переходе в глины, что обусловлено загустеванием рас твора вследствие повышения ее содержания. Было отмечено, что показатели свойств выходящего из скважины раствора при буре нии в глинистых и карбонатных породах имеют различия, труд ноулавливаемые по результатам отдельных наблюдений.

В табл. 57 приведены 14 значений – результатов измерений компонент вектора состояния растворов: плотности X1, г/ см3, условной вязкости X2, с (по прибору СПВ-5), водоотдачи X3, см3, за 30 мин, толщины корки X4, мм, на фильтре (по прибору для измерения толщины корки ВНИИБТ), статического напряжения сдвига X5 и X6, МПа, через 1 мин и 10 мин соответственно.

Рассмотрим возможность создания процедуры распознавания образа бурового раствора при бурении в глинистых и карбонат ных породах методом потенциальных функций, что позволило бы по результатам измерений указанных показателей свойств промывочной жидкости на выходе из скважины принимать ре шение о необходимости ввода глины в раствор.

В данном случае возникает проблема распознавания образов для двух классов (i = 2) и шести компонент вектора состояния Таблица Бурение в глинах Бурение в карбонатах № п/ п X1 X2 X3 X4 X5 X6 X1 X2 X3 X4 X5 X 1 1,19 28 10 2,0 40 72 1,19 26 12 1,8 38 2 1,18 30 12 2,5 45 76 1,21 25 11 1,9 39 3 1,19 26 11 2,0 39 62 1,19 28 14 1,6 35 4 1,20 28 10 2,4 46 82 1,19 25 10 1,8 40 5 1,19 27 9 1,8 43 75 1,21 27 12 2,0 34 6 1,18 30 8 2,3 35 60 1,22 29 14 1,7 30 7 1,19 31 10 2,2 37 62 1,20 28 13 1,5 38 8 1,20 30 12 1,9 40 68 1,18 27 11 1,9 35 9 1,18 28 8 2,2 43 70 1,21 25 12 2,1 32 10 1,19 29 9 2,1 37 63 1,18 24 13 1,8 34 11 1,16 30 10 2,0 38 66 1,22 24 14 2,0 38 12 1,17 31 12 2,5 38 62 1,19 30 10 1,6 36 13 1,19 30 11 2,4 39 67 1,20 29 9 1,9 31 14 1,18 31 9 2,0 43 70 1,21 28 11 1,7 39 (j = 6) по результатам наблюдений над 14 объектами (r = 14) в каждом классе. Потенциальные функции имеют вид 14 r 1(X) = exp[- (X - X1 j )2];

j r =1 j= 14 r 2(X) = exp[- (X - X2 j )2].

j r =1 j= Затем, задаваясь значением постоянной, которое можно оп ределить методом проб и ошибок, можно приступать к распозна ванию, предварительно убедившись в эффективности на обу чающей выборке.

Если положить = 0,1, то для раствора с вектором состояния X(1,19;

27;

9;

1,8;

43;

75), относящимся к 1-му классу в обучаю щей выборке, получаем {-0,1[(1,19)2 + (27 - 28)2 + (9 - 10)2 + (1, 8 - 2,0)2 + 1 = exp } {-0,1[(1,19 - 1,18)2 + + (43 - 40)2 + (75 - 72)2] + exp } + (27 - 30)2 + (9 - 12)2 + (2, 5 - 2,0)2 + (43 - 45)2 + (75 - 76)2] +... + {-0,1[(1,19 - 1,18)2 + (27 - 31)2 + (9 - 9)2 + (1, 8 - 2,0)2 + + exp } + (43 - 43)2 + (75 - 70)2] = 1, 32;

{-0,1[(1,19 - 1,19)2 + (27 - 26)2 + (9 - 12)2 + (1, 8 - 1, 9)2 + 2 = exp } {-0,1[(1,19 - 1, 21)2 + + (43 - 38)2 + (75 - 82)2] + exp } + (27 - 25)2 + (9 - 11)2 + (1, 8 - 1, 9)2 + (43 - 39)2 + (75 - 67)2] +... + {-0,1[(1,19 - 1, 21)2 + (27 - 28)2 + (9 - 11)2 + (1, 8 - 1,7)2 + + exp } + (43 - 39)2 + (75 - 68)2] = 0,01.

Таким образом, 1 > 2.

Следовательно, объект должен быть отнесен к 1-му классу.

Аналогично можно проверить все объекты из 1-го и 2-го классов обучающей выборки.

В результате контрольного распознавания на обучающей вы борке была получена 100%-ная классификация при = 0,1. В случаях, когда = 0,01 и = 0,5, были соответственно получены четыре и шесть ошибочных результатов. Затем построенные по тенциальные функции были опробованы на контрольной группе растворов с векторами состояния, приведенными в табл. 58.

Для указанной группы, состоящей из пяти растворов в каж дом классе, ошибочный результат при распознавании был полу чен лишь для раствора с вектором состояния X(1,17;

27;

8;

2,2;

36;

68), для которого 1 = 0,40 и 2 = 0,50, что соответствует 2-му классу, хотя раствор относится к 1-му.

Все рассмотренные выше методы распознавания образов можно использовать в том случае, если признаки вектора со стояния являются количественными. Это обстоятельство весьма ограничивает их применимость на практике, так как ситуации при бурении скважин характеризуются очень большим числом различных качественных факторов – геологическое строение;

номенклатура химических реагентов, глиноматериалов, тампо нажных цементов и т.п.;

типы долот;

способы бурения и многие другие.

Для подобного рода задач широко применяют методы ве роятностного распознавания, основная идея которых базируется на принятии решений о принадлежности объектов к тому или иному классу согласно соответствующей вероятности. При этом используют различного рода разрушающие функции, учитываю щие потери при неправильной идентификации объектов.

Основу вероятностного подхода при распознавании образов составляет байесовская теория принятия статистических реше ний, которая использует известную формулу Байеса для вычис ления вероятности сложного события:

P(X/ i)P(i) P(i / X) =, (191) m P(X/ i)P(i) i= где P(i/X) – вероятность состояния i при значении факторов на уровнях X(X1, X2, …, Xn);

P(X/i) – условная плотность рас пределения факторов X для состояния i или правдоподобия i при данном X;

P(i) – вероятность состояния i.

Таблица Бурение в глинах Бурение в карбонатах № п/ п X1 X2 X3 X4 X5 X6 X1 X2 X3 X4 X5 X 1 1,19 28 11 1,9 40 69 1,21 28 13 2,0 40 2 1,20 29 12 2,1 38 75 1,20 30 12 1,8 35 3 1,18 31 10 2,3 39 72 1,19 27 10 1,9 39 4 1,17 27 8 2,2 36 68 1,20 26 11 1,8 34 5 1,19 31 9 2,0 40 75 1,22 28 10 1,6 38 Отметим, что знаменатель в формуле (191) играет роль нор мирующего множителя и не зависит от индекса i, т.е. от состоя ния объекта.

Предположим, объект может пребывать в двух состояниях и 2 (наличие осыпей или их отсутствие при бурении в данном интервале глубин), и эти состояния оцениваются в зависимости от одного характеризующего объект фактора X (в нашем случае это может быть глубина). Из предшествующего опыта, т.е. апри орно, известно, что состояние 1 встречается в 3 раза реже, чем состояние 2, т.е. P(1) = 0,25 и P(1) = 0,75. Тогда при извест ной условной плотности распределения величины X для состоя ний 1 и 2 (рис. 22) можно вычислить значения вероятности наступления событий 1 и 2 при заданном значении фактора X.

Отметим, что в данном контексте графики на рис. 22 отражают тот факт, что при малых глубинах осыпи чрезвычайно редки, а на больших глубинах их вероятность гораздо выше, хотя наиболь шая вероятность их возникновения приходится на глубину X0.

Байесовское правило принятия решений в такой упрощенной ситуации утверждает, что при P(1/X) > P(2/X) необходимо принимать решение о состоянии 1, а при P(2/X) > P(1/X) – о состоянии 2. Случай равенства вычисленных значений веро ятностей P(1/X) и P(2/X) дает неопределенный ответ. Если обобщить такую постановку на случай большого числа факторов, т.е. объект характеризуется вектором признаков X(X1, X2, …, Xn), и ввести понятие функции потерь (j/i) или ij – потери, ко торые будут понесены при выборе состояния j в состоянии по роды i, то решающее правило основывается на минимизации условного риска R(j/X) – ожидаемые потери при выборе со стояния j для наблюдаемого вектора признаков X(X1, X2, …, Xn).

Рис. 22. Условная плот ность распределения зна чений X для состояний (1) и 2 (2) Значение условного риска определяют по формуле k R(j / X) = (j / i)P(i / X). (192) i= Тогда для случая двух состояний объекта R(1 / X) = 11P(1 / X) + 12P(2 / X);

R(2 / X) = 21P(1 / X) + 22P(2 / X).

Правило выбора сводится к сравнению условных рисков, и выбор 1 соответствует условию R(1 / X) < R(2 / X) или (21 - 11)P(1 / X) > (12 - 22)P(2 / X), а для вполне логичного предложения 21 > p(X / 1)P(1) 12 - > p(X / 2)P(2) 21 - или P(1 / X) 12 - >. (193) P(2 / X) 21 - Таким образом, полученное соотношение определяет решение 1. При нарушении этого неравенства необходимо принять реше ние 2. В общем случае вычисление условного риска для каждо го из возможных состояний позволяет принять решение о воз можном состоянии по минимальному значению условного риска, т.е.

= k для R(k/X) = min[R(k/X)].

В предложении о равенстве потерь при неверной классифика ции, т.е. ij = С при i j, и отсутствии потерь для правильной классификации, т.е. ij = 0, имеем разрешающее правило, мини мизирующее уровень ошибок при классификации – принять ре шение i при p(X/ i)P(i) gi(X) => p(X/ )P( ) j j для всех j i.

В качестве разделяющего правила можно использовать также функции gi(X) = P(i / X);

(194) gi(X) = p(X/ i)P(i);

(195) gi(X) = log p(X/ i) + log P(i). (196) Прежде чем приступить к изложению общего подхода к по строению диагностической процедуры в целях распознавания си туаций, рассмотрим случай нормальной плотности распределения p(X / i) = exp[- (X - Xi )C-1(X - X )], (197) 1/ 2 i (2)k /2 C где C – определитель ковариационной матрицы, (X - Xi) – транспонированный вектор X - Xi;

C и C–1 – ковариационная и обратная ей матрицы размером kk;

Xi – вектор средних значе ний для признаков, имеющих k компонент.

В этом случае при выполнении условия Ci = C и применении разделяющей функции gi(X) = log p(X/ i) + log P(i) (198) имеем - Uij (X) = [X - (Xi + X )] S (Xi - X ), (199) j j где Xi, X – средние значения вектора состояния для i-й и j j-категории (i j);

S – ковариационная матрица для компонент вектора состояния.

При известных априорных вероятностях для категории qi гра ницы области i устанавливают из соотношений Uij (X) > ln(q / qi), j где j = 1, 2, …, m и j i.

Согласно соотношению, определяющему дискриминантную функцию, следует, что Uij (X) = -U (X). Последнее соотношение ji соответствует условию, что правая граница для категории i явля ется левой границей категории j в многомерном пространстве вектора состояния X(X1, X2, …, Xn).

Рассмотрим алгоритм расчета дискриминантных функций для случая трех классов, характеризующихся вектором состояния X(X1, X2, …, Xn), в которых было проведено соответственно N1, N и N3 наблюдений над объектами.

Средние значения векторов состояния N1 N1 N 1 1 q q q X11 = X11;

X12 = X12;

…;

X13 = X1n;

N1 N1 N q=1 q=1 q= N2 N2 N 1 1 q q q X21 = X21;

X22 = X22;

…;

X23 = X2n;

N2 N2 N q=1 q=1 q= N3 N3 N 1 1 q q q X31 = X31;

X32 = X32;

…;

X33 = X3n, N3 N3 N q=1 q=1 q= где первая цифра индекса X соответствует классу, вторая – ком поненте вектора состояния;

q – номер наблюдения в классе.

Ковариационная матрица S = (Sij), где i и j – индексы компо нент вектора состояния (i, j = 1, 2, …, n) вычисляют по приве денной выше формуле.

После определения ковариационной матрицы S находят ко эффициенты при компонентах вектора состояния Xi1, Xi2, …, Xin:

Cij S11 S12... S1n -1 Xi1 - X j C ij j S21 S22... S2n Xi2 - X k =, Cij =.

...............

n Cij Sn1 Sn2... Snn Xin - X jn где i, j = 1, 2, …, m – число классов;

k = 1, 2, …, n – число компо нент вектора состояний. В нашем случае при m = C12 S11 S12... S1n -1 X11 - X C2 S21 S22... S2n X12 - X k k = C12 == -C21;

.

...............

Cn Sn1 Sn2... Snn X1n - X2n C13 S11 S12... S1n -1 X11 - X C2 S21 S22... S2n X12 - X k k = C13 == -C31;

.

...............

Cn Sn1 Sn2... Snn X1n - X3n C23 S11 S12... S1n -1 X21 - X C S21 S22... S2n X22 - X k k = C23 == -C32.

.

...............

Cn Sn1 Sn2... Snn X2n - X3n Далее определяют значения свободных членов в дискрими нантных функциях:

X11 + X21 C X12 + X22 C 1 0 C12 = - = X1n - X1n Cn 12 n = - [C12(X11 + X21) + C12(X12 + X22) +... + C12(X1n + X2n) = -C21;

X11 + X31 C X12 + X32 C 1 0 C13 = - =.......

X1n + X3n Cn 12 n = - [C13(X11 + X31) + C13(X12 + X32) +... + C13(X1n + X3n) = -C31;

X21 + X C X22 + X32 C 1 C23 = = X2n - X3n Cn 12 n = - [C23(X21 + X31) + C23(X22 + X32) +... + C22(X2n + X3n) = -C32;

Теперь можно построить дискриминантные функции:

Uij (X) = X C+C0;

X1 C X2 C 0 0 1 2 n U12(X) =+C12 = C12 + C12X1 + C12X2 +... + C12Xn;

Cn Xn U12(X) = -U21(X);

0 0 2 n U13(X) = C13 + C13X1 + C13X2 +... + C13Xn;

U13(X) = -U31(X);

0 1 2 n U23(X) = C23 + C23X1 + C23X2 +... + C23Xn;

U23(X) = -U32(X).

После построения дискриминантных функций, подставляя в них компоненты вектора состояния X1, X2, …, Xn объекта, легко определить его принадлежность к той или иной категории.

Так, если априорные вероятности для каждой категории рав ны, т.е. ln (qi/qj) = 0, то область определения для классов будет следующей:

первому классу R1 соответствует U12(X) > 0;

U13(X) > 0;

второму классу R2 – U23(X) > 0;

U21(X) > 0;

третьему классу R3 – U31(X) > 0;

U32(X) > 0.

Принимая во внимание, что U12(X) =– U21(X);

U13(X) =– U31(X);

U23(X) =– U32(X), достаточно вычислить три дискриминантные функции из шести, чтобы определить принадлежность объекта к любому из трех классов:

R1, если U12(X) > 0;

U13(X) > 0;

R2, если U12(X) < 0;

U23(X) > 0;

R3, если U13(X) < 0;

U23(X) < 0.

При наличии большего числа классов обобщение достаточно очевидно и приводит к увеличению числа дискриминантных функций и разрешающих условий для классов. В случае m клас сов разрешающие правила имеют вид R1 – U12(X) 0;

U13(X) 0;

… ;

U1m(X) 0;

R2 – U21(X) 0;

U23(X) 0;

… ;

U2m(X) 0;

R3 – U31(X) 0;

U32(X) 0;

… ;

U3m(X) 0;

..................................

Rm – Um1(X) 0;

Um2(X) 0;

… ;

Um m – 1(X) 0.

При креплении скважин в северных районах страны широко используют цементы Вольского, Стерлитамакского и реже – Но вороссийского заводов. По результатам измерений свойства це ментного раствора-камня: растекаемость X1, см, (по конусу Аз НИИ), время начала схватывания, X2, мин, предел прочности на изгиб X3, кПа, для двух суточных образцов и предел прочности на сжатие X4, кПа, для двух суточных образцов – во ВНИИКР нефти были построены дискриминантные функции для цементов Таблица Вольский (1) Стерлитамакский (2) Новороссийский (3) X1 X2 X3 X4 X1 X2 X3 X4 X1 X2 X3 X 19,0 610 23 50 23,0 470 21 60 26,0 450 27 18,5 580 24 57 21,0 500 25 59 25,0 490 30 21,0 600 20 60 23,0 490 27 62 26,0 440 32 20,0 650 27 59 23,0 520 24 64 25,5 410 31 19,0 590 26 62 22,0 510 21 62 25,5 480 28 19,5 540 25 54 21,5 480 22 60 24,0 450 27 21,5 590 25 56 20,5 480 24 61 25,5 440 30 20,0 620 26 58 23,0 500 25 59 25,0 420 25 20,0 600 24 60 23,0 520 23 59 23,0 410 28 21,0 580 26 62 22,0 490 25 60 24,0 450 30 21,0 580 25 68 21,0 490 25 61 25,0 440 29 19,0 600 26 63 22,5 520 23 60 24,5 440 28 20,0 620 23 59 22,0 560 26 60 25,0 430 27 20,0 610 21 62 22,0 510 25 61 25,5 450 26 21,0 550 27 64 22,5 530 23 60 25,0 440 24 22,0 600 27 56 21,0 490 22 58 24,0 460 26 трех типов, которые позволяют по известным значениям компо нент вектора состояния X(X1, X2, X3, X4) определить принадлеж ность конкретной партии цемента к одному из трех типов.

Рассмотри процесс построения дискриминантных функций и оценим их эффективность при классификации объектов.

В табл. 59 приведены результаты показателей свойств указан- ных цементов при температуре 22 °С (холодные скважины) и водоцементном отношении 0,5.

В соответствии с этим данными получим таблицу средних значений компонент вектора состояния по классам X11;

X12;

..., X34 и их средних квадратических отклонений (табл. 60).

Из табл. 60 следует, что средние значения для компонент раз личаются по классам. Отличаются и значения средних квадрати ческих отклонений, что, вообще говоря, не соответствует требо ваниям к данным для дискриминантного анализа в традицион ной постановке, так как эффективность разрешающих статисти ческих функций при этом не гарантируется. Однако дальнейший Таблица Компонент Класс X1 X2 X3 X 1 X11 = 20,15 X12 = 595 X13 = 24,0 X14 = 59, (X11) = 1,00 (X12) = 28,8 (X13) = 2,27 (X14) = 4, 2 X21 = 22,1 X22 = 503 X23 = 23,8 X24 = 60, (X21) = 0,86 (X22) = 22,8 (X23) = 1,94 (X24) = 1, 3 X31 = 24,9 X32 = 444 X33 = 28,0 X34 = (X31) = 0,89 (X32) = 21,6 (X33) = 2,22 (X34) = 3, анализ приводит к хорошим результатам, что обусловлено, оче видно, незначительным различием выборочных дисперсий для компонент вектора состояния по классам. В настоящее время разработаны методы, которые позволяют более обоснованно пре одолевать указанное препятствие, возникающее чаще всего из-за ограниченности выборки и отличий генеральной совокупности от нормальной.

На основании данных табл. 59 и 60 имеем ковариационную матрицу 38,13 102,5 15,61 9, 102,50 271,60 57,09 -471,.

S = 15,61 57,09 208,50 90, 9,955 -471,50 90,57 475, Обратная ковариационная матрица 1,2312 -0,0047 -0,0846 -0, -0,0047 -0,0017 -0,0010 0, -.

S = -0,0846 -0,0010 0,2421 -0, -0,0143 0,0020 -0,0453 0, Значения разностей и полусумм средних значений компонент векторов состояний для разных классов даны в табл. 61.

Имея данные табл. 61 и матрицу S–1, находим коэффициенты k k k C12, C13 и C23:

11 11 C12 = -2, 84 = -C21;

C13 = -6,17 = -C31;

C23 = -3, 33 = -C32;

21 2 2 2 C12 = 0,163 = -C22;

C13 = -0, 269 = -C31;

C23 = 0,106 = -C32;

33 3 3 3 C12 = 0, 333 = -C21;

C13 = -0, 203 = -C31;

C23 = -0, 536 = -C32;

44 4 4 4 C12 = 0,054 = -C21;

C13 = -0, 287 = -C31;

C23 = -0, 341 = -C32.

Свободные члены в дискриминантных функциях 00 00 C12 = -40, 9 = -C21;

C13 = 23, 8 = -C31;

C23 = 64,7 = -C32.

Таким образом, дискриминантные функции, определяющие принадлежность к любому из классов, имеют вид U12(X) = -2,84X1 + 0,163X2 + 0, 333X3 + 0,054X4 - 40,9;

U13(X) = -6,17X1 + 0, 269X2 - 0, 203X3 - 0, 287X4 + 23, 8;

U23(X) = -3,66X1 + 0,106X2 - 0,536X3 - 0, 341X4 + 64,7.

Таблица Разность Значение Разность Значение Разность Значение X11 - X21 –1, X11 - X31 –4, X21 - X31 –2, X12 - X22 X12 - X32 X22 - X 92,0 151 X13 - X23 X13 - X33 –4, X23 - X33 –4, 0, X14 - X24 –1, X14 - X34 –7, X24 - X34 –6, 1 1 (X11 + X21) 21,12 (X11 + X31) 22,52 (X21 + X31) 23, 2 2 1 1 (X12 + X22) 549 (X12 + X32) 519,5 (X22 + X32) 473, 2 2 1 1 (X13 + X23) 23,9 (X13 + X33) 26,0 (X23 + X33) 25, 2 2 1 1 (X14 + X24) 59,9 (X14 + X34) 63,2 (X24 + X34) 63, 2 2 Для контроля правильности вычислений необходимо прове рить условия 1 1 1 2 2 2 3 3 C12 + C23 = C13;

C12 + C23 = C13;

C12 + C23 = C13;

4 4 4 0 0 C12 + C23 = C13;

C12 + C23 = C13.

Легко убедиться, что все эти условия выполнены, и можно приступить к распознаванию объектов.

Процедуру распознавания всегда необходимо начинать с вы борки, на которой проводилось обучение (в данном случае – по строение дискриминантных функций), а затем оценивать разре шающие функции на новых (контрольных) объектах.

Для обучающей выборки в приведенном примере построенные дискриминантные функции дают 100%-ное распознавание. Так, для векторов X1(19;

610;

23;

50), X2(20,5;

480;

24;

61) и X3(26,0;

450;

27;

63) имеем соответственно условия 1) U12 = 14,9;

U13 = 57,7;

U23 = 34,7;

2) U12 = –9,6;

U13 = 4,1;

U23 = 11,7;

3) U12 = –29,1;

U13 = –39,1;

U23 = –12,1.

Следовательно, для вектора состояния первого объекта U12 > 0 и U13 > 0, т.е. цемент относится к классу 1;

для вектора состояния второго объекта U12 < 0 и U23 > 0, Таблица Номер Вольский (1) Стерлитамакский (2) Новороссийский (3) образца X1 X2 X3 X4 X1 X2 X3 X4 X1 X2 X3 X 1 21,0 550 23 51 22,5 510 25 59 23,5 480 27 2 22,5 580 24 58 23,0 390 24 62 24,0 410 30 3 21,0 610 27 56 23,5 470 28 58 22,5 420 29 4 20,0 530 26 59 22,0 500 26 60 23,0 450 31 5 20,5 570 28 52 24,0 460 27 64 24,5 390 28 6 21,5 560 22 61 21,5 450 25 61 20,5 435 26 7 19,5 520 24 55 20,5 470 28 58 23,5 490 25 8 20,0 500 26 58 22,0 535 26 56 22,0 520 31 9 22,0 510 27 54 20,5 495 27 63 23,0 460 30 10 18,5 580 25 57 23,0 520 26 60 25,0 430 29 т.е. цемент относится ко второму классу 1;

для вектора состоя ния второго объекта U13 < 0 и U23 < 0, т.е. цемент относится к классу 3.

Для оценки эффективности построенных разрешающих стати стических функций (дискриминантных) была взята контрольная группа цементов по 10 проб каждого типа, данные для компо нент векторов состояния X1, X2, X3, X4 которых указаны в табл. 62.

После распознавания получены результаты, приведенные в табл. 63.

Таким образом, контрольное распознавание показывает доста точно высокую эффективность использования метода дискрими нантных функций для указанных целей.

В заключение отметим, что данный метод требует довольно сложных вычислений на этапе построения стаистически разре шающих функций, но после их определения распознавание но вых объектов проводится расчетом по простым линейным соот ношениям. К недостаткам метода дискриминантных функций следует отнести, кроме того, необходимость представительной выборки, по которой можно было бы определить параметры нормального распределения для каждой из компонент вектора состояния по категориям.

Наиболее универсальной и удобной для задач в бурении явля- Таблица Действительность Решение (класс) Вольский (1) 1 1 1 1 1 1 1 2 2 Стерлитамакский 2 3 2 2 3 2 2 2 2 (2) Новороссийский 3 3 3 3 3 3 3 2 3 (3) ется байесовская процедура принятия решений, основывающаяся для большого числа классов (состояний) на разделяющей функ ции вида gi(X) = p(X / i)P(i), (200) для которой решение принимается по достижении этой функци ей для какого-либо состояния определенного порога. Отметим, что для двух классов (состояний) удобнее оказывается разде ляющая функция p(X / i)P(1) g12(X) =, (201) p(X / 2)P(2) или p(X / i) P(1) g12(X) = lg + lg, (202) p(X / 2) P(2) что обусловлено удобством вычислений и представления резуль татов.

При вычислении условных плотностей распределения при знаков X для состояния i имеется сложность, обусловленная возможными связями (зависимостью) компонент вектора при знаков. Для независимых факторов можно использовать мульти пликативное представление n p(X / i) = p(X / i), (203) i= и в этом случае вычисление условных плотностей вероятности распределения последних упрощается. Для их определения необ ходимо на основании прецедентов (обучающая выборка) найти число случаев обнаружения состояния i при закрепленном зна чении фактора, т.е.

p(X / i) = njk / ni = Pji, (204) jk k где njk – число объектов в состоянии i при значении j-го факто ра на k-м уровне;

ni – общее число объектов в состоянии i.

Задача построения классификатора при этом сводится к опре делению матрицы условных плотностей распределения значений компонент вектора признаков X для каждого из возможностей состояний (классов) объекта (табл. 64).

Последний столбец в табл. 64 представляет собой априорные вероятности состояний i которые вычисляют по формуле Таблица Фактор Состояние X1 X X11 X12 … X1k X21 X22 … X2p 1 1 1 1 1 … P1k P21 P … P2p P11 P 2 2 2 2 2 … P1k P21 P … P2p P11 P 3 3 3 3 3 … P1k P21 P … P2p P11 P.............................................................

m m m m m … P1m P21 P … P2m P11 P p k Продолжение табл. Фактор Состояние X3 … Xn Pi X31 X32 … X3r … Xn1 Xn2 … Xnl 1 1 1 1 1 1 P31 P32 … P3r … Pn1 Pn2 … Pnl P 2 2 2 2 2 2 P31 P32 … P3r … Pn1 Pn2 … Pnl P 3 3 3 3 3 3 P31 P32 … P3r … Pn1 Pn2 … Pnl P.................................................................

..

m m m m m m P31 P32 … P3m … Pn1 Pn2 … Pnl Pm r P(i) = ni / N = Pi, где N – общее число объектов в обучающей выборке.

Процедура распознавания сводится к определению значения разделяющей функции при заданном векторе признаков X(X1, X2, …, Xn) по формуле n gi(X) = p(X / i)P(i), (205) i= в которую подставляют значения условных плотностей распреде ления для каждого признака при известном уровне (градации) последнего для соответствующего состояния i. Сравнивания значения разделяющей функции для каждого из состояний i, принимают решение о принадлежности к определенному классу (состоянию) t при условии gi(X) = max{gi(X)} или, согласно условию для нормированной разделяющей функции, n Gt (X) = gt (X) / gi(X) 0,5, i= т.е. вероятность принадлежности объекта к классу t выше, чем суммарная вероятность принадлежности его ко всем остальным, вместе взятым.

В случае двух возможных состояний и независимости компо нент вектора признаков разделяющую функцию можно предста вить в виде p(X / 1) P(1) gi(X) = 10 lg + 10 lg = p(X / 2 ) P(2) p p1knl P(1) p 2 p = 10 lg + 10 lg +... + 10 lg + 10 lg = 22 p1k p2 p pnl P(2 ) = DK(X1k) + DK(X2 p) +... + DK(Xnl ) + DK0, (206) где DK(X ) = 10 lg(p1 / p2 ) – диагностический коэффициент jk jk jk P(1) для j-го фактора на k-м уровне (градации);

DK0 = 10 lg – P(2 ) диагностический коэффициент, обусловленный различной апри орной вероятностью состояний 1 и 2.

Решения принимают на основании условий n i = 1, если DK(X ) A;

jk j= n i = 2, если DK(X ) B;

jk i= n i – неопределено, если B < DK(X ) < A.

jk j= В приведенных соотношениях A и B – пороги распознавания, определение которых связано с учетом ошибок первого и второго рода при классификации:

1 - 1 - A = 10 log ;

B = 10 log, (207) где ош и ош – ошибки первого и второго рода, под которыми понимают допустимые вероятности отнесения объекта, принад лежащего к первому или второму классу, соответственно ко вто рому или первому классу.

В табл. 65 приведены пороговые суммы A (в числителе) и B (в знаменателе), при разных значениях ош и ош.

Таблица Значения A и B при ош, равном ош 0,20 0,10 0,05 0,02 0,01 0,005 0,002 0, +6 +6, 5 +7 +7 +7 +7 +7 + 0, -6 -9, 5 -12 -16 -19 -22 -26 - -9 +9, 5 +10 +10 +10 +10 +10 + 0, -6, 5 -9, 5 -12, 5 -16, 5 -19, 5 -22, 5 -26, 5 -29, +12 +12, 5 +13 +13 +13 +13 +13 + 0, -7 -10 -13 -17 -20 -23 -27 - +16 +16, 5 +17 +17 +17 +17 +17 + 0, -7 -10 -13 -17 -20 -23 -27 - +19 +19, 5 +20 +20 +20 +20 +20 + 0, -7 -10 -13 -17 -20 -23 -27 - +22 +22, 5 +23 +23 +23 +23 +23 + 0, -7 -10 -13 -17 -20 -23 -27 - +26 +26, 5 +27 +27 +27 +27 +27 + 0, -7 -10, 0 -13 -17 -20 -23 -27 - +29 +29, 5 +30 +30 +30 +30 +30 + 0, -7 -10 -13 -17 -20 -23 -27 - Графическая интерпретация приведенного выше правила при нятия решений для упрощенного случая, когда состояние объек та зависит от одного определяющего фактора и равных априор ных вероятностей для двух классов, представлена на рис. 23.

Для каждого из факторов вектора признаков X при наличии двух классов (состояний) можно установить меру информатив ности, которая характеризует вклад любой компоненты при рас познавании. Информативность любой k-й градации для j-го фак тора определяют по формуле J(X ) = 0, 5DK(X )[p(X / 1) - p(X / 2)], (208) jk jk jk jk а фактора Xj в целом – согласно выражению l J(X ) = J(X ), (209) jjk k= где l – число градаций j-го фактора.

Условные плотности распределения вычисляют аналогично случаю с большим числом классов. При этом для количествен ных факторов можно использовать различные процедуры сгла живания (при рассмотрении конкретных примеров они будут Рис. 23. Графическая интерпретация правила применения решений для двух классов:

1, 2 – условные плотности распределения соответственно p(X/1) и p(X/2);

I, II – области применения решений 1 и 2 соответственно;

III – область неопре- деленных ответов проиллюстрированы), которые применяют для разрешения про блемы нулей, состоящей в том, что в некоторых клетках матрицы эмпирических условных плотностей распределения X может не оказаться данных. Однако такое решение указанной проблемы оказывается некорректным для качественных факторов. Более обоснованной, по мнению авторов, является точка зрения, со гласно которой в каждую незаполненную ячейку следует зано сить 1/ ni, что соответствует вероятности случайного разделения конечной выборки размером ni.

В окончательном виде результат построения диагностической процедуры при наличии двух состояний сводят в диагностиче скую таблицу, примеры представления которых будут проиллю стрированы ниже при решении содержательных задач.

Все приведенные выше рассуждения являются справедли выми при условии независимости факторов, входящих в вектор признаков X. Последнее предположение необходимо проверить, используя коэффициент ранговой корреляции Спирмена N 6 i i= p = 1 -, (210) N(N - 1) где i – разность рангов двух сравнительных факторов для i-го объекта;

N – число объектов в обучающей выборке.

При этом коэффициент p оказывается значимым, если выпол няется условие t 0, p > = 1- (t - 3), (211) N N - 1 - где p – допустимое значение коэффициента ранговой корреля ции при уровне значимости ;

t – табличное значение критерия Стьюдента при уровне значимости и числе степеней свободы N – 1.

Использование коэффициента ранговой корреляции обуслов лено в данном случае тем, что вектор признаков X содержит и количественные, и качественные факторы. Если последние отсут ствуют, то можно использовать коэффициент корреляции.

Наличие сильно связанных факторов, по общепринятому мнению, приводит к ухудшению процедуры распознавания, что однако не доказано теоретически. Окончательное решение можно вывести лишь при экспериментальной проверке классификаторов на контрольных примерах. Использование вектора признаков X с сильно связанной структурой компонент, безусловно, отрицает возможность мультипликативного представления условных плот ностей распределения для факторов, но эту трудность можно обойти, если использовать главные компоненты для всех количе ственных факторов, которые представляют собой независимые линейные комбинации U = DX, (212) где D – матрица коэффициентов линейного преобразования вектора признаков X в вектор главных компонент U.

Использование в качестве вектора признаков главных компо нент позволяет применять весь приведенный выше аппарат. При этом следует отметить, что обратный переход от значений глав ных компонент к самим факторам весьма прост.

Так, если имеется матрица коэффициентов d11 d12 d13 d1n...

d21 d22 d23 d2n...

D = d31 d32 d33... d3n,.....

dn1 dn2 dn3... dnn то U1 = d11X1 + d12X2 +... + d1nXn;

U2 = d21X1 + d22X2 +... + d2nXn;

............

Un = dn1X1 + dn2X2 +... + dnnXn, а для обратного перехода X1 = d11U1 + d21U2 +... + dn1Un;

X2 = d12U1 + d22U2 +... + dn2Un;

...............

Xn = d1nU1 + d2nU2 +... + dnnUn.

Для построения диагностической процедуры при наличии сильно связанной матрицы коэффициентов корреляции необхо димо на начальном этапе перейти к главным компонентам для количественных признаков и строить процедуру на U и качест венных признаках. При наличии построенных диагностических таблиц, прежде чем приступить к распознаванию, нужно в соот ветствии с матрицей коэффициентов определить значения глав ных компонент, а затем осуществлять распознавание ситуаций.

Следует отметить, что реализация такого подхода желательна на ЭВМ.

Таким образом, основные этапы построения диагностических таблиц следующие:

1. Отбор информативных факторов, являющихся компонента ми вектора признаков X, который реализуется на основании ана лиза мнения специалистов, лабораторной и промысловой ин формации.

2. Сбор промысловой информации об объектах, имеющих то или иное из рассматриваемых состояний, распознавание которых является целью построения диагностических таблиц. Представи тельность выборок по каждому из состояний изучаемого объекта должна обеспечивать устойчивость рассчитываемых впоследст вии условных плотностей распределения компонент вектора при знаков X по каждому из состояний.

3. Дискретизация фактора на градации, которую для количе ственных факторов можно осуществлять по формуле min k = enteir (1 + 3, 32 lg ni ), (213) (где enteir Z – целая часть Z;

nimin – число данных в выборке с состоянием i, имеющей наименьший объем), а также с учетом возможностей измерительной техники или из соображений удоб ства;

при этом их число должно быть равно 7–8. Для качествен ных факторов этот процесс является естественным (породы – глина, песчаник, алевролит и т.д.;

реагенты – УЩР, КССБ, КМЦ и др.).

4. Разбиение данных на две группы – обучающую и кон трольную. Отметим, что вопросы выделения обучающей выборки широко обсуждаются в специальной литературе, и единого мне ния пока нет.

5. Построение матриц условных плотностей распределения факторов вектора признаков X согласно изложенным выше принципам и определение значений априорных вероятностей состоянии i. Это, по сути, итог всей работы по созданию диаг ностической таблицы.

6. Проверка построенной диагностической таблицы. Для этого выбирают пороги распознавания, определяющие его надежность в дальнейшем. Так, для случая двух классов выбор порогов сво дится к заданию ошибок первого и второго рода. Затем осущест вляют распознавание объектов из контрольной выборки и опре деляют эффективность классификатора по доле (в %) правильно и ошибочно классифицированных и неопределенных объектов.

При этом для ограниченных по размеру выборок возможен принцип поштучного контроля, состоящий в последовательном исключении каждого объекта из выборки при построении диаг ностической таблицы и его дальнейшем распознавании. Такой подход реализуем при малых выборках;

при больших в нем нет необходимости, так как имеется возможность выделения кон трольной группы.

В заключение отметим, что в условиях оперативного приме нения и при больших затратах на получение информации диаг ностическую процедуру можно использовать с последовательным подключением факторов в соответствии с их информативностью, и по достижении выбранного порога распознавания ее можно завершить при известных значениях части факторов, входящих в вектор признаков.

После цементирования промежуточных колонн в скважинах Березанского месторождения отмечалось большое число газопро явлений в затрубном пространстве. Обычно перед цементирова нием скважины и во время него проводили регистрацию сле дующих параметров глинистого и тампонажного растворов, со стояния ствола скважины, процесса подготовки и цементирова ния (компонент вектора состояния):

X1 – статическое напряжение сдвига через 1 мин для глини стого раствора СНС1, Па;

X2 – статическое напряжение сдвига через 10 мин для глини стого раствора СНС10, Па;

X3 – плотность глинистого раствора, г/ см3;

X4 – число центраторов, устанавливаемых на колонне в ин тервале необсаженной части ствола;

X5 – разность плотностей цементного и глинистого раствора, г/ см3;

X6 – промежуток времени от начала подъема бурильной ко лонны до конца спуска обсадной колонны, ч;

X7 – давление на цементировочной головке в конце продавли вания тампонажного раствора, кПа;

X8 – время цементирования, ч;

X9 – время промывки скважины перед цементированием, ч;

X10 – средняя кривизна скважины на 100 м, градусы;

X11 – высота подъема цемента, %, по отношению к глубине скважины;

X12 – средняя скорость восходящего потока в затрубном про странстве, м/ с;

X13 – время начала схватывания цементного раствора, ч;

X14 – время конца схватывания цементного раствора, ч;

X15 – выход цементируемой колонны из-под башмака преды дущей, м;

X16 – глубина скважины, м.

Указанные параметры регистрировали на 17 скважинах с га зопроявлениями после цементирования и на 45 скважинах без газопроявлений. На основании полученной информации необхо димо было составить диагностическую таблицу, позволяющую прогнозировать возможный результат цементирования в отноше нии газопроявлений.

Рассмотрим процедуру построения диагностической таблицы на примере первой компоненты X1. В ходе решения задачи были определены диагностические коэффициенты для всех 16 компо нент вектора состояния и оценена их информативность, что по зволило создать диагностическую таблицу для распознавания возможного образа скважины после цементирования. Данные для компоненты X1 в обеих совокупностях обследованных скважин приведены в табл. 66.

Разбиваем компоненту X1 на восемь интервалов (градаций), принимая во внимание, что X1max = 75 и X1min = 2:

1 X1 = 2...11;

X1 = 39...47;

2 X1 = 12...20;

X1 = 48...56;

3 X1 = 21...29;

X1 = 57...65;

4 X1 = 30...38;

X1 = 66...75.

Таблица Скважины с газопро Скважины без газопроявлений явлениями № № № № № № № X11 X11 X21 X21 X21 X21 X скв. скв. скв. скв. скв. скв. скв.

2 35 21 30 3 9 29 5 47 10 60 10 85 6 24 24 16 4 23 31 25 49 10 61 6 96 7 27 32 30 5 47 33 70 50 6 62 3 99 10 75 37 27 8 21 34 50 51 9 63 12 42 48 5 9 25 35 32 53 18 64 14 42 52 18 16 43 36 24 54 2 66 15 28 71 70 18 50 38 10 55 8 67 11 36 20 34 41 30 57 8 69 17 40 23 15 42 24 58 6 74 19 70 26 25 44 12 59 6 78 28 15 45 Дальнейший порядок расчетов и их результаты представлены в табл. 67. Расчеты начинаются с определения частоты каждой градации первой компоненты в категории 1 (с газопроявления ми) и категории 2 (без газопроявлений).

Зная частоты для каждой из градаций компоненты X1, опре деляем частости в каждой из градаций по категориям:

1 P(X11) = 1/17 = 0,059;

P(X21) = 20 / 45 = 0, 444;

2 P(X11) = 2 /17 = 0,118;

P(X21) = 8/45 = 0,177;

.......................

8 P(X11) = 3 /17 = 0,177;

P(X21) = 1/ 45 = 0,022.

Таблица Сглаженная Диапазон Частота Частость r частость DK(X1 )J(X1 ) r № Интер 1 2 1 2 1 п/ п вал –1 – 0 0 0 0 0,006 0,044 – – 0 – 0 0 0 0 0,024 0,100 – – 1 2… 11 1 20 0,059 0,444 0,070 0,233 –5,22 0, 2 12… 20 2 8 0,118 0,177 0,129 0,206 –2,03 0, 3 21… 29 4 9 0,236 0,200 0,188 0,177 0,27 0, 4 30… 38 4 3 0,236 0,066 0,188 0,097 2,88 0, 5 39… 47 3 2 0,177 0,044 0,141 0,070 3,72 0, 6 48… 56 0 2 0,000 0,044 0,076 0,035 3,38 0, 7 57… 65 0 0 0,000 0,000 0,052 0,017 4,85 0, 8 66… 75 3 1 0,177 0,022 0,070 0,013 7,22 0, 9 – 0 0 0,000 0,000 0,035 0,004 – – 10 – 0 0 0,000 0,000 0,018 0,002 – – 17 45 1,000 1,000 1,000 1,000 J(X1) = = 1, Для определения сглаженных частостей условно расширяем число диапазонов вправо и влево на 2 от границ изменения ком поненты, что вызвано процедурой сглаживания. Сглаженные час тости находим следующим образом:

1 -1 1 0 P(X11) = [P(X11 ) + 2P(X11) + 4P(X11) + 2P(X11) + P(X11)] = = (0 + 2 0 + 4 0,059 + 2 0,118 + 0,236) = 0,070;

1 -1 1 0 P(X21) = [P(X21 ) + 2P(X21) + 4P(X21) + 2P(X21) + P(X11)] = = (0 + 2 0 + 4 0,444 + 2 0,177 + 0,200) = 0, 233;

20 2 1 P(X11) = [P(X11) + 2P(X11) + 4P(X11) + 2P(X11) + P(X11)] = = (0 + 2 0,059 + 4 0,118 + 2 0,236) = 0,206;

...........................................

86 8 7 P(X11) = [P(X11) + 2P(X11) + 4P(X11) + 2P(X11) + P(X11 )] = = (0,000 + 2 0,000 + 4 0,177 + 2 0,000 + 0,000) = 0,070;

86 7 8 P(X21) = [P(X21) + 2P(X21) + 4P(X21) + 2P(X21) + P(X21 )] = = (0,044 + 2 0,000 + 4 0,022 + 2 0,000 + 0,000) = 0,013.

При вычислении сглаженных частостей для контроля опреде ляем условные частости и во введенных дополнительных интер валах:

-1 -3 -1 -2 P(X11 ) = [P(X11 ) + 2P(X11 ) + 4P(X11 ) + 2P(X11) + P(X11)] = = (0 + 2 0 + 4 0 + 2 0 + 0,059) = 0,006;

-1 -3 -1 -2 P(X21 ) = [P(X21 ) + 2P(X21 ) + 4P(X21 ) + 2P(X21) + P(X21)] = = (0 + 2 0 + 4 0 + 2 0 + 0, 444) = 0,044;

................................

10 8 9 10 11 P(X11 ) = [P(X11) + 2P(X11) + 4P(X11 ) + 2P(X11 ) + P(X11 )] = = (0,177 + 2 0 + 4 0 + 2 0 + 0) = 0,018;

10 8 9 10 11 P(X21 ) = [P(X21) + 2P(X21) + 4P(X21 ) + 2P(X21) + P(X21)] = = (0,022 + 2 0 + 4 0 + 2 0 + 0) = 0,002.

При наличии сглаженных частостей по интервалам легко ус тановить диагностические коэффициенты по градациям:

P (X11) 0, DK(X1 ) = 10 lg = 10 lg = -5, 22;

P (X21) 0, P (X11) 0, DK(X1 ) = 10 lg = 10 lg = -2,03;

P (X21) 0,..............................

P (X11) 0, DK(X1 ) = 10 lg = 10 lg = 7, 22.

P (X21) 0, Информативность диагностических коэффициентов по интер валам 11 1 J(X1 ) = DK(X1 )[P(X11) - P(X21)] = = (-5, 22)(0,070 - 0,233) = 0, 42;

22 2 J(X1 ) = DK(X1 )[P(X11) - P(X21)] = = (-2,03)(0,129 - 0,206) = 0,08;

88 8 J(X1 ) = DK(X1 )[P(X11) - P(X21)] = = 7, 22(0,070 - 0,013) = 0,20.

При этом информативность компоненты в целом k J(X1 ) = J(X1 ) = 0, 42 + 0,08 +... + 0,20 = 1,13.

k= Аналогичным образом были рассчитаны диагностические коэффициенты и информативность по каждой из компонент, и результаты сведены в диагностическую таблицу (табл. 68) в соответствии с их информативностью по компонентам (на помним, что компоненты вектора состояния перечислены на с. 186–187).

После построения диагностической таблицы необходимо при нять значения ошибок первого и второго рода. Учитывая неже лательность ошибок первого рода (скважину с газопроявлениями отнести к категории без газопроявлений), принимаем ош = 0, (две ошибки на 100 скважин), а ош = 0,05, так как в этом случае требования могут быть снижены.

Тогда для порогов A и B соответственно 1 - 1 - 0, 10 lg = 10 lg 13;

0, 0, 10 lg = 10 lg -17.

1 - 1 - 0, Таким образом, основное соотношение диагностической про цедуры имеет вид n -17 < DK(Xij ) < 13, i= где i = 1, 2, …, n – номер компонент по возрастанию информа тивности.

Рассмотрим процедуру классификации на примере скв. 10, для которой имеем следующий вектор состояния: X(75;

105;

1,29;

5;

0,60;

72;

180;

0,75;

4,0;

4,5;

41;

2,0;

2,57;

3,33;

1665;

2671).

В соответствии с этим градации для компонент и диагности ческие коэффициенты (см. табл. 68):

Таблица Компонента век- Сглаженная частость Интервал DK(Xj) J(Xj) тора состояния 1 X4 0… 2 0,1941 0,0466 6,13 0, 3… 4 0,2176 0,0777 4,42 0, 5… 6 0,2411 0,1466 2,14 0, 7… 8 0,1294 0,1622 –0,97 0, 9… 10 0,0647 0,1955 –4,76 0, 11… 12 0,0294 0,1422 –6,78 0, 13… 14 0,0117 0,1022 –9,30 0, 15… 16 0,0058 0,0688 –10,58 0, X5, г/ см3 0,07… 0,15 0,0588 0,1488 –3,99 0, 0,16… 0,23 0,0823 0,2200 –4,23 0, 0,24… 0,31 0,0411 0,1466 –5,46 0, 0,32… 0,39 0,0352 0,0844 –3,75 0, 0,40… 0,47 0,0764 0,0555 1,37 0, 0,48… 0,55 0,1705 0,0844 3,02 0, 0,56… 0,63 0,2352 0,0977 3,78 0, 0,64… 0,68 0,1705 0,0555 4,82 0, X8, ч 0,45… 0,62 0,1647 0,0377 6,38 0, 0,63… 0,79 0,2294 0,0866 4,19 0, 0,80… 0.96 0,1764 0,1177 1,74 0, 0,97… 1,13 0,1235 0,1933 –1,93 0, 1,14… 1,30 0,1000 0,2088 –3,17 0, 1,31… 1,47 0,0529 0,1622 –4,81 0, 1,48… 1,64 0,0411 0,0888 –3,31 0, 1,65… 1,77 0,0117 0,0555 –6,67 0, X1, мгс/ см2 2… 11 0,0705 0,2333 –5,22 0, 12… 20 0,1294 0,2066 –2,03 0, 21… 29 0,1882 0,1777 0,27 0, 30… 38 0,1882 0,0977 2,88 0, 39… 47 0,1411 0,0600 3,72 0, 48… 56 0,0764 0,0355 3,38 0, 57… 65 0,0529 0,0177 4,85 0, 66… 75 0,0705 0,0133 7,22 0, X2, мгс/ см2 8… 37 0,1058 0,2577 –3,83 0, 38… 66 0,2117 0,2266 –0,29 0, 67… 95 0,2294 0,1888 0,84 0, 96… 124 0,2235 0,0866 4,07 0, 125… 153 0,1058 0,0400 4,18 0, 154… 182 0,0588 0,0111 7,17 0, 183… 211 0,0117 0,0066 2,44 0, 212… 238 0,0058 0,0088 –1,77 0, X11, % 27… 36 0,1470 0,0644 3,55 0, 37… 45 0,1529 0,0644 3,72 0, 46… 54 0,1000 0,0866 0,62 0, 55… 63 0,0470 0,1066 –3,52 0, 64… 72 0,0529 0,1044 –2,92 0, 73… 81 0,0764 0,1177 –1,86 0, 82… 90 0,1352 0,1311 0,14 0, 91… 100 0,1176 0,1666 –1,50 0, X7, кПа 70… 86 0,1294 0,0711 2,57 0, 87… 102 0,1705 0,1555 0,40 0, 103… 118 0,1117 0,1777 –1,99 0, 119… 134 0,1235 0,2288 –2,65 0, 135… 150 0,0941 0,1511 –2,04 0, 151… 166 0,1352 0,0888 1,81 0, 167… 182 0,0941 0,0444 3,23 0, 183… 201 0,0470 0,0288 2,10 0, Продолжение табл. Компонента век- Сглаженная частость Интервал DK(Xj) J(Xj) тора состояния 1 X6, ч 3,57… 46,8 0,2176 0,1155 2,72 0, 46,8… 56,1 0,2294 0,1644 1,43 0, 56,1… 65,4 0,1470 0,2000 –1,32 0, 65,4… 74,7 0,0882 0,1622 –2,62 0, 74,7… 84,0 0,0588 0,1311 –3,45 0, 84,0… 93,3 0,0529 0,0688 –1,13 0, 93,3… 102,6 0,0411 0,0444 –0,33 0, 102,6… 112,0 0,0176 0,0333 –2,73 0, X15, м 1015… 1223 0,0647 0,0533 0,83 0, 1224… 1431 0,1117 0,0844 1,21 0, 1432… 1639 0,1588 0,1488 0,28 0, 1640… 1847 0,2588 0,1733 1,72 0, 1848… 2055 0,1705 0,1711 –0,01 0, 2056… 2263 0,1352 0,1711 –1,01 0, 2264… 2471 0,0411 0,0933 –3,52 0, 2472… 2682 0,0176 0,0600 –5,26 0, X9, ч 1,00… 3,38 0,1941 0,2311 –0,75 0, 3,39… 5,76 0,1647 0,2266 –1,37 0, 5,77… 8,14 0,1352 0,1777 –1,17 0, 8,15… 10,52 0,1294 0,0911 1,51 0, 10,53… 12,90 0,0823 0,0511 2,05 0, 12,91… 15,28 0,0823 0,0288 4,50 0, 15,29… 17,66 0,0470 0,0222 3,23 0, 17,67… 20,00 0,0235 0,0155 1,78 0, X10, градусы 0,75… 2,03 0,1470 0,2266 –1,86 0, 2,04..3,31 0,2411 0,2333 0,14 0, 3,32… 4,59 0,2058 0,1622 1,02 0, 4,60… 5,87 0,1588 0,0977 2,09 0, 5,88… 7,15 0,0764 0,0644 0,73 0, 7,16… 8,43 0,0352 0,0377 –0,29 0, 8,44… 9,71 0,0176 0,0222 –0,99 0, 9,72… 11,01 0,0235 0,0066 5,42 0, X12, м/ с 0,50… 0,78 0,0529 0,0444 0,75 0, 0,79… 1,06 0,0588 0,1000 –2,28 0, 1,07… 1,34 0,1117 0,1577 –1,48 0, 1,35… 1,62 0,1882 0,2111 –0,49 0, 1,63… 1,90 0,2176 0,2155 0,04 0, 1,91… 2,18 0,1823 0,1466 0,94 0, 2,19… 2,46 0,0882 0,0711 0,93 0, 2,47… 2,75 0,0470 0,0266 2,44 0, X14, ч 1,92… 2,06 0,1529 0,2155 –1,48 0, 2,07… 3,20 0,2764 0,2622 0,23 0, 3,21… 4,34 0,2529 0,1888 1,26 0, 4,35… 5,38 0,1470 0,1022 1,56 0, 5,49… 6,62 0,0588 0,0466 0,99 0, 6,63… 7,76 0,0294 0,0244 0,80 0, 7,77… 8,89 0,0117 0,0133 –0,54 0, 8,90… 10,01 0,0058 0,0111 –2,73 0, X3, г/ см3 1,23… 1,29 0,3411 0,3866 –0,28 0, 1,30… 1,35 0,2294 0,2133 0,15 0, 1,36… 1,41 0,1235 0,1066 0,81 0, 1,42… 1,48 0,0411 0,0066 8,91 0, X13, ч 0,67… 1,46 0,1705 0,2177 –1,05 0, 1,47… 2,25 0,3058 0,2777 0,41 0, 2,26… 3,04 0,2411 0,1977 0,85 0, Продолжение табл. Компонента век- Сглаженная частость Интервал DK(Xj) J(Xj) тора состояния 1 3,05… 3,82 0,1176 0,0955 0,89 0, 3,83… 4,61 0,0352 0,0333 0,25 0, 4,62… 5,40 0,0117 0,0133 –0,54 0, 5,41… 6,19 0,0235 0,0155 1,78 0, 6,20… 7,01 0,0117 0,0133 –0,54 0, X16, м 2135… 2312 0,0411 0,0422 –0,11 0, 2313… 2489 0,1176 0,1355 –0,61 0, 2490… 2666 0,2176 0,2733 –0,98 0, 2667… 2843 0,3176 0,2977 0,28 0, 2844… 3020 0,1647 0,1622 0,07 0, 3021… 3197 0,0823 0,0733 0,50 0, 3198… 3376 0,0235 0,0111 3,23 0, J(X4) = 2,32;

J(X5) = 1,53;

J(X8) = 1,48;

J(X1) = 1,13;

J(X2) = 0,91;

J(X11) = = 0,57;

J(X7) = 0,48;

J(X6) = 0,47;

J(X15) = 0,32;

J(X9) = 0,31;

J(X10) = 0,21;

J(X12) = 0,14;

J(X14) = 0,14;

J(X3) = 0,08;

J(X13) = 0,07;

J(X16) = 0,06.

88 75 X1 DK(X1 ) = 7, 22;

4,0 X9 DK(X9 ) = -1, 37;

42 105 X2 DK(X2 ) = 4,07;

4, 5 X10 DK(X10) = 1,02;

11 1, 29 X3 DK(X3) = -0, 28;

41 X11 DK(X11) = 3,72;

33 5 X4 DK(X4 ) = 2,14;

2,0 X12 DK(X12) = 0, 94;

77 0,60 X5 DK(X5 ) = 3,78;

2, 57 X13 DK(X13) = 0, 85;

44 72 X6 DK(X6 ) = -2,62;

3, 33 X14 DK(X14) = 1, 26;

77 180 X7 DK(X7 ) = 3, 23;

1665 X15 DK(X15) = 1,72;

22 0,75 X8 DK(X8 ) = 4,19;

2671 X16 DK(X16) = 0, 28.

Зная диагностические коэффициенты для каждой из компо нент вектора состояния, приступаем к последовательной проце дуре диагностирования в соответствии с информативностью:

DK(X4 ) = 2,14 < 13;

DK(X4 ) + DK(X5 ) = 2,14 + 3,78 = 5, 92 < 13;

DK(X4 ) + DK(X5 ) + DK(X8 ) = 2,14 + 3,78 + 4,13 = 10,05 < 13;

DK(X4 ) + DK(X5 ) + DK(X8 ) + DK(X1 ) = = 2,14 + 3,78 + 4,13 + 7, 22 = 17, 27 > 13.

Таким образом, уже на четвертом шаге процедуры приходим к выводу, что скв. 10 относится к категории газопроявляющих.

Интересно, что если вычислить сумму всех диагностических ко эффициентов (29,54), то на четвертом шаге получим результат (17,27), почти вдвое меньший этой суммы.

1 Для скв. 55 с вектором состояния X (X1 = 8;

X2 = 21;

1 6 7 5 4 X3 = 1, 26;

X4 = 12;

X5 = 0,62;

X6 = 80;

X7 = 130;

X8 = 1, 25;

6 1 8 5 3 X9 = 15;

X10 = 2;

X11 = 100;

X12 = 1, 8;

X13 = 2, 33;

X14 = 3;

4 X15 = 1700;

X16 = 2660) процедура диагностирования принима ет такой вид:

DK(X4 ) = -6,78 > -17;

DK(X4 ) + DK(X5 ) = -6,78 + 3,78 = 3,00 > -17;

DK(X4 ) + DK(X5 ) + DK(X8 ) = -6,78 + 3,78 - 3,17 = -6,17 > -17;

DK(X4 ) + DK(X5 ) + DK(X8 ) + DK(X1 ) = = -6,78 + 3,78 - 3,17 - 5, 22 = -11, 39 > -17;

67 DK(X4 ) + DK(X5 ) +... + DK(X2) = = -6,78 + 3,78 - 3,17 - 5, 22 - 3, 83 = -15, 22 > -17;

67 DK(X4 ) + DK(X5 ) +... + DK(X2) + DK(X11) = = -6,78 + 3,78 - 3,17 - 5, 22 - 3, 82 - 1, 5 = -16,72 > -17;

67 18 DK(X4 ) + DK(X5 ) +... + DK(X2) + DK(X11) + DK(X1 ) = = -6,78 + 3,78 - 3,17 - 3, 83 - 1, 5 - 2,65 = -19, 37 > -17.

Только на седьмом шаге диагностирования приходим к выво ду, что скв. 55 относится к категории объектов без газопроявле ний. Дальнейшее суммирование дает результат –24,23, т.е.

крайне незначительно уточняет ситуацию.

Из анализа результатов диагностирования всех скважин, ис пользованных на этапе обучения (табл. 69), следует, что постро енная диагностическая таблица достаточно эффективна.

Распознавание ситуаций, приводящих к потере устойчивости стенок скважины, было осуществлено для объединений «Касп морнефть», «Туркменнефть», «Дагнефть» и др. На основании результатов бурения скважин за период 1974–1976 гг. для всех объединений были определены две группы объектов – скважины Таблица Категория Число сква- Ответ, % скважины жин правильный ошибочный неопределенный С газопрояв- 17 82,5 – 17, лениями Без газопро- 45 82,3 6,6 11, явлений с осложнениями, в которых наблюдались осыпи, обвалы, суже ния ствола скважины, и без осложнений. Так, для площади Ба хар объединения «Каспморнефть» с 17 данными по первой и с 30 по второй группе скважин была составлена диагностическая таблица (табл. 70), эффективность которой была оценена мето дом поштучного контроля. Результаты свидетельствуют о высо кой эффективности созданной диагностической процедуры. Уро вень ошибок первого и второго рода при контроле был принят равным ош = ош = 0,2.

В качестве примера применения процедуры рассмотрим скв. 36, в которой для интервалов глубин 3000…3200 м (X1) на блюдались осыпи. При этом разрез был представлен глинами и песчаниками (X2), пластовое давление было равным 400 кПа (X3), перепад давления на пласт – 68 кПа (X4), плотность буро вого раствора – 1,52 г/ см3 (X5), условная вязкость бурового рас твора – 100 с (X6), его статическое напряжение сдвига СНС1 и СНС10 – соответственно 78 мгс/ см2 (X7) и 162 мгс/ см2 (X8), во доотдача за 30 мин, 3 см3 (X9). В растворе отсутствовал СМАД (X10), длина УБТ составляла 104 м (X11), зазор между стенкой скважины и УБТ равнялся 25 мм (X12), средний угол искривления Таблица Перечень, Перечень, интер Фактор DK(Xj) Фактор интервал, DK(Xj) вал, значение значение X16(J = 2,36) УЩР + нитро- –3,9 3 3, лигнин 4 8, ПФЛХ + окзил 1,9 5 5, УЩР + окзил 1,9 X13 градусы 0… 1,8 1, УЩР + ПФЛХ 3,3 (J = 0,6) 1,81… 3,6 1, Нитролигнин 8,3 3,61… 5,4 0, X17(J = 1,68) УЩР –2,5 5,41… 7,2 0, КССБ + УЩР –2,5 7,21… 9,0 – КССБ + КМЦ + 3,3 9,01… 10,8 – + УЩР 10,81… 12,6 –2, УЩР + КМЦ 4,3 12,61… 14,1 –4, КССБ 7,1 14,41… 16,2 –7, X4, кгс/см2 20… 58,5 0,9 16,21… 18,0 –10, (J = 1,03) 56,6… 97 –1,3 X19, (J = 0,58) Есть 2, 97,1… 135,5 –2,3 Нет –2, 135,6… 174 –5,2 X6, с (J = 0,58) 40… 46 –3, 174,1… 212,5 –2,5 47… 52 –1, 212,6… 251 –0,3 53… 58 –1, 251,1… 289,6 3,4 59… 64 0, 289,6… 328 3,7 65… 70 –0, 328,1… 366,5 4,9 71… 76 1, 366,6… 405 6 77… 82 3, X10, кгс/см2 0 –1,4 83… 88 9, (J = 0,76) 1 –2 89… 94 5, 2 –1,4 95… 100 –1, Продолжение табл. Перечень, Перечень, интер Фактор DK(Xj) Фактор интервал, DK(Xj) вал, значение значение X12, мм (J = 18… 23,8 –2,1 X7, мгс/ см2 6… 13 –1, = 0,51) 23,9… 29,6 –2,3 (J = 0,23) 14… 20 2, 29,7… 35,4 –1,0 21… 27 2, 35,5… 41,2 0,7 28...34 1, 41,3… 47,0 6,2 35… 41 –1, X1, м (J = 984… 1434 2,8 42… 48 –1, = 0,32) 1435… 1884 1,9 49… 55 –1, 1885… 2334 –1,6 56… 62 0, 2335… 2784 –2,5 63… 70 0, 2785… 3234 –2,7 71… 78 –0, 3235… 3684 1,1 X15, % (J = 1 –0, 3685… 4134 1,6 = 0,08) 2 –0, X18, % (J = 0… 0,08 1,7 3 –0, = 0,48) 0,09… 0,16 1,7 4 –0, 0,17… 0,24 1,7 5 0,25… 0,32 1,7 6 1, 0,33… 0,40 –0,5 7 0,41… 0,48 –0,5 8 –1, 0,49… 0,56 –6,4 9 –1, 0,57… 0,64 –3,7 10 –0, 0,65… 0,72 –2,9 X2, (J = 0,32) Песчаник 1, 0,73… 0,80 –1,7 Глина –1, X5, г/ см3 (J = 1,4… 1,46 –0,5 Глина + –2, = 0,46) 1,47… 1,52 –1,6 песчаник 1,53… 1,58 –1,5 X9, см3 (J = 0,22) 2… 2,6 –0, 1,59… 1,64 –2,1 2,7… 3,2 –0, 1,65… 1,71 –1,1 3,3… 3,8 0, 1,72… 1,78 –0,4 3,9… 4,4 0, 1,79… 1,85 0,8 4,5… 5,0 2, 1,86… 1,92 1,9 5,1… 5,6 3, 1,93… 1,99 4,1 5,7… 6,2 4, 2,0… 2,07 9,3 6,3… 6,8 0, X3, кгс/ см2 118… 177,5 5,1 6,9… 7,4 –5, (J = 0,38) 177,6… 237 –1,1 7,5… 8,0 –10, 237,1… 296,5 –2,1 X11, м (J = 0,14) 6… 16 0, 296,6… 356 –2,2 17… 26 0, 356,1… 415,5 0 27… 36 0, 415,6… 475 2,0 37… 46 1, 475,1… 534,5 1,6 47… 56 –0, 534,6… 594 0 57… 66 –0, 594,1… 653,5 –2,3 67… 76 –3, 653,6… 713,0 –1,4 77… 86 –3, 4235… 4584 1,3 87… 96 –0, 4585… 5034 –1,4 97… 104 –3, 5035… 5484 –1,3 X14, °C (J = 0,12) 24… 32 X8, мгс/ см2 18… 36 –1,6 33… 40 0, (J = 0,28) 37… 54 –0,3 41… 48 –0, 55… 72 0,4 49… 56 –1, 73… 90 1,0 57… 64 –0, 91… 108 1,1 65… 72 0, 109… 126 1,7 73… 80 1, 127… 144 2,3 81… 88 0, 145… 162 –1,5 89… 96 –1, 163… 181 –4,5 97… 101 –1, 182… 200 –4, Таблица Ответ, % Категория сква- Число сква неопределен жины жин правильный ошибочный ный Осложненная 17 74 13 Неосложненная 30 88 6 57 82 9 ствола составлял 10° (X13), пластовая температура – 60 °С (X14), содержание нефти в буровом растворе было равным 8 % (X15). В качестве понизителя вязкости использовали композицию из УЩР и нитролигнина (X16), понизителем водоотдачи был УЩР (X17), содержание сульфонола в растворе равнялось 0,6 %, а гра фит в растворе отсутствовал (X19).

Согласно табл. 70, в которой факторы расположены в порядке убывания уровня информативности, при указанных значениях компонент вектора признаков имеем DK(X ) =- 2,7 - 2, 5 - j j= -1, 3 -... - 2, 5 = -36, 5, что указывает на потерю устойчивости стенок скважины с высоким уровнем вероятности.

Результаты диагностирования приведены в табл. 71.

В качестве приема, объединяющего принципы вероятностного распознавания и меры близости, используют метод фазового ин тервала, который основывается на понятии фазового простран ства для переменных вектора состояния X(X1, X2, …, Xn), пред ставленных в двоичном коде. Так, если имеем объект А с векто r p m r p m ром состояния XA(X1, X2,..., Xn ), где X1, X2,..., Xn – со ответственно r-я, p-я, …, m-я градация (уровень) для первого, второго, …, n-го факторов, то объект можно представить в виде кодированной записи (табл. 72).

В качестве меры близости объектов А и B при этом можно использовать фазовый интервал 1 1 2 2 r r g(AB) = [(X1A - X1B)2 + (X1A - X1B)2 +... + (X1A - X2B)2 + 1 1 2 2 p p +... + X2A - X2B)2 +(X2A - X2B)2 +... + (X2A - X2B)2 +... + Таблица X1 X2 … Xn 1 2 … r … 1 2 … p … … 1 2 … m … X1 X1 X1 X2 X2 X2 Xn Xn Xn 0 0 000 1 000 0 0 000 1 000 … 0 0 000 1 1 1 2 2 m m + (XnA - XnB)2 + (XnA - XnB)2 +... + (XnA - XnB)2 +...]0,5, m m m m m m m m где XnA - XnB = 1 при XnA XnB;

XnA - XnB = 0 при XnA = XnB.

При наличии i классов, для которых заданы обучающие вы борки, можно определить средний радиус каждого класса по формуле n Ri = p(X0 j / i )[1 - p(X0i / i )], (214) j = где – коэффициент, определяемый законом распределения то чек в фазовом пространстве (при неизвестном законе принимают равным 0,5);

p(X0 j / i ) – условная плотность распределения i-го фактора объекта X0(X1, X2, …, Xn) для i-го класса.

Расстояние для любого нового (идентифицируемого) объекта от центра i-й области n gi (X) = - p(X0 j / i )2]2. (215) [ j= При этом идентификацию осуществляют на основании сле дующих условий: объект относят к i-му классу, если соответст вующее значение разрешающей функции является минимальным и меньшим соответствующего радиуса области. При невыполне нии последнего условия или при равенстве разрешающих функ ций ответ не определен. В этом случае можно увеличивать, т.е.

расширять области, повышая риск неправильной дискриминации.

Обратим внимание на то, что для построения классификатора необходима генерация аналогичной вероятностному распознава нию матрицы условной плотности распределения признаков (см.

табл. 64), но при этом принципы распознавания этих методов различны. Выгодной особенностью метода фазового интервала является отсутствие требования по независимости признаков, так как не используется мультипликативная функция для условной плотности распределения всей совокупности признаков.

В качестве иллюстрации использования метода фазового ин тервала воспользуемся данными по распознаванию газопроявле ний в скв. 10 (с газопроявлением) Березанского месторождения для рассмотренного ранее примера (см. с. 186). Использовав таб лицу сглаженных частостей распределения признаков по града циям (см. табл. 68), получим следующие значения для радиусов областей классов скважин с газопроявлениями (1) и без газопро явлений (2) при = 0,5:

R1 = 0, 5 0,07(1 - 0,07) + 0, 22(1 - 0, 22) +... + 0, 32(1 - 0, 32) = 0,79;

R2 = 0, 5 0,01(1 - 0,01) + 0,09(1 - 0,09) +... + 0, 30(1 - 0, 30) = 0,73;

так как X0(75;

105;

1,29;

5;

0,60;

72;

180;

0,75;

4,0;

4,5;

41;

2,0;

2,57;

3,33;

1665;

2671).

При этом соответствующие значения разрешающих функций следующие:

g1 (X0) = (1 - 0,07)2 + (1 - 0,22)2 +... + (1 - 0,32)2 = 3, 2;

g2(X0) = (1 - 0,01)2 + (1 - 10,09)2 +... + (1 - 0,30)2 = 3, 46.

Поскольку g1(X0) < g2(X0), но при этом g1(X0) > R1, то объ ект может быть с определенным риском отнесен к классу 1, т.е. к категории газопроявляющих. Следовательно, классификатор на основе фазового интервала дает несколько худший результат, чем вероятностное распознавание.

Рассмотренные выше алгоритмы распознавания образцов не исчерпывает всех исходов. Последнее десятилетие этот раздел кибернетики бурно развивается, и ежегодно появляется большое число новых алгоритмов, обладающих теми или иными преиму ществами и имеющими соответствующие области применения.

Распознавание образов с помощью «учителя» позволяет ре шить первую из указанных в начале этой главы задач, т.е. осуще ствить идентификацию объектов. Вторая задача – кластериза- ция – является менее формализованной, так как весьма сложна проблема выбора свойств, которыми должны обладать искомые классы объектов. Наиболее распространенной формой постанов ки задач кластеризации, или автоматической классификации, является группировка объектов по мере сходства, которая не все гда отвечает содержательному смыслу задачи с позиций исследо вателя, т.е. объекты оказываются близкими по выбранной мере в многомерном пространстве, но не группируются по интересую щим исследователя свойствам. В автоматической классификации или распознавании «без учителя» на основе какой-либо близости (евклидово или махаланобисово расстояние, мера Тапимото, фа зовый интервал и др.) различают две подзадачи – осуществить группировку объектов в заданное число М классов или создать кластеры, не задаваясь заранее числом последних.

В простейшем случае алгоритм кластеризации с помощью любой меры близости можно свести к следующим шагам:

выбор (обычно произвольный) центра кластера, в качестве которого может быть принят любой объект из заданной выборки;

установление порогового значения разрешающей функции, которое служит основной характеристикой для объединения объ ектов в классы;

вычисление меры близости между выбранным центром кла стера и любым другим объектом, который объединяется в группу с последним при значении меры близости меньше пороговой ве личины или, в противном случае, назначается в качестве нового центра;

продолжение процедуры до тех пор, пока все объекты не бу дут объединены в какое-то число классов, а при задании числа классов результат достигается за счет варьирования порога раз решающей функции.

Такой подход существенно зависит от выбора первого центра и порогового значения разрешающей функции. Практически приходится варьировать исходный центр и пороговое значение меры близости.

В другом алгоритме (максимального расстояния) схема дейст вий следующая:

выбор произвольного центра первого кластера;

вычисление меры близости от центра кластера до каждого из объектов выборки;

определение наиболее удаленного от центра кластера объекта и назначение в качестве центра нового кластера;

вычисление расстояния всех объектов от каждого из двух центров кластеризации;

выделение минимальных значений мер близости (от первого и второго центров) для каждой пары;

выбор максимального значения мер близости из всех мини мальных;

выделение нового центра кластера при условии превышения максимального значения меры близости некоторой части ее меж ду двумя первыми центрами кластеров;

продолжение процедуры до тех пор, пока максимальное из минимальных значений разрешающих функций не окажется меньше установленного значения, а при заданном числе классов заканчивание разбиения при получении заданного числа ком пактных классов.

Такой подход также зависит от начального центра классифи кации и доли меры близости между наиболее удаленными объек тами, т.е. первыми двумя центрами кластеризации.

Оба указанных алгоритма являются, в сущности, эвристиче скими, но они весьма полезны на первой стадии анализа данных, так как просты в вычислительном плане. Использование обоих подходов для одной и той же выборки обычно дает хороший сравнительный материал. Такого вида алгоритмы особенно удоб ны для диалогового режима общения с ЭВМ, когда окончатель ное решение об объединении объектов принимается исследовате лем с привлечением других аргументов.

Более формализованным является алгоритм K внутригруппо вых средних, последовательность действий которого состоит в следующем:

произвольный выбор K исходных центров кластеризации;

распределение объектов выборки по K центрам кластеризации на основании условия наименьшего значения меры близости от какого-либо центра;

определение для созданных групп новых центров кластеров, которые минимизируют сумму квадратов мер близости для объ ектов класса;

повторение процедуры с новыми центрами классов до тех пор, пока сумма квадратов расстояний не стабилизируется.

Подобный подход реализован в широко известном алгоритме итеративного самоорганизующегося метода анализа данных, (ИСОМАД), в котором дополнительно используется ряд вспомо гательных эвристических процедур.

Один из наиболее распространенных алгоритмов автоматиче ской кластеризации – метод иерархической классификации. Эта процедура направлена на создание дерева классификации, у ко торого начальную вершину представляют все объекты выборки, а конечными являются отдельные объекты, т.е. строится некото рый древовидный граф – дендрограмма. При этом можно ис пользовать любые меры близости, значение которых обусловли вают места ветвлений на графе.

Последовательность действий при реализации алгоритма иерархической классификации такова:

каждый из объектов выборки относят к конечной вершине дендрограммы, для которой значение меры близости будет равно нулю (уровень вершины);

вычисляют значение меры близости для всех пар объектов и назначают новую вершину, для которой мера близости будет наименьшей, и она является уровнем вершины;

находят расстояния между полученной вершиной и остав шимися объектами выборки и по минимальному значению меры близости назначают новую вершину с соответствующим уров- нем;

процедуру продолжают до тех пор, пока все объекты не объе динятся в одну вершину, уровень которой (мера близости) ха рактеризует компактность всей выборки в целом.

Наименее обоснованным является этап вычисления расстоя ния от объекта до вершины, объединяющей несколько объектов в класс, так как результирующая дендрограмма очень зависит от способа вычисления центра кластера. Для этого используют раз личные процедуры (усреднения объектов, взвешенного усредне ния, отбрасывания присоединяемых объектов и др.), обоснован ность которых слабо аргументируется и обычно носит эвристиче ский характер. На этом шаге весьма полезно использование не скольких дублирующих процедур, сходимость которых к одному и тому же дереву классификации служит аргументом в пользу полученного решения.

Для иллюстрации алгоритмов кластеризации рассмотрим пример построения дендрограммы по результатам обработки промысловых наблюдений по диаграммам СКЦ за процессом продавливания тампонажного раствора для 25 скважин объеди нения «Запсиббурнефть» и 30 скважин объединения «Красно дарнефтегаз» (рис. 24).

В качестве признаков вектора состояния использовали отно сительные суммарные подачи насосов цементировочных агрега тов (для 10 интервалов диаграммы). Для этого весь интервал времени разбивали на 10 равных участков и определяли относи тельную подачу насосов (доля максимальной подачи насосов в каждом конкретном случае) для соответствующих участков на оси времени. Таким образом, вектор признаков содержал 10 фак торов, и ставилась задача выделения однородных по этим факто рам групп скважин. Отметим, что при этом имелась информация о качестве результатов цементирования по высоте подъема там понажного раствора и предполагалось проверить соответствие группировок указанному показателю качества.

При построении дендрограммы была использована мера близости – угловое расстояние между векторами состояния X(X1, X2, …, Xn) nn n gi(X) = 1 - X Xij / X2 Xij, (216) j j j =1 j =1 j = где n = 10 – число факторов;

Xj – значение j-го фактора для объекта при вычислении меры близости от i-й вершины дендро граммы;

Xij – среднее значение j-го фактора для объектов, вхо дящих в i-ю вершину.

Рис. 24. Дендрограмма групп скважин объединений «Краснодарнефтегаз» ( 1–36) и «Запсиббурнефть» ( 37–55) для класси фикации по режиму продавливания тампонажного раствора при цементировании ( кружком отмечены скважины с качествен- ными результатами;

номера 1–7 в сечении соответствуют классам) В результате расчетов была построена дендрограмма (см. рис.

24), по левому обрезу которой указана шкала меры близости, позволяющая оценить уровень вершины дендрограммы. Для сравнения показана матрица значений мер близости для сечения, характеризуемого семью классами (табл. 73).

Приведенный на рис. 23 результат показывает, что группи ровка объектов не является однородной по качеству цементиро вания, так как в группах имеются представители с качественным и некачественным исходом по достижении проектной высоты подъема. Естественно, возник вопрос: каковы общие свойства полученных классов? Детальный анализ диаграмм СКЦ показал, что для двух классов (уровень меры близости вершины 0,105) объединяющей является форма графиков q(t). Первая группа объектов (слева на дендрограмме, см. рис. 34) имеет монотонно убывающий характер изменения суммарной подачи насосов во времени, а вторая – равномерную подачу насосов во времени или ее резкое падение в середине процесса. Проведенный анализ показал, что не выявлены связи между характером изменения подачи во времени и качеством цементирования по высоте подъ ема тампонажного раствора.

Приведенные выше алгоритмы автоматической классифика ции дают самую общую характеристику широкого арсенала ме тодов кластеризации и ставят своей целью лишь ознакомить ин женера с указанным подходом. Более детальные сведения по ме тодам распознавания образов «без учителя» имеются в обширной специальной литературе и их изложение потребует привлечения специального математического аппарата (стохастическая аппрок симация, градиентный поиск и др.).

В заключение этой главы приведем основные сведения о мат рицах, что должно облегчить понимание некоторых предыдущих алгоритмов распознавания образов.

Матрица – это совокупность чисел, расположенных в виде прямоугольной таблицы, содержащей m строк и n столбцов:

Таблица Номер 1 2 3 4 5 6 опыта 1 0,0 0,060 0,068 0,080 0,102 0,105 0, 2 0,060 0,0 0,062 0,072 0,101 0,107 0, 3 0,068 0,062 0,0 0,073 0,105 0,103 0, 4 0,080 0,072 0,073 0,0 0,104 0,104 0, 5 0,102 0,101 0,105 0,104 0,0 0,072 0, 6 0,105 0,107 0,103 0,104 0,072 0,0 0, 7 0,108 0,107 0,107 0,105 0,093 0,097 0, a11 a12... a1n a21 a22... a2n A == (aij ), a31 a32... a3n am1 am2... amn где i = 1, 2, …, m;

j = 1, 2, …, n.

Две матрицы считаются равными, если равны их соответст вующие элементы.

Матрицу называют вектор-строкой или вектор-столбцом, если она состоит соответственно только из одной строки или столбца.

Например, a = (a11, a12, …, a1n) – вектор-строка;

b b b = – вектор-столбец.

M bm При равенстве числа строк и столбцов матрица является квадратной. В этом случае число строк определяет ее порядок.

Квадратную матрицу называют диагональной, если у нее от личны от нуля лишь элементы на диагонали, соединяющей левый верхний угол матрицы с правым нижним (главная диагональ):

c11 0 0... c 0 0... C = 0 0 c33... 0.

.....

0 0 0... cnn Особым случаем диагональной матрицы является единичная матрица, у которой элементы на главной диагонали равны еди нице:

100... 010... E = 001... 0.

...

000... Матрица, все элементы которой равны нулю, называется нуле вой и обозначается 0.

С любой квадратной матрицей n-го порядка A связано поня тие определителя и детерминанта n-го порядка, представляющего собой число. Так, определитель второго порядка вычисляют по формуле d11 d D == d11d22 - d21d12, d d а определитель третьего порядка d11 d12 d d D = d22 d23 = d11d22d33 + d12d23d31 + d13d21d32 - d d32 d -d11d32d23 - d13d22d31 - d12d21d33.

Квадратную матрицу A называют вырожденной (или особен ной), если ее определитель равен нулю ( A = 0), и невырожден ной (или неособенной), если A 0.

Транспонированную матрицу можно получить перестановкой строк со столбцами. Так, для матрицы A имеем транспонирован ную матрицу a11 a21... am a12 a22... am A == (aji).

..........

a a2n... amn 1n Например, для матрицы 2, -1,3 4,1 0, A = 3,1 5,2 6,9 - 0, -0,45 1,5 2,1 3, после транспонирования получим 2,5 3,1 -0, -1,3 5,2 1,.

A = 4,1 6,9 2, 0,5 -0,7 3, Для матриц определены три основные операции: сложение матриц, умножение матриц на число и умножение матриц.

Суммой двух прямоугольных матриц A = (aij) и B = (bij), имеющих одинаковое число строк и столбцов, называется матри ца C = (Сij), элементы которой равны суммам соответствующих элементов матриц, т.е.

a11 + b11 a12 + b12... a1n + b1n a21 + b21 a22 + b22... a2n + b2n = A + B = =.........................

a + bm1 am2 + bm2... amn + bmn m c11 c12... c1n c21 c22... c2n.

=..........

cm1 cm2... cmn Произведением матрицы A = (aij) на число является матри ца, элементы которой получены из элементов матрицы A, умно женных на число, т.е.

a11 a12... a1n.

A =.............

a am2... amn m Можно показать, что эти операции обладают следующим свойствами:

A + B = B + A;

A + (B +C ) = (A + B ) + C ;

A + (-1)A = 0;

(+)A = A+A;

(A+B ) = A+B ;

(A) = ()A.

Операция умножения для матриц A и B возможна лишь при условии равенства числа столбцов матрицы A числу строк мат рицы B. При выполнение этого условия элементы матрицы C = = AB вычисляют следующим образом.

Элемент i-й строки j-го столбца матрицы C равен сумме произведений элементов i-й строки матрицы A на соответствующие элементы j-го столбца матрицы B. Таким образом, b11 b12... b1k a11 a12... a1n b21 b22... b2k a21 a22... a2n = A + B = =...........

...........

a am2... amn bp1 bp2... bpk m c11 c12... c1k n c21 c22... a2k = ;

cij = airbrj,.......... r = cm1 cm2... cmk где i = 1, 2, …, m;

j = 1, 2, …, k.

Например, если 1 0 1 2 2 3 1 A = 1 0 1 2 B =, 2 3 2 1 то 1 0 2 3 1 5 2 3 17 14 C=AB =, 1 0 1 2 = 2 3 0 7 5 2 1 где c11 = 2 1 + 3 1 + 1 2 + 5 2 = 17;

c12 = 2 0 + 3 2 + 1 3 + 5 1 = 14;

c13 = 2 5 + 3 3 + 1 0 + 5 0 = 19;

c21 = 11 + 0 1 + 1 2 + 2 2 = 7;

c22 = 1 0 + 0 2 + 1 3 + 2 1 = 5;

c23 = 1 5 + 0 3 + 1 0 + 2 0 = 5.

Если матрица умножается на вектор-столбец, имеем, напри мер, 1 3 1,5 0,5 a 4, 0 4 2 0 = a21 =, 0,5 1 0 1 a31 где a11 = 1 2 + 3 0 + 1,5 1 + 0, 5 2 = 4,5;

a21 = 0 2 + 4 0 + 2 1 + + 0 2 = 2;

a31 = 0,5 2 + 1 0 + 0 1 + 1 2 = 3.

При умножении матрицы-строки на матрицу-столбец (2 5 1 2 0, 5) = a11 = 20, где a11 = 2 1 + 5 2 + 11 + 2 3 + 0,5 2 = 20.

В случае же умножение матрицы-столбца на матрицу-строку получим матрицу. Например, a11 a12 a13 a14 a a a22 a23 a24 a a (2 5 1 2 0, 5) = a32 a33 a34 a35, a a42 a43 a44 a 3 a a52 a53 a54 a где a11 = 1 2 = 2;

a12 = 1 5 = 5;

… ;

a15 = 1 0,5 = 0,5;

a21 = 2 2 = 4;

a22 = 2 5 = 10;

…;

a25 = 2 0,5 = 1;

a31 = 1 2 = 2;

a32 = 1 5 = 5;

… ;

a35 = 1 0,5 = 0,5;

a41 = 3 2 = 6;

a42 = 3 5 = 15;

…;

a45 = 3 0, 5 = 1,5;

a51 = 2 2 = 4;

a52 = 2 5 = 10;

… ;

a55 = 2 0,5 = 1.

Произведение матриц обладает следующими свойствами:

(AB)C = A(BC);

A(B+C) = AB+AC;

(A+B)C = AC+BC.

Перестановочный закон для умножения, вообще говоря, не имеет места, т.е. AB BA.

Любая невырожденная матрица A = (aij) имеет единственную обратную матрицу A-1, т.е. матрицу, обладающую свойством AA-1 = A-1A =E.

Обратную матрицу можно получить следующим образом:

A11 A21... An A12 A22... An A-1=, A..........

A1n A2n... Ann где Aij – алгебраическое дополнение элемента аij матрицы A, т.е.

Aij = (-1)i + j µij, где µij – минор элемента аij определителя A, получающийся из A вычеркиванием i-й строки и j-го столбца, на пересечении которых находится данный элемент аij.

Например, найдем обратную матрицу для 1 A=.

4 С учетом того, что A11 = (-1)1+15 = 5;

A21 = (-1)2+13 = -3;

A12 = (-1)1+24 = -4;

A22 = (-1)2+21 = 1;

A = 1 5 - 3 4 = -7, получим 5 -3 - + A-1 =-.

= 7 4 -4 - + 7 Очевидно, что этот метод ввиду трудоемкости не пригоден для матриц высокого порядка. Вычисление элементов обратной матрицы можно свести к решению системы линейных алгебраи ческих уравнений, если воспользоваться основным свойством обратной матрицы AA-1 = E.

Действительно, если обозначить элементы обратной матрицы A-1 через Xij, получим систему из n2 уравнений (n – порядок матрицы) вида n 1 i = j;

aikXkj = k= 0 i j.

Так как A 0, то система имеет единственное решение.

Решение приведенного выше примера будет выглядеть сле дующим образом AA-1 = E ;

1 3 X11 X21 1 =, 4 X21 X22 0 или 1X11 + 3X21 = 1;

1X + 3X22 = 1;

4X + 5X21 = 0;

4X21 + 5X22 = 0.

Нетрудно убедиться, что получим тот же результат:

a11 = X11 = -5/7;

a12 = X12 = -3/7;

a21 = X21 = -4/7;

a22 = X22 = -1/7.

Нормой вектора X (X1, X2,..., Xn) называется скаляр, про порциональный длине вектора. Следовательно, норму вектора можно представить в виде 2 2 X = X1 + X2 +... + Xn.

Нормирование вектора сводится к умножению компонент вектора на 1/ X.

Например, вектор X (2, 3, 1, 5, 3, 1) после нормирования имеет вид X (2 / 7, 3/7, 1/7, 5/7, 3/7, 1/7), так как X = 4 + 9 + 1 + 25 + 9 + 1 = 49 = 7.

Более подробные сведения по теории матриц можно получить в многочисленных специальных изданиях. Авторы предлагают воспользоваться списком рекомендуемой литературы.




© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.