WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 77 | 78 || 80 | 81 |   ...   | 82 |

• Центральным моментом q-го порядка случайной величины x называется начальный момент q-го порядка для соответствующей центрированной величины x, т.е. E(q) =E [(x - E(x))q]. Для непрерывной случайной величины x центральный момент q-го порядка равен + µq = (t - E(x))qfx(t)dt.

• Дисперсией случайной величины называется центральный момент второго порядка. Для непрерывной случайной величины дисперсия равна + var(x) =x = E(2) =E (x - E(x))2 = (t - E(x))2fx(t)dt.

x • Среднеквадратическим отклонением называется квадратный корень из дис персии x = x. Нормированной (стандартизованной) случайной величиx - E(x) ной называется.

x • Коэффициентом асимметрии называется начальный момент третьего порядка нормированной случайной величины, т.е.

x - E(x) µ3 = E =.

x x • Куртозисом называется начальный момент четвертого порядка нормированной случайной величины, т.е.

x - E(x) µ4 = E =.

x x Коэффициентом эксцесса называется 4 - 3.

A.3 Сведения из теории вероятностей и матем. статистики • Для n-мерного случайного вектора x = (x1,..., xn) (многомерной случайной величины) функцией распределения называется Fx1,..., xn(z1,..., zn) =Pr(x1 z1,..., xn zn).

• Если распределение случайного вектора x непрерывно, то он имеет плотность fx(·) (называемую совместной плотностью случайных величин x1,..., xn), которая связана с функцией распределения соотношениями nFx1,..., xn(z) fx1,..., xn(z) =.

x1 · · · xn Случайные величины x1,..., xn называются независимыми (в совокупности), если Fx1,..., xn(z1,..., zn) =Fx1(z1) · · · Fxn(zn).

• Ковариацией случайных величин x и y называется cov(x, y) =E [(x - E(x)) (y - E(y))].

cov(x, y) • Корреляцией случайных величин x и y называется x,y =.

var(x)var(x) • Ковариационной матрицей n-мерной случайной величины x =(x1,..., xn) называется cov(x1, x1) · · · cov(x1, xn)..

.

...

x = var(x) = =.

..

cov(x1, xn) · · · cov(xn, xn) = E (x - E(x)) (x - E(x)).

• Корреляционной матрицей n-мерной случайной величины x =(x1,..., xn) называется 1 x1,x2 · · · x1,xn x1,x2 1 · · · x2,xn Px =.

...

.

....

.

...

x1,xn x2,xn · · · 706 Приложение A. Вспомогательные сведения из высшей математики Функция распределения и плотность • Функция распределения имеет следующие свойства: это неубывающая, непрерывная справа функция, 0 Fx(z) 1, причем lim Fx(z) = zи lim Fx(z) =1.

z z • Fx(z) = fx(t)dt.

• fx(z) 0.

+ • fx(t)dt =1.

b • Вероятность того, что x [a, b], равна Pr(a x b) = fx(t)dt.

a • Для многомерной случайной величины z1 zn Fx1,..., xn(z1,..., zn) = · · · fx1,..., xn(t1,..., tn)dtn... dt1.

- • Если случайные величины x1,..., xn независимы, то fx1,..., xn(z1,..., zn) =fx1(z1) ·... · fxn(zn).

Математическое ожидание • Если c — константа, то E(c) =c.

• Если x и y — любые две случайные величины, то E(x + y) =E(x) +E(y).

• Если c — константа, то E(cx) =cE(x).

• В общем случае E(xy) = E(x)E(y).

• Если функция f(·) вогнута, то выполнено неравенство Йенсена:

E (f(x)) f (E(x)).

• Для симметричного распределения выполено E(x) =x0,5.

A.3 Сведения из теории вероятностей и матем. статистики Дисперсия • var(x) =E(x2) - E(x)2.

• Для любой случайной величины x выполнено var(x) 0.

• Если c — константа, то выполнено: var(c) = 0; var(c + x) = var(x);

var(cx) =c2var(x).

• Если x и y — любые две случайные величины, то в общем случае:

var(x + y) = var(x) +var(y).

var(x) • Неравенство Чебышёва: Pr (|x - E(x)| >) для любого положительного числа.

Ковариация • cov(x, y) =E (xy) - E(x)E(y).

• cov(x, y) =cov(y, x).

• cov(cx, y) =c · cov(x, y).

• cov(x + y, z) =cov(x, z) +cov(y, z).

• cov(x, x) =var(x).

• Если x и y независимы, то cov(x, y) =0. Обратное, вообще говоря, неверно.

Корреляция x - E(x) y - E(y) • x,y = cov( ), гд е x = и = — соответствуюx, x y щие центрированные нормированные случайные величины. Следовательно, свойства корреляции аналогичны свойствам ковариации.

• x,x =1.

• -1 x,y 1.

• Если x,y =0, то E (xy) =E(x)E(y).

708 Приложение A. Вспомогательные сведения из высшей математики Условные распределения • Условной вероятностью события A относительно события B называется Pr(A|B) =Pr(A B)/ Pr(B).

Из определения следует, что Pr(A B) =Pr(A|B)Pr(B) =Pr(B|A)Pr(A).

• Для независимых событий A и B выполнено Pr(A|B) =Pr(A).

• Теорема Байеса: Пусть A1,..., An, B — события, такие что (1) Ai Aj = при i = j, n (2) B Ai, i=(3) Pr(B) > 0.

Тогда Pr(B|Ai)Pr(Ai) Pr(B|Ai)Pr(Ai) Pr(Ai|B) = =.

n Pr(B) Pr(B|Aj)Pr(Aj) j=• Пусть (x, y) — случайный вектор, имеющий непрерывное распределение, где вектор x имеет размерность m 1, а y — n 1. Плотностью мар гинального распределения x называется fx(x) = fx,y(x, y)dy. ПлотноRn стью условного распределения x относительно y называется fx,y(x, y) fx,y(x, y) fx|y(x|y) = =.

fy(y) fx,y(x, y)dx Rm • Если x и y независимы, то плотность условного распределения совпадает с плотностью маргинального, т.е. fx|y(x|y) =fx(x).

• Условным математическим ожиданием x относительно y называется E (x|y) = xfx|y(x|y)dx.

Rm • Условная дисперсия x относительно y равна var (x|y) =E (x - E (x|y))2 |y.

A.3 Сведения из теории вероятностей и матем. статистики Свойства условного ожидания и дисперсии • E ((y)|y) =(y).

• E ((y)x|y) =(y)E (x|y).

• E (x1 + x2|y) =E (x1|y) +E (x2|y).

• Правило повторного ожидания: E (E (x|y, z) |y) =E (x|y).

• Если x и y независимы, то E (x|y) =E (x).

• var ((y)|y) =0.

• var ((y) +x|y) =var (x|y).

• var ((y)x|y) =2(y)var (x|y).

A.3.2. Распределения, связанные с нормальным Нормальное распределение Нормальное (или гауссовское) распределение с математическим ожиданием µ и дисперсией 2 обозначается N µ, 2 и имеет плотность распределения (z-µ).

(f(z) = e- Нормальное распределение симметрично относительно µ, и для него выполня x ется E(x) =x0,5 = = µ.

Моменты нормального распределения: µ2k+1 =0 и µ2k =(2k - 1)!! · 2k = =1 · 3 ·... · 2k при целых k, в частности, µ4 =34.

Коэффициент асимметрии: 3 =0.

Куртозис 4 =3, коэффициент эксцесса равен нулю.

Стандартным нормальным распределением называется N (0, 1). Его плотность z 1 z2 1 t2 (z) = e- ; функция распределения (z) = e- dt.

2 710 Приложение A. Вспомогательные сведения из высшей математики Распределение хи-квадрат Распределение хи-квадрат с k степенями свободы обозначается 2. Его плотk ность:

(x/2)k/2- f(x) = e-x/2, x 0, 2k/2(k/2) f(x) =0, x < 0, где (·) — гамма-функция.

k Если xi N(0, 1), i =1,..., k и независимы в совокупности, то x2 2.

i k i=Если x 2, то E(x) =k и var(x) =2k.

k 2 Коэффициент асимметрии: 3 = > 0.

k 12 Куртозис: 4 = +3, коэффициент эксцесса 4 - 3 = > 0.

k k При больших k распределение хи-квадрат похоже на N (k, 2k).

Распределение Стьюдента Распределение Стьюдента с k степенями свободы обозначается через tk. Его также называют t-распределением. Его плотность:

- k+((k +1)/2) x2 f(x) = 1+.

k k(k/2) xЕсли x1 N(0, 1), x2 2 и независимы, то tk.

k x2/k x Распределение Стьюдента симметрично относительно нуля и x0,5 = =0.

Математическое ожидание существует при k >1 и E(x) =0.

При k n не существует n-го момента.

k Дисперсия: var(x) = (существует при k >2).

k - Коэффициент асимметрии: 3 =0 (существует при k >3).

k - 2 Куртозис: 4 =3 ; коэффициент эксцесса: 4 - 3 = (существуют k - 4 k - при k >4).

При больших k распределение Стьюдента похоже на N (0, 1).

A.3 Сведения из теории вероятностей и матем. статистики Распределение Фишера Распределение Фишера с k1 и k2 степенями свободы обозначается Fk1,k2.

Его также называют F-распределением или распределением Фишера—Снедекора.

Его плотность:

((k1 + k2)/2) xk1/2-k k f(x) = k11/2k22/2, x 0, (k1/2)(k2/2) (k1x + k2)(k1+k2)/ f(x) =0, x < 0.

x1/kЕсли x1 2, x2 2 и независимы, то Fk1,k2.

k1 kx2/kЕсли x Fk1,k2, то kE(x) =, при k2 > 2, k2 - 2k2(k1 + k2 - 2) var(x) =, при k2 > 4, k1(k2 - 2)2(k2 - 4) 2(2k1 + k2 - 2) 2(k2 - 4) 3 =, при k2 > 6, k2 - 6 k1(k1 + k2 - 2) 12 (k2 - 2)2(k2 - 4) + k1(5k2 - 22)(k1 + k2 - 2) 4 - 3 =, при k2 > 8.

k1(k1 + k2 - 2)(k2 - 6)(k2 - 8) Многомерное нормальное распределение n-мерное нормальное распределение с математическим ожиданием µ (n 1) и ковариационной матрицей (n n) обозначается N (µ, ). Его плотность:

f(z) =(2)-n/2 ||-1/2 e- (z-µ) -1(z-µ).

Свойства многомерного нормального распределения:

• Если x N (µ, ), то Ax + b N (Aµ + b, AA ).

x x • Если x N 0n, 2In, то 2.

2 n • Если x N (0, ), гд е (n n) — невырожденная матрица, то x -1x 2.

n 712 Приложение A. Вспомогательные сведения из высшей математики • Если x N 0, A (A A)-1 A, гд е A (n k) — матрица, имеющая пол ный ранг по столбцам, то x x 2. Если x N 0, I - A (A A)-1 A, k где A (n k) — матрица, имеющая полный ранг по столбцам, то x x 2.

n-k 2 • Если x =(x1,..., xn) N µ, diag(1,..., n), то x1,..., xn независи мы в совокупности и xi N µi, i.

• Если совместное распределение случайных векторов x и y является многомерным нормальным:

x µx xx xy N,, y µy yx yy то маргинальное распределение x имеет вид x N (µx, xx), а условное распределение x относительно y имеет вид x|y N µx +xy-1 (y - µy), xx - xy-1yx.

yy yy Аналогично y N (µy, yy) и y|x N µy +yx-1 (x - µx), yy - yx-1xy.

xx xx A.3.3. Проверка гипотез Пусть x1,..., xn — случайная выборка из распределения F, заданного параметром.

Нулевая гипотеза H0 относительно параметра состоит в том, что он принадлежит некоторому более узкому множеству: 0, гд е 0. Альтернативная гипотеза H1 состоит в том, что параметр принадлежит другому множеству:

1, гд е 1 = \0. Рассматривается некоторая статистика s, которая является функцией от выборки: s = s(x1,..., xn). Процедуру (правило) проверки гипотезы называют статистическим критерием или статистическим тестом. Суть проверки гипотезы H0 против альтернативной гипотезы H1 состоит в том, что задаются две непересекающиеся области, S0 и S1, такие что S0 S1 — вся область значений статистики s. Если s S0, то нулевая гипотеза (H0) принимается, а если s S1, то нулевая гипотеза отвергается.

A.3 Сведения из теории вероятностей и матем. статистики Обычно S0 =(-, s] и S1 =(s, +), гд е s — критическая граница. Такой критерий называется односторонним. При этом критерий состоит в следующем:

если s s, тоH0 отвергается.

S0 и S1 выбираются так, чтобы в случае, когда H0 верна, вероятность того, что s S1, была бы равна некоторой заданной малой вероятности. Как правило, на практике используют вероятность =0.05 (хотя это не имеет подсобой какихлибо теоретических оснований).

Ошибкой первого рода называется ошибка, состоящая в том, что отвергается верная нулевая гипотеза. Вероятность ошибки первого рода равна. Вероятность ошибки первого рода называется уровнем значимости или размером. Вероятность 1 - называют уровнем доверия.

Ошибкой второго рода называется ошибка, состоящая в том, что принимается неверная нулевая гипотеза. Вероятность ошибки второго рода обозначают.

Мощностью критерия называют величину 1 -. Мощность характеризует, насколько хорошо работает критерий. Мощность должна быть как можно большей при данном. Требуется, по крайней мере, чтобы <1 -. Критерий, не удовлетворяющий этому условию, называют смещенным.

Альтернативный способ проверки гипотез использует вероятность ошибки первого рода, если принять s равной s, т.е. вероятность того, что s >s. Этувероятность называют уровнем значимости или P-значением. Обозначим ее pv. Призаданной вероятности критерий состоит в следующем:

если pv >, тоH0 принимается, если pv <, тоH0 отвергается.

Еще один способ проверки гипотез основан на доверительных областях для параметра. Пусть D — доверительная область для параметра, такая что D с некоторой веротностью 1 -, и пусть проверяется гипотеза H0: = 0 против альтернативной гипотезы H1: = 0. Критерий состоит в следующем:

если 0 D, тоH0 принимается, если 0 D, тоH0 отвергается.

/ Отметим, что в этом случае 0 не случайная величина; случайной является доверительная область D.

714 Приложение A. Вспомогательные сведения из высшей математики A.4. Линейные конечно-разностные уравнения Конечно-разностное уравнение p-го порядка имеет вид:

0yt + 1yt-1 + · · · + pyt-p = ut, где ut — известная последовательность, 0, 1,..., p — известные коэффициенты, а последовательность yt следует найти. Это уравнение также можно записать через лаговый многочлен:

(L) yt = 0 + 1L + 2L2 + · · · + pLp yt = ut, где L — лаговый оператор (Lyt = yt-1).

Если даны p последовательных значений последовательности yt, например, y1,..., yp, то другие значения можно найти по рекуррентной формуле. При t >p получаем yt = (ut - (1yt-1 + · · · + pyt-p)).

Конечно-разностное уравнение называется однородным, если ut =0. Общее решение конечно-разностного уравнения имеет вид:

yt = yt + t, где yt — общее решение соответствующего однородного уравнения, а t = -1 (L) ut — частное решение неоднородного уравнения.

A.4.1. Решение однородного конечно-разностного уравнения Если j, j =1,..., p — корни характеристического уравнения () =0 + 1 + 22 + · · · + pp =0, p тогда () =0 (1 - /j).

j=(j) Последовательность yt = -t является решением однородного конечноj разностного уравнения. Действительно, в разложении (L) на множители имеется множитель 1 - L/j и (j) (1 - L/j) yt =(1 - L/j) -t = -t - L-t-1 = -t - -t =0.

j j j j j A.5. Комплексные числа Если все корни j, j =1,..., p различные, то общее решение однородного конечно-разностного уравнения имеет вид:

(1) (p) yt = C1yt +... + Cpyt = C1-t +... + Cp-t.

1 p Если не все корни различны, то для корня j кратности m соответствующее слагаемое имеет вид C1j + C2jt +... + Cmjtm-1 -t.

j Если 1 и 2 — пара комплексно-сопряженных корней, т.е.

1 = R (cos () +i sin ()) = Rei и 2 = R (cos () - i sin ()) = Re-i, (1) (2) то два слагаемых C1yt + C2yt = C1-t + C2-t, где C1, C2 являются 1 комплексно-сопряженными, можно заменить на C1-t + C2-t = C1(Rei)-t + C2(Re-i)-t = 1 = R-t C1e-it + C2eit = R-t (A cos(t) +B sin(t)).

Pages:     | 1 |   ...   | 77 | 78 || 80 | 81 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.