WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 | 2 || 4 | 5 |   ...   | 14 |

n+m=i n+m=i 1 n,m 6 1 n,m Таблицы, определяющие Y :

\X 1 2 3 4 5 X1 2 3 4 5 6 2 3 4 5 6 7 3 4 5 6 7 8 4 5 6 7 8 9 5 6 7 8 9 10 6 7 8 9 10 11 12, Y = X1 + X2 2 3 4 5 6 7 8 9 10 11 1 2 3 4 5 6 5 4 3 2 p /36 /36 /36 /36 /36 /36 /36 /36 /36 /36 /36, т.е. при i = 2...12, pi = P (Y = i) = (6 - |7 - i|)/36.

Закон совместного распределения вероятностей д.с.в. X1 и Y будет pij = P (Y = i, X1 = j) = P (Y = i/X1 = j)P (X1 = j), например, P (Y = 2, X1 = 1) = P (Y = 2/X1 = 1)P (X1 = 1) = = P (X2 = 1)P (X1 = 1) = 1/36.

В общем случае получится 1/36, при 1 i - j 6, pij = P (Y = i, X1 = j) = 0, иначе.

\Y 2 3 4 5 6 7 8 9 10 11 X1 1 1 1 1 1 /36 /36 /36 /36 /36 /36 0 0 0 0 2 0 /36 1/36 1/36 1/36 1/36 1/36 0 0 0 3 0 0 /36 1/36 1/36 1/36 1/36 1/36 0 0 4 0 0 0 /36 1/36 1/36 1/36 1/36 1/36 0 5 0 0 0 0 /36 1/36 1/36 1/36 1/36 1/36 6 0 0 0 0 0 /36 1/36 1/36 1/36 1/36 1/Тогда pij I(Y, X1) = pij log2 = piqj j=1 1 i-j 1 = log2 = 36 6pi j=1 1 i-j 7 8 11 1 1 1 1 = ( log2 + log2 + · · · + log2 + log2 ) = 36 6pi i=3 6pi 6pi i=7 6pi i=2 i=1 6 6 6 6 6 = ((log2 +log2 +· · ·+log2 )+· · ·+(log2 +log2 +· · ·+log2 )) = 36 1 2 6 6 5 1 3 = (2 log2 6 + 4 log2 3 + 6 log2 2 + 8 log2 + 10 log2 + 6 log2 1) = 36 2 = (2 + 2 log2 3 + 4 log2 3 + 6 + 8 log2 3 - 8 + 10 log2 3 + 10 - 10 log2 5)/36 = = (10 + 24 log2 3 - 10 log2 5)/36 0.69 бит/символ.

I(X1, X1) = I(X2, X2) = - qj log2 qj = log2 6 = 1 + log2 j=2.58 бит/сим.

I(Y, Y ) = - pi log2 pi = i=1 = (2 log2 36 + 4 log2 18 + 6 log2 12 + 8 log2 9 + 10 log2 + 6 log2 6) = 36 = (4+4 log2 3+4+8 log2 3+12+6 log2 3+16 log2 3+20+20 log2 3-10 log2 5+ + 6 + 6 log2 3)/36 = (46 + 60 log2 3 - 10 log2 5)/36 3.27 бит/сим.

Здесь 0 < I(Y, X1) = I(Y, X2) < I(X1, X1) = I(X2, X2) < I(Y, Y ), что соответствует свойствам информации.

Подчекнутый член 2 log2 6 = I(X1, X1)/18 в расчете I(X1, Y ) соответствует информации о двух случаях из 36, когда Y = 2 и Y = 12, которые однозначно определяют X1. Шесть случаев, когда Y = 7, не несут никакой информации об X1, что соответствует подчеркнутому члену 6 log2 1 = 0.

Расчеты можно проводить, используя 4-е свойство информации, через энтропию.

H(Y, X1) = - pij log2 pij = log2 36 = 2(1 + log2 3) = 2HXi,j 5.17 бит/сим.

I(Y, X1) = HX1 + HY - H(X1, Y ) = HY - HX1 3.27 - 2.58 = 0.бит/сим.

Расчет количества информации с использованием 4-го свойства, а не определения, обычно требует меньше вычислений.

Рассмотрим более простой пример. Пусть д. с. в. X равна количеству очков, выпавших на игральной кости, а д. с. в. Y равна 0, если выпавшее количество очков нечетно, и 1, если выпавшее количество очков четно. Найти I(X, Y ) и I(Y, Y ).

Составим законы распределения вероятностей д.с.в. X и Y.

X 1 2 3 4 5 6 Y 0 p 1/6 p 1/Таким образом, при i = 1...6 pi = P (X = i) = 1/6 и, соответственно, при j = 0...1 qj = P (Y = j) = 1/2.

Составим также закон совместного распределения вероятностей этих д.с.в.

X 1 3 5 2 4 6 1 3 5 2 4 Y 0 0 0 1 1 1 1 1 1 0 0 p 1/6 0, если i + j — четно, Таким образом, pij = P (X = i, Y = j) = 1/6, иначе.

pij I(X, Y ) = pij log2 piqj = 61 log2 2 = 1 бит/сим.

i,j I(Y, Y ) = - qj log2 qj = 21 log2 2 = 1 бит/сим.

j=Точное количество выпавших очков дает точную информацию о четности, т.е. 1 бит. Из I(X, Y ) = I(Y, Y ) = 1 бит/сим и 3-го свойства информации следует, что информация об X полностью определяет Y, но не наоборот, т.к. I(X, Y ) = I(X, X) = 1+log2 3 2.58 бит/сим. Дей ствительно, Y функционально зависит от X, а X от Y функционально не зависит.

Расчеты через энтропию будут следующими H(X, Y ) = - pij log2 pij = log2 6 = 1 + log2 3 = HX, i,j I(X, Y ) = HX + HY - HX = HY = 1 бит/сим.

Упражнение Найти энтропию д.с.в. X, заданной распределением X 1 2 3 4 5 6 7 p 0.1 0.2 0.1 0.05 0.1 0.05 0.3 0.1.

Упражнение Значения д. с. в. X1 и X2 определяются подбрасыванием двух идеальных монет, а д.с.в. Y равна сумме количества “гербов”, выпавших при подбрасывании этих монет. Сколько информации об X1 содержится в Y Упражнение Сколько информации об X1 содержится в д.с.в. Z = (X1 + 1)2 - X2, где независимые д. с. в. X1 и X2 могут с равной вероятностью принимать значение либо 0, либо 1 Найти HX1 и HZ. Каков характер зависимости между X1 и Z Упражнение Д. с. в. X1, X2 — зависимы и распределены также как и соответствующие д.с.в. из предыдущей задачи. Найти I(X1, X2), если совместное распределение вероятностей X1 и X2 описывается законом X1 0 0 1 X2 0 1 0 p 1/3 1/6 1/6 1/3.

Упражнение Д. с. в. X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Д. с. в. Y равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т. е.

Y = X1 + X2. Вычислить I(X1, Y ), HX1 и HY.

Упражнение Подсчитать сколько информации об X1 содержится в д.с.в. Z = X1X2, а также HZ. Д.с.в. X1 и X2 берутся из предыдущего упражнения.

Упражнение Д.с.в. X1 может принимать три значения -1, 0 и 1 с равными вероятностями. Д.с.в. X2 с равными вероятностями может принимать значения 0, 1 и 2. X1 и X2 — независимы. Y = X1 +X2. Найти I(X1, Y ), I(X2, Y ), HX1, HX2, HY.

Упражнение Найти энтропии д. с. в. X, Y, Z и количество информации, содержащейся в Z = X + Y относительно Y. X и Y — независимы и задаются распределениями X 0 1 3 4 Y -2 p 1/8 1/8 1/4 1/2 p 3/8 5/8.

8. Смысл энтропии Шеннона Энтропия д.с.в. — это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной д.с.в.

Рассмотрим пример (скачки). В заезде участвуют 4 лошади с равными шансами на победу, т.е. вероятность победы каждой лошади равна 1/4. Введем д. с. в. X, равную номеру победившей лошади. Здесь HX = 2. После каждого заезда по каналам связи достаточно будет передавать два бита информации о номере победившей лошади. Кодируем номер лошади следующим образом: 1—00, 2—01, 3—10, 4—11.

Если ввести функцию L(X), которая возвращает длину сообщения, кодирующего заданное значение X, то м. о. ML(X) — это средняя длина сообщения, кодирующего X. Можно формально определить L через две функции L(X) = len(code(X)), где code(X) каждому значению X ставит в соответствие некоторый битовый код, причем, взаимно однозначно, а len возвращает длину в битах для любого конкретного кода.

В этом примере ML(X) = HX.

Пусть теперь д.с.в. X имеет следующее распределение 3 1 P (X = 1) =, P (X = 2) =, P (X = 3) = P (X = 4) =, 4 8 т.е. лошадь с номером 1 — это фаворит. Тогда 3 4 1 1 19 HX = log2 + log2 8 + log2 16 = - log2 3 1.186 бит/сим.

4 3 8 8 8 Закодируем номера лошадей: 1—0, 2—10, 3—110, 4—111, — т. е. так, чтобы каждой код не был префиксом другого кода (подобное кодирование называют префиксным). В среднем в 16 заездах 1-я лошадь должна победить в 12 из них, 2-я — в 2-х, 3-я — в 1-м и 4-я — в 1-м. Таким образом, средняя длина сообщения о победителе равна (1 12 + 2 2 + 3 1 + 3 1)/16 = 1.375 бит/сим или м. о. L(X). Действительно, L(X) сейчас задается следующим распределением вероятностей: P (L(X) = 1) = 3/4, P (L(X) = 2) = 1/8, P (L(X) = 3) = 1/8.

Следовательно, 3 2 3 ML(X) = + + = = 1.375 бит/сим.

4 8 8 Итак, ML(X) > HX.

Можно доказать, что более эффективного кодирования для двух рассмотренных случаев не существует.

То, что энтропия Шеннона соответствует интуитивному представлению о мере информации, может быть продемонстрировано в опыте по определению среднего времени психических реакций. Опыт заключается в том, что перед испытуемым человеком зажигается одна из N лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной ве N роятностью pi ( pi = 1), где i — это номер лампочки. Оказывается, i среднее время, необходимое для правильного ответа испытуемого, про N порционально величине энтропии - pi log2 pi, а не числу лампочек i=N, как можно было бы подумать. В этом опыте предполагается, что чем больше информации будет получено человеком, тем дольше будет время ее обработки и, соответственно, реакции на нее.

Упражнение Найти энтропию д. с. в. X и среднюю длину каждого из приведенных кодов для этой д.с.в.

X 1 3 4 5 p 0.4 0.2 0.1 0.2 0.code1(X) 000 001 010 011 code2(X) 0 100 101 110 code3(X) 00 01 110 10 code4(X) 0 10 1110 110 1111.

Упражнение Д.с.в. X равна количеству “гербов”, выпавших на двух идеальных монетках. Найти энтропию X. Придумать минимальный код для X, вычислить его среднюю длину и обосновать его минимальность.

Упражнение Д.с.в. X задана распределением P (X = 2n) = 1/2n, n = 1, 2,... Найти энтропию этой д.с.в. Придумать минимальный код для X, вычислить его среднюю длину и обосновать его минимальность.

Упражнение Про д.с.в. X известно, что ее значениями являются буквы кириллицы.

Произведен ряд последовательных измерений X, результат которых — “ТЕОРИЯИНФОРМАЦИИ”. Составить на основании этого результата приблизительный закон распределения вероятностей этой д. с. в. и оценить минимальную среднюю длину кодов для X.

9. Семантическая информация В 50-х годах XX века появились первые попытки определения абсолютного информационного содержания предложений естественного языка. Стоит отметить, что сам Шеннон однажды заметил, что смысл сообщений не имеет никакого отношения к его теории информации, целиком построенной на положениях теории вероятностей. Но его способ точного измерения информации наводил на мысль о возможности существования способов точного измерения информации более общего вида, например, информации из предложений естественного языка. Примером одной из таких мер является функция inf(s) = - log2 p(s), где s — это предложение, смысловое содержание которого измеряется, p(s) — вероятность истинности s. Вот некоторые свойства этой функциимеры:

1) если s1 s2 (из s1 следует s2) — истинно, то inf(s1) inf(s2);

2) inf(s) 0;

3) если s — истинно, то inf(s) = 0;

4) inf(s1s2) = inf(s1) + inf(s2) p(s1 · s2) = p(s1)p(s2), т. е.

независимости s1 и s2.

Значение этой функция-меры больше для предложений, исключающих большее количество возможностей. Пример: из s1 — “a > 3” и s2 — “a = 7” следует, что s2 s1 или inf(s2) inf(s1); ясно, что sисключает больше возможностей, чем s1.

Для измерения семантической информации также используется функция-мера cont(s) = 1 - p(s). Ясно, что cont(s) = 1 - 2-inf(s) или inf(s) = - log2(1 - cont(s)).

Упражнение Вычислить inf(s) и cont(s) предложения s1, про которое известно, что оно достоверно на 50%, и предложения s2, достоверность которого 25%.

10. Сжатие информации Цель сжатия — уменьшение количества бит, необходимых для хранения или передачи заданной информации, что дает возможность передавать сообщения более быстро и хранить более экономно и оперативно (последнее означает, что операция извлечения данной информации с устройства ее хранения будет проходить быстрее, что возможно, если скорость распаковки данных выше скорости считывания данных с носителя информации). Сжатие позволяет, например, записать больше информации на дискету, “увеличить” размер жесткого диска, ускорить работу с модемом и т.д. При работе с компьютерами широко используются программы-архиваторы данных формата ZIP, GZ, ARJ и других.

Методы сжатия информации были разработаны как математическая теория, которая долгое время (до первой половины 80-х годов), мало использовалась в компьютерах на практике.

Сжатие данных не может быть большим некоторого теоретические предела. Для формального определения этого предела рассматриваем любое информационное сообщение длины n как последовательность независимых, одинаково распределенных д.с.в. Xi или как выборки длины n значений одной д.с.в. X.

Доказано [20], что среднее количество бит, приходящихся на одно кодируемое значение д. с. в., не может быть меньшим, чем энтропия этой д.с.в., т.е. ML(X) HX для любой д.с.в. X и любого ее кода.

Кроме того, доказано [20] утверждение о том, что существует такое кодирование (Шеннона-Фэно, Fano), что HX ML(X) - 1.

Рассмотрим д.с.в. X1 и X2, независимые и одинаково распределенные. HX1 = HX2 и I(X1, X2) = 0, следовательно, H(X1, X2) = HX1 + HX2 - I(X1, X2) = 2HX1.

Вместо X1 и X2 можно говорить о двумерной д. с. в. X = (X1, X2).

Аналогичным образом для n-мерной д.с.в. X = (X1, X2,..., Xn) можно получить, что HX = nHX1.

Пусть L1(X) = L(X)/n, где X = (X1, X2,..., Xn), т.е. L1(X) — это количество бит кода на единицу сообщения X. Тогда ML1(X) — это среднее количество бит кода на единицу сообщения при передаче беско нечного множества сообщений X. Из ML(X) - 1 HX ML(X) для кода Шеннона-Фэно для X следует ML1(X) - 1/n HX1 ML1(X) для этого же кода.

Таким образом, доказана основная теорема о кодировании при отсутствии помех, а именно то, что с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения. Подобное кодирование практически не реализуемо из-за того, что с ростом длины сообщения трудоемкость построения этого кода становится недопустимо большой. Кроме того, такое кодирование делает невозможным отправку сообщения по частям, что необходимо для непрерывных процессов передачи данных.

Дополнительным недостатком этого способа кодирования является необходимость отправки или хранения собственно полученного кода вместе с его исходной длиной, что снижает эффект от сжатия. На практике для повышения степени сжатия используют метод блокирования.

По выбранному значению > 0 можно выбрать такое s, что если разбить все сообщение на блоки длиной s (всего будет n/s блоков), то кодированием Шеннона-Фэно таких блоков, рассматриваемых как единицы сообщения, можно сделать среднее количество бит на единицу сообщения б ольшим энтропии менее, чем на. Действительно, пусть Y = (Y1, Y2,..., Yn/s), Y1 = (X1, X2,..., Xs), Y2 = (Xs+1, Xs+2,..., X2s) и т. д., т. е. Yi = (Xs(i-1)+1, Xs(i-1)+2,..., Xsi). Тогда HY1 = sHX1 и sML1(Y1) = ML(Y1) HY1 + 1 = sHX1 + 1, следовательно, ML1(Y1) HX1 + 1/s, т.е. достаточно брать s = 1/. Минимум s по заданному может быть гораздо меньшим 1/.

Пример. Пусть д.с.в. X1, X2,... Xn независимы, одинаково распределены и могут принимать только два значения P (Xi = 0) = p = 3/4 и P (Xi = 1) = q = 1/4 при i от 1 до n. Тогда 3 4 1 HXi = log2 + log2 4 = 2 - log2 3 0.811 бит/сим.

4 3 4 Минимальное кодирование здесь — это коды 0 и 1 с длиной 1 бит каждый. При таком кодировании количество бит в среднем на единицу сообщения равно 1. Разобьем сообщение на блоки длины 2. Закон распре деления вероятностей и кодирование для 2-мерной д.с.в. X = (X1, X2) — X 00 01 10 p 9/16 3/16 3/16 1/ code(X) 0 10 110 L(X) 1 2 3 3.

Pages:     | 1 | 2 || 4 | 5 |   ...   | 14 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.