Автор работы: Пользователь скрыл имя, 08 Апреля 2013 в 00:51, контрольная работа
Задача 1. Энтропия некоррелированного источника дискретных сообщений.
Определить энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения вероятностей которого приведен в табл. 1.
Задача №1………………………………………………………………………………………………………………стр.3
Задача №2………………………………………………………………………………………………………………стр.6
Задача №3………………………………………………………………………………………………………………стр.9
Задача №4………………………………………………………………………………………………………………стр.13
Задача №5………………………………………………………………………………………………………………стр.17
Задача №6…………………………………………
Государственное образовательное учреждение высшего профессионального образования
"Балтийский институт
Кафедра прикладной информатики
Контрольная работа
По дисциплине ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ
г. Калининград
2011 г.
План
Задача 1. Энтропия некоррелированного источника дискретных сообщений.
Определить энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения вероятностей которого приведен в табл. 1.
Таблица 1
Nвар |
xi |
x1 |
x2 |
x3 |
x4 |
x5 |
x6 |
x7 |
x8 |
x9 |
6 |
Pi |
0,05 |
0,149 |
0,174 |
0,192 |
0,16 |
0,1 |
0,052 |
0,033 |
0,09 |
Решение
Xi |
X1 |
X2 |
X3 |
X4 |
X5 |
X6 |
X7 |
X8 |
X9 |
pi |
0,05 |
0,149 |
0,174 |
0,192 |
0,16 |
0,1 |
0,052 |
0,033 |
0,09 |
I(xi) |
-log20.05 |
… |
… |
… |
… |
… |
… |
… |
-log20.09 |
Xi– элемент источника дискретных сообщений
I(xi) – количество информации
H(x) – энтропия источника дискретных сообщений
P(xi) – вероятность появления элемента в сообщении
Количество
информации, содержащейся в элементе
сообщения дискретного
Энтропия источника дискретных сообщений можно определить по формуле:
Где:
L – число элементов источника дискретных сообщений
Получим:
H(x) = (-0.05×log20.05) + (-0.149×log20.149) + (-0.174×log20.174) + (-0.192×log20.192) + (-0.16×log20.16) + (-0.1×log20.1) + (-0.052×log20.052) + (-0.033×log20.033) + (-0.09×log20.09)
Используя свойство логарифмов с×logаb = logаbс запишем:
H(x) = log20.05-0.05 + log20.149-0.149 + log20.174-0.174 + log20.192-0.192 + log20.16-0.16 + log20.1-0.1 + log20.052-0.052 + log20.033-0.033 + log20.09-0.09
H(x) = log21.1616 + log21.3280 + log21.3556 + log21.3728 + log21.3407 + log21.2589 + log21.1662 + log21.1192 + log21.2420
Используя свойство логарифмов logаb + logac = loga(b×c) запишем:
H(x) = log2(1.1616 × 1.3280 × 1.3556 × 1.3728 × 1.3407 × 1.2589 × 1.1662 × 1.1192 × 1.2420)
H(x) = log27.8545 = 2,974
Для того, чтобы определить коэффициент избыточности источника сообщения Rизб, определим максимальное значение энтропии по формуле:
Hmax = log2L
Hmax = log29
Hmax = 3.17
Для характеристики
алфавита источника сообщений
Задача 2. Оптимальное статистическое кодирование.
По заданному закону распределения вероятностей дискретного источника информационных сообщений (табл. 1) провести оптимальное статистическое кодирование источника сообщений по методу Хаффмена.
Определить коэффициент избыточности закодированного источника дискретных информационных сообщений и скорость передачи информации при использовании полученного кода. При расчете скорости передачи информации длительность элементарной посылки принять равной 5 мксек.
Решение
Исходя из своего варианта, будем решать задачу по методу Хаффмена:
Для этого воспользуемся таблицей 1 задачи №1
Используя код Хаффмена построим таблицу элементов источника xi в порядке убывания их вероятностей pi.
xi |
pi |
xi↓ |
|
X1 |
0.05 |
X4 |
|
X2 |
0.149 |
X3 |
|
X3 |
0.174 |
X5 |
|
X4 |
0.192 |
X2 |
|
X5 |
0.16 |
X6 |
|
X6 |
0.1 |
X9 |
|
X7 |
0.052 |
X7 |
|
X8 |
0.033 |
X1 |
0.05 |
X9 |
0.09 |
X8 |
xi↓ |
pi↓ |
Код |
ni |
X4 |
0.192 |
11 |
2 |
X3 |
0.174 |
011 |
3 |
X5 |
0.16 |
010 |
3 |
X2 |
0.149 |
001 |
3 |
X6 |
0.1 |
101 |
3 |
X9 |
0.09 |
100 |
3 |
X7 |
0.052 |
0001 |
4 |
X1 |
0.05 |
00001 |
5 |
X8 |
0.033 |
00000 |
5 |
Элементы алфавита Xi располагаем в порядке убывания их вероятностей. Граф кода Хоффмена начинаем строить с 2-х элементов алфавита, имеющих наименьшие вероятности. Одному из этих элементов алфавита, а именно верхнему, присваиваем «единичный» символ кодовой комбинации, а нижнему – «нулевой» символ. Далее эти два символа объединяем в промежуточный элемент с вероятностью, равной сумме вероятностей исходных элементов. Затем в ансамбле оставшихся элементов алфавита вместе с промежуточными вновь находим два элемента с наименьшими вероятностями и проделываем предыдущую процедуру. Эту процедуру проделываем до тех пор, пока не исчерпаем весь алфавит источника,, то есть, получим промежуточный символ с вероятностью равной единице. Считывание кодовой комбинации осуществляем с конца графа Хоффмена по стрелкам.
Рассчитаем среднюю длительность кодовой комбинации:
Найдем коэффициент избыточности закодированного источника дискретных информационных сообщений по формуле:
Для расчета возьмем энтропию дискретных сообщений H(x) из предыдущей задачи (задача №1):
Рассчитаем скорость передачи информации по формуле:
Где:
Для более
рационального использования
По условию задачи нам известна длительность элементарной посылки , значит получим:
Тогда:
Задача 3. Инверсное кодирование.
А) Информационная посылка Хинф в десятичном исчислении совпадает с номером вашего варианта Хинф = Nвар.
1)
Записать информационную
2) Записать кодовую комбинацию инверсного кода Λ, соответствующую Вашей информационной посылке.
В) На приемной стороне принята кодовая комбинация Λ* инверсного кода (табл. 2).
1) Проверить, есть ли ошибка в принятой кодовой комбинации.
2) Если ошибка есть, то исправить ее и записать Λ*испр. – исправленную кодовую комбинацию инверсного кода.
3)
Записать принятую
Таблица 2
Nвар. |
λ*1 |
λ*2 |
λ*3 |
λ*4 |
λ*5 |
е*1 |
е*2 |
е*3 |
е*4 |
е*5 |
6 |
0 |
0 |
1 |
0 |
0 |
0 |
0 |
1 |
1 |
0 |
Решение
Запишем информационную посылку xинф в десятичном исчислении в соответствии с вариантом:
Хинф = 6
Переведем информационную посылку xинф в двоичный код Λинф:
Λинф = 0 0 1 1 0
λi
Запишем принятую кодовую комбинацию:
Λ* = 0 0 1 0 0 0 0 1 1 0
λ*i e*j