Автор работы: Пользователь скрыл имя, 10 Декабря 2014 в 10:08, курсовая работа
Задачи курсовой работы:
• изучить литературу и выделить основные подходы к измерению информации,
• изучить единицы измерения информации и соотношения между ними,
• рассмотреть различные примеры на тему.
Введение 3
§1. Подходы к измерению информации 4
§2. Алфавитный (объемный) подход 5
§3. Энтропийный (вероятностный) подход 7
§4. Содержательный подход 11
§5. Алгоритмический подход 12
§6. Прагматический подход 16
§7. Другие подходы к измерению информации 18
§8. Первичные единицы 19
Заключение 24
Список литературы 25
Введение
Задачи курсовой работы:
§1. Подходы к измерению информации
Современная наука
о свойствах информации и закономерностях
информационных процессов называется
теорией информации. Содержание понятия
"информация" можно раскрыть на примере
двух исторически первых подходов к измерению
количества информации: подходов Хартли
и Шеннона: первый из них основан на теории
множеств и комбинаторике, а второй - на
теории вероятностей.
Информация может пониматься и интерпретироваться
в различных проблемах, предметных областях
по-разному. Вследствие этого, имеются
различные подходы к определению измерения
информации и различные способы введения
меры количества информации.
Количество информации
- числовая величина, адекватно характеризующая
актуализируемую информацию по разнообразию,
сложности, структурированности (упорядоченности),
определенности, выбору состояний отображаемой системы.
Если рассматривается некоторая система,
которая может принимать одно из n возможных
состояний, то актуальной задачей является
задача оценки этого выбора, исхода. Такой
оценкой может стать мера информации (события).
Мера - непрерывная действительная неотрицательная
функция, определенная на множестве событий
и являющаяся аддитивной (мера суммы равна сумме мер).
Меры могут быть статические и динамические,
в зависимости от того, какую информацию
они позволяют оценивать: статическую
(не актуализированную; на самом деле оцениваются
сообщения без учета ресурсов и формы
актуализации) или динамическую (актуализированную
т.е. оцениваются также и затраты ресурсов
для актуализации информации).
§2. Алфавитный (объемный) подход
Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.
Алфавит — упорядоченный набор
Мощность алфавита — количество символов алфавита.
Двоичный алфавит содержит 2 символа, его мощность равна двум.
Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.
С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение.
Информация трактуется по-разному, например, как:
Если отвлечься от конкретного смыслового содержания информации и рассматривать сообщения информации как последовательности знаков, сигналов, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.
N = 2b формула, связывающая между собой информационный вес каждого символа, выраженный в битах (b), и мощность алфавита (N):Пример 1. Алфавит содержит 32 буквы. Какое количество информации несет одна буква? Дано: Мощность алфавита N=32 Какое количество информации несет одна буква? Решение: 32 = 2 5, значит вес одного символа b = 5 бит Ответ: одна буква несет 5 бит информации. Пример 2.Сообщение, записанное буквами из 16 символьного алфавита, содержит 10 символов. Какой объем информации в битах оно несет? Дано: Мощность алфавита N=16 Текст состоит из 10 символов Определить объем информации в битах. Решение: 1. 16 = 2 4, значит вес одного символа b = 4 бита. 2. Всего символов 10, значит объем информации 10 * 4 = 40 бит. Ответ: сообщение несет 40 бит информации (8 байт). Пример 3.Информационное сообщение объемом 300 бит содержит 100 символов. Какова мощность алфавита? Дано: Объем сообщения = 300 бит Какова мощность алфавита? Решение: 1. Определим вес одного символа: 300 / 100 = 3 бита. 2. Мощность алфавита определяем по формуле: 2 3 = 8. Ответ: мощность алфавита N=8. |
В жизни же мы сталкиваемся не только с равновероятными событиями, но и событиями, которые имеют разную вероятность реализации.
Например:
1. Когда сообщают прогноз погоды, то сведения о том, что будет дождь, более вероятно летом, а сообщение о снеге — зимой.
2. Если вы — лучший ученик в классе, то вероятность сообщения о том, что за контрольную работу вы получили 5, больше, чем вероятность получения двойки.
3. Если в мешке лежат 20 белых шаров и 5 черных, то вероятность достать черный шар меньше, чем вероятность вытаскивания белого.
Как вычислить количество информации в таком сообщении?
Для этого необходимо использовать следующую формулу:
i=log2(1/p)
где р - вероятность отдельного события. Это формула Хартли.
Пример 1. В корзине лежат 8 мячей разного цвета (красный, синий, желтый, зеленый, оранжевый, фиолетовый, белый, коричневый). Какое количество информации несет в себе сообщение о том, что из корзины будет вынут мяч красного цвета?
Решение.
Так как возможности вынуть мяч каждого из возможных цветов равновероятны, то для определения количества информации, содержащегося в сообщении о выпадении мяча красного цвета, воспользуемся формулой i= log2 N.
Имеем i= log28= 3 бита.
Ответ: 3 бита.
Пример 2. В корзине лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?
Решение:
8+24=32 – общее количество шаров в корзине;
8/32 = 0,25 – вероятность того, что из корзины достали черный шар;
i= log2 (1/0,25) =log2 4 = 2 бита.
Ответ: 2 бита
Пример 3. В корзине лежат 32 клубка шерсти. Среди них – 4 красных. Сколько информации несет сообщение о том, что достали клубок красной шерсти?
Решение:
4/32 = 1/8 – вероятность того, что из корзины достали клубок красной шерсти;
i= log2 8 = 3 бита.
Ответ: 3 бита
Пример 4. В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в коробке?
Решение:
Пусть в коробке было х белых карандашей.
Вероятность того, что достали белый карандаш, равна х/64.
Количество информации сообщения о том, что достали белый шар, равно
i= log2 (64/x) бит, что по условию задачи составляет 4 бита, т.е. имеет место уравнение: log2 (64/x)=4, т.е. 64/x=24, 64/x=16, x=4 , значит в коробке было 4 белых карандаша.
Ответ: 4 карандаша
По Шеннону, информация — уменьшение неопределенности наших знаний.
Неопределенность некоторого
события — это количество возможных исходов данного
Так, например, если из колоды карт наугад выбирают карту, то неопределенность равна количеству карт в колоде. При бросании монеты неопределенность равна 2.
Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.
N = 2i – формула для решения задач на содержательный подход к измерению информации.
N – количество возможных событий
i – количество информации
Пример 1.В коробке лежат 8 разноцветных карандашей. Какое количество информации содержится в сообщении, что достали зелёный карандаш?
N = 8 N = 2i
i - ? 8 = 2i
Информация о работе Различные подходы к измерению информации