Понятие «информация»
Творческая работа, 23 Сентября 2013, автор: пользователь скрыл имя
Описание работы
Энтропия – хаос, отсутствие информации
Антиэнтропия – мера упорядоченности и сложности системы.
Увеличивается сложность системы – энтропия уменьшается, т.е. величина информации увеличивается.
Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.
Файлы: 1 файл
93697.ppt
— 2.87 Мб (Скачать файл)
ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ
Получение любых знаний должно идти от известного к неизвестному (новому), от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести новую информацию для человека.
НОВИЗНА
Информативное сообщение содержит новые сведения, ранее не известные человеку.
Пример неинформативного
ПОНЯТНОСТЬ
Принцип последовательности в обучении
Сообщение несет информацию для человека (является информативным), если заключенные в сообщении сведения являются для этого человека новыми и понятными.
Новые и понятные
сведения
Новые
знания
Логическая связь
Знание
Незнание
Знание
Чем большим объёмом познаний обладает человек,
тем больше он ощущает недостаток знаний
Увеличение границы незнания
Уменьшение неопределённости знаний
- Если некоторое сообщение приво
дит к уменьшению неопределённо сти знаний. То такое сообщение содержит информацию. - Этот подход позволяет количественно измерить информацию.
- Рассмотрим пример с бросанием монеты.
- Монета может упасть в одно из двух положений, «орёл» или «решка»т.е. события равновероятны.
- Перед броском – существует неопределённость знаний.
- После броска – она уменьшается в два раза
- Чем больше количество возможных событий, тем больше начальная неопределённость и соответственно тем большее количество информации будет содержать сообщение о результатах опытов.
Единицы измерения количества информаци
- За единицу количества информац
ии принимается такое количеств о информации, которое содержит сообщение, уменьшающее неопределённость з наний в два раза. - Такая единица названа «БИТ»
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ
СИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА
- русские (РУССКИЕ) буквы
- латинские (LAT) буквы
- цифры (1, 2, 3, 4, 5, 6, 7, 8, 9, 0)
- математические знаки (+, -, *, /, ^, =)
- прочие символы («», №, %, <, >, :, ;, #, &)
N = 2 i
N = 256 = 2 8
i = 8 бит = 1 байт
1 байт - это информационный вес одного символа компьютерного алфавита
1 килобайт
1 мегабайт
1 гигабайт
1 Кб
1 Мб
1 Гб
2 10 байт
2 10 Кб
2 10 Мб
1024 байта
1024 Кб
1024 Мб
=
=
=
=
=
=
=
=
=
- При равновероятных событиях мо
жно воспользоваться формулой Х артли, чтобы определить количество ин формации I или посчитать количество возможных событий N - N = 2 i
- В случае, если события имеют различные вероятности реализации, то будем применять вероятностный подход, и воспользуемся формулой Шеннона:
- Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)
АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ
МОЩНОСТЬ АЛФАВИТА
число символов в алфавите (его размер)
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации в одном символе
I = K i
i
АЛФАВИТ – это вся совокупность символов, используемых в некотором
языке для представления информации
МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите.
2 i = N
ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ
K
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
I
N
i
I
K
Число
равновероятных
в о з м о ж н ы х
с о б ы т и й
N
К о л и ч е с т в о
и н ф о р м а ц и и
в сообщении о том,
что произошло одно из N
равновероятных событий
i
N = 2
i = 1 бит
Число символов в алфавите
(его размер) – МОЩНОСТЬ АЛФАВИТА
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации
в одном символе
2 i = N
I = K i
K
I
Число символов
в символьном сообщении
Количество информации
в символьном сообщении
i
i = 8 бит = 1 байт
1 байт
1 Кб
1 Мб
1 Гб
1024
1024
1024
ИНФОРМАЦИЯ
N = 256
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
Содержательный подход
Алфавитный подход
ИЗМЕРЕНИЕ
ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА
ЗАДАЧА
Книга, подготовленная с помощью компьютера, содержит 150 страниц. На каждой странице – 40 строк, в каждой строке – 60 символов (включая пробелы между словами). Каков объем информации в книге?
РЕШЕНИЕ
Мощность компьютерного алфавита равна 256, поэтому один символ несет 1 байт информации. Значит, страница книги содержит 40 60 = 2400 байт информации.
[кол-во символов в строке] [кол-во строк] = [информационный объем страницы]
Объем всей информации в книге (в разных единицах):
[информационный объем страницы] [кол-во страниц] = [информационный объем книги]
2400 150 = 360 000 байт / 1024 = 351,5625 Кбайт / 1024 = 0,34332275 Мбайт
- Для определения количество инф
ормации i, содержащейся в сообщении о том, что произошло одно из N равновероятных событий, нужно решить показательное уравнение:
2 i = N или логарифмическую функцию: I = log2N – читается: логарифм от N по основанию 2.
- Смысл выражения: это степень в которую нужно возвести 2, чтобы получилось N.
- Например: вычислим количество информации в сообщении о том, ч то из колоды карт случайным образом достали даму пик (в колоде 36 карт):
- I = log236 = 5,16993 бит
ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕ
6.00000
64
5.58496
48
5.00000
32
4.00000
16
5.97728
63
5.55459
47
4.95420
31
3.90689
15
5.95420
62
5.52356
46
4.90689
30
3.80735
14
5.93074
61
5.49185
45
4.85798
29
3.70044
13
5.90689
60
5.45943
44
4.80735
28
3.58496
12
5.88264
59
5.42626
43
4.75489
27
3.45943
11
5.85798
58
5.39232
42
4.70044
26
3.32193
10
5.83289
57
5.35755
41
4.64386
25
3.16993
9
5.80735
56
5.32193
40
4.58496
24
3.00000
8
5.78136
55
5.28540
39
4.52356
23
2.80735
7
5.75489
54
5.24793
38
4.45943
22
2.58496
6
5.72792
53
5.20945
37
4.39232
21
2.32193
5
5.70044
52
5.16993
36
4.32193
20
2.00000
4
5.67243
51
5.12928
35
4.24793
19
1.58496
3
5.64386
50
5.08746
34
4.16993
18
1.00000
2
5.61471
49
5.04439
33
4.08746
17
0.00000
1
i
N
i
N
i
N
i
N
N
i
Определение количества информации, содержащейся в сообщении о том, что произошло одно из N равновероятных событий
N
i
Определение количества равновероятных событий N, если известно, сколько информации человек получил в сообщении о том, что произошло одно из этих событий.
2 i = N
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
Задача 1. При угадывании целого числа в диапазоне от 1 до N
было получено 6 бит информации . Чему равно N ?
Решение задачи 1. Значение N определяется из формулы N = 2 i .
После подстановки значения i = 6 получаем: N = 2 6 = 64.
Задача 2. В корзине лежат 16 шаров разного цвета . Сколько информации несет сообщение о том , что из корзины достали красный шар ?
Решение задачи 2: Вытаскивание из корзины любого из 16 шаров – события равновероятные. Поэтому для решения задачи применима формула 2 i = N. Здесь N = 16 – число шаров. Решая уравнение 2 I =16 получаем ответ: i = 4 бита