Автор работы: Пользователь скрыл имя, 23 Сентября 2013 в 09:02, творческая работа
Энтропия – хаос, отсутствие информации
Антиэнтропия – мера упорядоченности и сложности системы.
Увеличивается сложность системы – энтропия уменьшается, т.е. величина информации увеличивается.
Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.
ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ
Получение любых знаний должно идти от известного к неизвестному (новому), от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести новую информацию для человека.
НОВИЗНА
Информативное сообщение содержит новые сведения, ранее не известные человеку.
Пример неинформативного
ПОНЯТНОСТЬ
Принцип последовательности в обучении
Сообщение несет информацию для человека (является информативным), если заключенные в сообщении сведения являются для этого человека новыми и понятными.
Новые и понятные
сведения
Новые
знания
Логическая связь
Знание
Незнание
Знание
Чем большим объёмом познаний обладает человек,
тем больше он ощущает недостаток знаний
Увеличение границы незнания
Уменьшение неопределённости знаний
Единицы измерения количества информаци
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ
СИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА
N = 2 i
N = 256 = 2 8
i = 8 бит = 1 байт
1 байт - это информационный вес одного символа компьютерного алфавита
1 килобайт
1 мегабайт
1 гигабайт
1 Кб
1 Мб
1 Гб
2 10 байт
2 10 Кб
2 10 Мб
1024 байта
1024 Кб
1024 Мб
=
=
=
=
=
=
=
=
=
АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ
МОЩНОСТЬ АЛФАВИТА
число символов в алфавите (его размер)
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации в одном символе
I = K i
i
АЛФАВИТ – это вся совокупность символов, используемых в некотором
языке для представления информации
МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите.
2 i = N
ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ
K
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
I
N
i
I
K
Число
равновероятных
в о з м о ж н ы х
с о б ы т и й
N
К о л и ч е с т в о
и н ф о р м а ц и и
в сообщении о том,
что произошло одно из N
равновероятных событий
i
N = 2
i = 1 бит
Число символов в алфавите
(его размер) – МОЩНОСТЬ АЛФАВИТА
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации
в одном символе
2 i = N
I = K i
K
I
Число символов
в символьном сообщении
Количество информации
в символьном сообщении
i
i = 8 бит = 1 байт
1 байт
1 Кб
1 Мб
1 Гб
1024
1024
1024
ИНФОРМАЦИЯ
N = 256
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
Содержательный подход
Алфавитный подход
ИЗМЕРЕНИЕ
ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА
ЗАДАЧА
Книга, подготовленная с помощью компьютера, содержит 150 страниц. На каждой странице – 40 строк, в каждой строке – 60 символов (включая пробелы между словами). Каков объем информации в книге?
РЕШЕНИЕ
Мощность компьютерного алфавита равна 256, поэтому один символ несет 1 байт информации. Значит, страница книги содержит 40 60 = 2400 байт информации.
[кол-во символов в строке] [кол-во строк] = [информационный объем страницы]
Объем всей информации в книге (в разных единицах):
[информационный объем страницы] [кол-во страниц] = [информационный объем книги]
2400 150 = 360 000 байт / 1024 = 351,5625 Кбайт / 1024 = 0,34332275 Мбайт
2 i = N или логарифмическую функцию: I = log2N – читается: логарифм от N по основанию 2.
ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕ
6.00000
64
5.58496
48
5.00000
32
4.00000
16
5.97728
63
5.55459
47
4.95420
31
3.90689
15
5.95420
62
5.52356
46
4.90689
30
3.80735
14
5.93074
61
5.49185
45
4.85798
29
3.70044
13
5.90689
60
5.45943
44
4.80735
28
3.58496
12
5.88264
59
5.42626
43
4.75489
27
3.45943
11
5.85798
58
5.39232
42
4.70044
26
3.32193
10
5.83289
57
5.35755
41
4.64386
25
3.16993
9
5.80735
56
5.32193
40
4.58496
24
3.00000
8
5.78136
55
5.28540
39
4.52356
23
2.80735
7
5.75489
54
5.24793
38
4.45943
22
2.58496
6
5.72792
53
5.20945
37
4.39232
21
2.32193
5
5.70044
52
5.16993
36
4.32193
20
2.00000
4
5.67243
51
5.12928
35
4.24793
19
1.58496
3
5.64386
50
5.08746
34
4.16993
18
1.00000
2
5.61471
49
5.04439
33
4.08746
17
0.00000
1
i
N
i
N
i
N
i
N
N
i
Определение количества информации, содержащейся в сообщении о том, что произошло одно из N равновероятных событий
N
i
Определение количества равновероятных событий N, если известно, сколько информации человек получил в сообщении о том, что произошло одно из этих событий.
2 i = N
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
Задача 1. При угадывании целого числа в диапазоне от 1 до N
было получено 6 бит информации . Чему равно N ?
Решение задачи 1. Значение N определяется из формулы N = 2 i .
После подстановки значения i = 6 получаем: N = 2 6 = 64.
Задача 2. В корзине лежат 16 шаров разного цвета . Сколько информации несет сообщение о том , что из корзины достали красный шар ?
Решение задачи 2: Вытаскивание из корзины любого из 16 шаров – события равновероятные. Поэтому для решения задачи применима формула 2 i = N. Здесь N = 16 – число шаров. Решая уравнение 2 I =16 получаем ответ: i = 4 бита