Автор работы: Пользователь скрыл имя, 10 Декабря 2014 в 10:08, курсовая работа
Задачи курсовой работы:
• изучить литературу и выделить основные подходы к измерению информации,
• изучить единицы измерения информации и соотношения между ними,
• рассмотреть различные примеры на тему.
Введение 3
§1. Подходы к измерению информации 4
§2. Алфавитный (объемный) подход 5
§3. Энтропийный (вероятностный) подход 7
§4. Содержательный подход 11
§5. Алгоритмический подход 12
§6. Прагматический подход 16
§7. Другие подходы к измерению информации 18
§8. Первичные единицы 19
Заключение 24
Список литературы 25
i = 3
Ответ: сообщение содержит 3 бита информации.
Пример 2. Сообщение о том, что ваш друг живёт на 5 этаже, несёт 4 бита информации. Сколько этажей в доме?
i = 4 N = 2i
N - ? N = 24
Ответ: в доме 16 этажей.
Отличный от взглядов Хартли, Шеннона, Винера и Бриллюэна подход к определению понятия "количество информации", был предложен в 1965 году академиком А.Н. Колмогоровым, который он назвал алгоритмическим.
Исходя из того, что "по существу наиболее содержательным является представление о количестве информации "в чем-либо" (Х) и "о чем-либо" (Y)" , А.Н. Колмогоров для оценки информации в одном конечном объекте относительно другого конечного объекта предложил использовать теорию алгоритмов. За количество информации при этом, принимается значение некоторой функции от сложности каждого из объектов и длины программы (алгоритма) преобразования одного объекта в другой.
Решение задачи определения количества информации в алгоритмическом подходе имеет общий вид и схематично выглядит следующим образом.
"Относительной сложностью" объекта Y при заданном Х будем считать минимальную длину L(P) "
Так как каждый из объектов может быть бесконечно сложным, то доказывается теорема, согласно которой относительной сложности Kφ(Y|X) объекта Y, при заданном методе программирования, может быть поставлена в соответствие иная относительная сложность, полученная при другом методе программирования A(P,X), такая, что выполняется неравенство:
KA(Y|X)≤Kφ(Y|X)+Cφ ,
где Cφ - некоторая постоянная программирования, не зависящая от X и Y.
Учитывая, что при любых Х и Y относительная сложность KA(Y|X) является конечной величиной, а KA(Y)=KA(Y|1) можно считать просто сложностью объекта Y, А.Н. Колмогоров для оценки алгоритмического количества информации lA(X:Y) в объекте X относительно объекта Y предложил использовать формулу:
.lA(X:Y) =...KA(Y)--KA(Y|X) , ............................
причем KA(X|X)≈0 и, соответственно, lA(X:X)≈ KA(X) .
Алгоритмическая информация (1) может принимать как положительные, так и отрицательные значения. В связи с этим А.Н. Колмогоров делает два замечания. Во-первых, "lA(X:Y) не меньше некоторой отрицательной константы C, зависящей лишь от условностей избранного метода программирования" . Во-вторых, "вся теория рассчитана на применение к большим количествам информации, по сравнению с которыми |C| будет пренебрежимо мал".
Алгоритмический подход к измерению количества информации, в силу ряда объективных причин, не нашел широкого практического применения. Во-первых, как писал сам А.Н. Колмогоров, "на пути его формализации встает очевидная трудность: то, что просто описывается на одном языке, может не иметь простого описания на другом, и непонятно, какой способ описания выбрать" . То есть алгоритмическая оценка информации зависит от выбранного метода программирования, а такой выбор, в свою очередь, по сути дела всегда имеет субъективный характер. Во-вторых, практическое использование формулы (1) возможно лишь применительно к весьма простым объектам, имеющим математическое описание, в то время как отсутствие последнего является характерной и обязательной чертой сложных объектов. Кроме того, понятие "сложность" само по себе является относительным и зависит от уровня рассмотрения объектов. И, наконец, в-третьих, в соответствии с теоремой Геделя о неполноте формальных систем, нельзя доказать, что минимальная длина программы L(P) преобразования X в Y, составленная на каком-либо языке программирования, действительно является объективно минимальной .
В своих комментариях относительно алгоритмического подхода А.Н. Колмогоров писал, что он "основан на применении теории алгоритмов для определения понятия энтропии, или сложности, конечного объекта и понятия информации в одном конечном объекте о другом" . В соответствии с этим, переходя к рассмотрению алгоритмического подхода с позиций количественного определения негэнтропии отражения, предварительно отметим следующее. – В рассматриваемой нами ситуации каждый из объектов может быть закодирован с помощью двоичного языка, символами которого являются "0" и "1". Кодируя каждый элемент символом "1", мы получим для отражаемого и отражающего объектов соответствующий код длины m(A) и m(B). Естественно, что сложность К каждого из объектов является функцией длины такого кода, которая, в свою очередь, для энтропийной сложности представляет собой логарифм числа элементов конечного множества , то есть:
K(A)=log2m(A), K(B)=log2m(B) ..............................
Также очевидно, что алгоритм получения одного объекта из другого в рассматриваемой ситуации сводится к добавлению или обнулению (ликвидации) определенного числа единиц в соответствующем коде. То есть длина "программы" получения одного объекта из другого равна |m(A) – m(B)| двоичных единиц и соответственно относительная сложность каждого из объектов имеет вид:
K(A|B)=K(B|A)=log2|m(A)-m(B)|.
Подставляя выражения (2) и (3) в формулу (1), получаем, что алгоритмическое количество информации, которое содержит отражающий объект B относительно отражаемого объекта A, равно:
l(B:A)=K(A)-K(A|B)=log2m(A)-
Алгоритмическая информация (4) наиболее близка к определению негэнтропии отражения системных объектов в сравнении с ранее рассмотренными информационными мерами и даже, на принципиальном уровне суждений (в рамках изложенного материала), может быть принята за ее количественную характеристику. Но, этим ее положительные свойства в негэнтропийном отношении ограничиваются, так как она не применима к открытым системным объектам. Дело в том, что, когда отражаемый объект является открытым, мы опять будем иметь отрицательные значения (при m(B)>2m(A) ), негативизм которых, помимо отмеченного выше, может быть дополнен тем, что, как нетрудно видеть, возможны ситуации, когда аддитивная негэнтропия отражения совокупности отражающих объектов будет равна нулю. То есть, например, проведя наблюдения и выявив совокупность объектов, имеющих непосредственную взаимосвязь с отражаемым (исследуемым) объектом, в итоге мы будем иметь, что общее количество информации, полученное нами в процессе исследований равно нулю, а это уже нонсенс. Таким образом, мы видим, что алгоритмический подход, также как комбинаторный и вероятностный, не позволяет получить расчетную формулу для негэнтропии отражения системных объектов lA↔B.
Попытки оценить не
только количественную, но и содержательную
сторону информации дали толчок к развитию
семантической (смысловой) теории информации.
Исследования в этой области теснее всего
связаны с семиотикой – теорией знаковых
систем. Одним из важнейших свойств информации,
которое мы можем наблюдать, является
ее неотделимость от носителя: во всех
случаях, когда мы сталкиваемся с любыми
сообщениями, эти сообщения выражены некоторыми
знаками, словами, языками Семиотика исследует
знаки как особый вид носителей информации.
При этом знаком является условное изображение
элемента сообщения, словом – совокупность
знаков, имеющих смысловое значение, языком
– словарь и правила пользования им. Таким
образом, рассуждая о количестве, содержании
и ценности информации, содержащейся в
сообщении, можно исходить из возможностей
соответствующего анализа знаковых структур.
В качестве знаковых систем используются
естественные и искусственные языки, в том числе информационные
и языки программирования, различные системы сигнализации,
логические, математические и химические
символы. Они служат средством обмена
информацией между высокоорганизованными
системами (способными к обучению и самоорганизации).
Примером могут быть живые организмы,
машины с определенными свойствами.
Рассматривая знаковые
системы, выделяют три основных аспекта
их изучения: синтактику, семантику и прагматику.
Синтактика изучает синтаксис знаковых
структур, т.е. способы сочетаний знаков,
правила образования этих сочетаний и их
преобразований безотносительно к их значениям.
Отметим в связи с этим, что рассматриваемые
ранее способы определения количества
информации можно отнести к синтаксическим
способам.
Семантика изучает знаковые
системы как средства выражения смысла,
определенного содержания, т.е. правила интерпретации
знаков и их сочетаний, смысловую сторону
языка.
Прагматика рассматривает соотношение
Основная идея семантической концепции
§8. Первичные единицы
Объёмы информации можно представлять как логарифм количества состояний.
Наименьшее целое число, логарифм которого положителен — 2. Соответствующая ему единица – бит – является основой исчисления информации в цифровой технике.
Единица, соответствующая числу 3 (трит) равна log2 3≈1.585 бита, числу 10 (хартли) — log2 10≈3.322 бита.
Такая единица как нат (nat), соответствующая натуральному логарифму применяется в вычислительной технике в инженерных и научных расчётах. Основание натуральных логарифмов не является целым числом.
§9. Единицы, производные от бита
Целые количества бит отвечают количеству состояний, равному степеням двойки.
Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре.
Что такое «байт»?
Байт (англ. byte) — единица хранения и обработки цифровой информации. В настольных вычислительных системах байт считается равным восьми битам, в этом случае он может принимать одно из 256 (28) различных значений. Следует понимать, что количество бит в байте не является однозначной величиной и может варьироваться в широком диапазоне. Так, в первых компьютерах размер байта был равен 6 битам. В суперкомпьютерах, вследствие используемой адресации, один байт содержит 32 бита. Для того, чтобы подчеркнуть, что имеется в виду восьмибитный байт, а также во избежание широко распространенного заблуждения, что в одном байте исключительно восемь бит, в описании сетевых протоколов используется термин «октет» (лат. octet).
Название «байт» (слово byte представляет собой сокращение словосочетания BinarY TErm — «двоичный терм») было впервые использовано в 1956 году В. Бухгольцем (англ. Werner Buchholz) при проектировании первого суперкомпьютера IBM 7030 (англ.) для пучка одновременно передаваемых в устройствах ввода-вывода шести битов. Позже, в рамках того же проекта, байт был расширен до восьми бит.
Октет. Октет в информатике — 8 бит. В русском языке октет обычно называют байтом.
Слово «октет» часто употребляется при описании сетевых протоколов, так как они предназначены для взаимодействия компьютеров, имеющих не обязательно одинаковую платформу. В отличие от байта, который (в широком смысле) может быть равен 10, 12 и т. п. битам, октет всегда равен 8 битам.
Дабы исключить двусмысленность,
во французском языке слово «октет»
Информация о работе Различные подходы к измерению информации