Автор работы: Пользователь скрыл имя, 01 Апреля 2015 в 14:58, контрольная работа
В теории информации выделяются три основных направления: структурное, статистическое, семантическое.
Структурное - рассматривает дискретное строение массивов информации и их измерение простым подсчетом информационных элементов. (Простейшее кодирование массивов - комбинаторный метод.)
Статистическое направление оперирует понятием энтропии как меры неопределенности, то есть здесь учитывается вероятность появления тех или иных сообщений.
Тема 1. Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации. 3
Структурные меры информации 3
Статистические меры информации 5
Семантические меры информации 10
Тема 2. Технические средства реализации информационных процессов 2
Ранние приспособления и устройства для счёта 2
"Считающие часы» Вильгельма Шикарда 2
Появление аналоговых вычислителей в предвоенные годы 4
Первые электромеханические цифровые компьютеры 4
Британский «Колосс» 5
Первое поколение компьютеров с архитектурой фон Неймана 6
1950-е — начало 1960-х: второе поколение 8
1960-е и далее: третье и последующие поколения 10
1970—1990-четвертое поколение ЭВМ 11
1990—…до наших дней-5 поколение ЭВМ 12
Тема 3. Программные средства реализации информационных процессов 2
Тема 4. Модели решения функциональных и вычислительных задач 4
Компьютерное моделирование 5
Моделирование и его виды 5
Особенности компьютерного моделирования 6
Тема 5. Основы алгоритмизации. Технологии программирования. Языки программирования высокого уровня 7
ЖИЗНЕННЫЙ ЦИКЛ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ 8
Тема 6. Компьютерные сети. Методы защиты информации 14
Сетевые протоколы. Стеки протоколов. 14
Основные сетевые протоколы 16
Список литературы 16
Оглавление
Тема 1. Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации.
1.Меры информации. Измерение количества информации.
В теории информации выделяются три основных направления: структурное, статистическое, семантическое.
Структурное - рассматривает дискретное строение массивов информации и их измерение простым подсчетом информационных элементов. (Простейшее кодирование массивов - комбинаторный метод.)
Статистическое направление оперирует понятием энтропии как меры неопределенности, то есть здесь учитывается вероятность появления тех или иных сообщений.
Семантическое направление учитывает целесообразность, ценность или существенность информации.
Эти три направления имеют свои определенные
области применения. Структурное исполь
Структурные меры учитывают только дискретное
строение информации. Элементами информационного
комплекса являются кванты - неделимые
части информации. Различаютгеометрическую, комби
Определение информации геометрическим мето
М= ,
где ; ; ;
Х, Т, N - интервалы, через которые осуществляются дискретные отсчеты.
В комбинаторной мере количество информации вычисляется как количество комбинаций элементов. Здесь учитываются возможные или реализованные комбинации.
Во многих случаях дискретное сообщение можно рассматривать как слово, состоящее из некоторого количества элементов n, заданных алфавитом, состоящим из т элементов-букв. Определим количество различных сообщений, которые можно образовать из данного алфавита. Если сообщение состоит из двух элементов (п=2), то всего может быть различных сообщений. Например, из десяти цифр (0, 1, 2,..., 9) может быть образовано сто различных чисел от 0 до 99. Если количество элементов равно трем, то количество различных сообщений равно и т.д.
Таким образом, число возможных сообщений определяется:
L= ,
где L - число сообщений; п - число элементов в слове; т - алфавит.
Чем больше L, тем сильнее может отличаться каждое сообщение от остальных. Величина L может быть принята в качестве меры количества информации. Однако выбор L в качестве меры количества информации связан с неудобствами: во-первых, при L =1 информация равна нулю, поскольку заранее известен характер сообщения (т.е. сообщение есть, а информация равна нулю); во-вторых, не выполняется условие линейного сложения количества информации, т.е. условие аддитивности. Если, например, первый источник характеризуется различными сообщениями, а второй - , то общее число различных сообщений для двух источников определяется произведением
L= .
Для k источников общее число возможных различных сообщений равно
L= .
Поэтому Хартли ввел логарифмическую (аддитивную) меру количества информации, позволяющую оценивать количество инфомации, содержащейся в сообщении, логарифмом числа возможных сообщений.
I= .
Тогда при L=1 I=0, т.е. информация отсутствует.
Для k источников информации
I= ,
т.е. I= .
При статическом вероятностном подходе получение конкретного количества информации рассматривается как результат определенного выбора среди возможных сообщений. Получатель информации может заранее знать или угадать ее часть. Когда приходит сообщение о часто происходящих событиях, вероятность появления которых Р стремится к единице, то такое сообщение малоинформативно. Столь же малоинформативны в среднем сообщения о событиях, вероятности которых стремятся к нулю, т.е. о почти невозможных событиях, поскольку сообщения о таких событиях поступают чрезвычайно редко.
События можно рассматривать как возможные исходы некоторого опыта. Все исходы составляют полную группу событий, или ансамбль.
Ансамбль характеризуется тем, что сумма вероятностей всех сообщений в нем равна единице, то есть
.
Рассмотрим сложные сообщения, составляемые из п элементов, каждый из которых является независимым и выбирается из алфавита, содержащего т букв, с вероятностями выбора элементов соответственно. Предположим, что в некоторое сообщение вошло элементов алфавита, элементов и т.д. Такое сообщение характеризуется таблицей (табл. 1.1).
Таблица 1.1
Тип элемента |
|
|
Число элементов |
|
|
Вероятности выбора элементов |
|
|
Вероятность того, что в сообщение войдут элементов равняется , а вероятность образования сообщения из , , ,..., ,..., элементов будет равна
Р= . (1.1)
При большой длине п источником будут формироваться типичные сообщения, в которых относительная частота появления отдельных элементов стремится к вероятности появления этих элементов, то есть
, (1.2)
а вероятности появления типичных сообщений Р будут одинаковы и могут быть найдены из (1.1), (1.2):
Р= . (1.3)
Определим число типичных сообщений:
, (1.4)
так как суммарная вероятность всех типичных сообщений стремится к единице при увеличении длины сообщений.
Хотя число возможных сообщений , источник практически будет вырабатывать только L типичных сообщений, а вероятность появления остальных сообщений стремится к нулю.
Найдем количество информации I, содержащейся в одном сообщении:
I= log L= -log . (1.5)
Данное выражение (формула Шеннона) дает более полное представление об источнике информации, чем аддитивная мера (мера Хартли). Поясним это на следующем примере. Если мы подбрасываем монету, то получим сообщение из двух возможных состояний (орел или решка), то есть, алфавит сообщений из двух букв. Если подбрасываем кубик, одна грань которого голубая, а остальные грани окрашены в розовый цвет, то здесь также имеем алфавит из двух букв (голубой или розовый). Чтобы записать полученный текст (сообщение), в обоих случаях достаточно одной двоичной цифры на букву (п=1, т=2).
По Хартли здесь в обоих случаях
I= n .
Но мы знаем, что в первом случае вероятность каждого исхода опыта равна 0,5 ( =0,5). А во втором случае и соответственно. Мера Хартли не учитывает этого.
При равновероятности символов (частный случай) формула Шеннона вырождается в формулу Хартли:
I= -n .
Для случая с монетой:
I= -1 .
Для случая с кубиком:
I= -1 .
Количество информации, приходящейся
на один элемент сообщения, называется удельной
информативностью или энтропией
Н= . (1.6)
Количество информации и энтропия являются логарифмическими мерами и измеряются в одних и тех же единицах. Основание логарифма определяет единицу измерения количества информации и энтропии. Двоичная единица соответствует основанию логарифма, равному двум, и называется битом. Один бит - это количество информации в сообщении в одном из двух равновероятностных исходов некоторого опыта. Используются также натуральные (НИТ) и десятичные (ДИТ) логарифмы. Аналогичными единицами пользуются и при оценке количества информации с помощью меры Хартли.
Из формулы Шеннона следует, что количество
информации, содержащейся в сообщении,
зависит от числа элементов сообщения п,
алфавита т и вероятностей выбора элементов
. Зависимость I от п является ли
Отметим некоторые свойства энтропии.
1. Энтропия является величиной
вещественной, ограниченной и
2. Энтропия минимальна и равна нулю, если сообщение известно заранее, то есть если =1, а
.
3. Энтропия максимальна, если все состояния элементов сообщений равновероятны.
Н= , если . (1.7)
Величину максимальной энтропии найдем при использовании (1.6) и (1.7):
=logm .
4. Энтропия бинарных (двоичных) сообщений может изменяться от нуля до единицы (двоичный алфавит, следовательно, т=2.)
Н= .
Используя условие и обозначив =Р, получим , а энтропия определится выражением
Н= -P logP - (1 - P)log(1 - P) .
Энтропия достигает максимума, равного единице, при = =0,5.
Рис. 1.3 - График функции Н= -Р logP - (1 - P)log(1 - P)
Семантические меры информации оценивают смысл, содержание информации, ее целесообразность и существенность.
Целесообразность, полезность информации для решения какой-то задачи можно оценить по эффекту, который оказывает полученная информация на решение задачи. Если вероятность достижения цели увеличивается, то информацию следует считать полезной.
История и тенденции развития ВТ (поколения).
Вычислительная техника является важнейшим компонентом процесса вычислений и обработки данных. Первыми приспособлениями для вычислений были счётные палочки. Развиваясь, эти приспособления становились более сложными, например, такими как финикийские глиняные фигурки, также предназначаемые для наглядного представления количества считаемых предметов. Такими приспособлениями пользовались торговцы и счетоводы того времени. Постепенно из простейших приспособлений для счёта рождались всё более и более сложные устройства: абак (счёты), логарифмическая линейка, механический арифмометр, электронный компьютер. Принцип эквивалентности широко использовался в простейшем счётном устройстве Абак или Счёты. Количество подсчитываемых предметов соответствовало числу передвинутых костяшек этого инструмента. Сравнительно сложным приспособлением для счёта могли быть чётки, применяемые в практике многих религий. Верующий как на счётах отсчитывал на зёрнах чёток число произнесённых молитв, а при "
В 1623 году Вильгельм Шикард придумал «Считающие часы» — первый механический калькулятор, умевший выполнять четыре арифметических действия. За этим последовали машины Блеза Паскаля («Паскалина», 1642 г.) и Готфрида Вильгельма Лейбница.
Примерно в 1820 году Charles Xavier Thomas создал первый удачный, серийно выпускаемый механический калькулятор — Арифмометр Томаса, который мог складывать, вычитать, умножать и делить. В основном, он был основан на работе Лейбница. Механические калькуляторы, считающие десятичные числа, использовались до 1970-х. Лейбниц также описал двоичную систему счисления, центральный ингредиент всех современных компьютеров. Однако вплоть до 1940-х, многие последующие разработки (включая машины Чарльза Бэббиджа и даже ЭНИАК 1945 года) были основаны на более сложной в реализации десятичной системе.
Перфокарточная система музыкального автомата В 1801 году Жозеф Мари Жаккар разработал ткацкий станок, в котором вышиваемый узор определялся перфокартами. Серия карт могла быть заменена, и смена узора не требовала изменений в механике станка. Это было важной вехой в истории программирования. В 1838 году Чарльз Бэббидж перешёл от разработки Разностной машины к проектированию более сложной аналитической машины, принципы программирования которой напрямую восходят к перфокартам Жаккара. В 1890 году Бюро Переписи США использовало перфокарты и механизмы сортировки, разработанные Германом Холлеритом, чтобы обработать поток данных десятилетней переписи, переданный под мандат в соответствии с Конституцией. Компания Холлерита в конечном счёте стала ядром IBM. Эта корпорация развила технологию перфокарт в мощный инструмент для деловой обработки данных и выпустила обширную линию специализированного оборудования для их записи. К 1950 году технология IBM стала вездесущей в промышленности и правительстве. Во многих компьютерных решениях перфокарты использовались до (и после) конца 1970-х. 1835—1900-е: Первые программируемые машины
В 1835 году Чарльз Бэббидж описал свою аналитическую машину. Это был проект компьютера общего назначения, с применением перфокарт в качестве носителя входных данных и программы, а также парового двигателя в качестве источника энергии. Одной из ключевых идей было использование шестерней для выполнения математических функций. По стопам Бэббиджа, хотя и не зная о его более ранних работах, шёл Percy Ludgate, бухгалтер из Дублина [Ирландия]. Он независимо спроектировал программируемый механический компьютер, который он описал в работе, изданной в 1909 году.
1930-е—1960-е:настольные калькуляторы
Арифмометр «Феликс» — самый распространённый в СССР. Выпускался в 1929—1978 гг
В 1948 году появился Curta — небольшой механический калькулятор, который можно было держать в одной руке. В 1950-х — 1960-х годах на западном рынке появилось несколько марок подобных устройств. Первым полностью электронным настольным калькулятором был британский ANITA Мк. VII, который использовал дисплей на трубках «Nixie» и 177 миниатюрных тиратроновых трубок. В июне 1963 года Friden представил EC-130 с четырьмя функциями. Он был полностью на транзисторах, имел 13-цифровое разрешение на 5-дюймовой электронно-лучевой трубке, и представлялся фирмой на рынке калькуляторов по цене 2200 $. В модель EC 132 были добавлены функция вычисления квадратного корня и обратные функции. В 1965 году Wang Laboratories произвёл LOCI-2, настольный калькулятор на транзисторах с 10 цифрами, который использовал дисплей на трубках «Nixie» и мог вычислять логарифмы.