Автор работы: Пользователь скрыл имя, 28 Октября 2013 в 13:18, контрольная работа
В любой науке основные понятия определить достаточно сложно. Так и понятие «информация» невозможно определить через другие, более «простые» понятия. В каждой науке оно связано с различными системами понятий. В зависимости от области знания существуют различные подходы к определению понятия «информация».
Впервые как научное понятие термин «информация» стал применяться в теории журналистики в 30-х годах ХХ века, хотя в исследованиях по библиотечному делу он появился еще раньше. Под информацией понимались различные сведения, сообщения. Что соответствует переводу с латинского языка informatio – сведение, разъяснение, ознакомление.
1 Меры и единицы количества и объема информации.
Формула Хартли. Формулы Шеннона.
1.1 Понятие информация
1.2 Свойства информации.
1.3 Виды (классификация) информации
1.4 Общая характеристика процессов сбора, передачи, обработки и накопления информации.
1.5 Количество информации: формулы Хартли и Шеннона.
2 Антивирусные программы. Назначение, классификация. Принцип работы. Базы антивирусов.
2.1 Определение антивирусная программа ( антивирус ).
2.2 Антивирусные программы, их назначение и классификация.
2.3 Принцип работы.
2.4 Основные базы данных антивирусов.
Министерство образования и науки Российской Федерации
Федеральное государственное
бюджетное образовательное
высшего профессионального образования
«Сибирский государственный индустриальный университет»
Кафедра прикладной информатики
КОНТРОЛЬНАЯ РАБОТА № 1
Вариант № 5
Выполнил:
Песков П. А.
Новокузнецк
2012
Содержание
1 Меры и единицы количества и объема информации.
Формула Хартли. Формулы Шеннона.
1.1 Понятие информация
1.2 Свойства информации.
1.3 Виды (классификация) информации
1.4 Общая характеристика процессов сбора, передачи, обработки и накопления информации.
1.5 Количество информации: формулы Хартли и Шеннона.
2 Антивирусные программы. Назначение, классификация. Принцип работы. Базы антивирусов.
2.1 Определение антивирусная программа ( антивирус ).
2.2 Антивирусные программы, их назначение и классификация.
2.3 Принцип работы.
2.4 Основные базы данных антивирусов.
1. Меры и
единицы количества и объема информации
Формула Хартли Формулы Шеннона
1.1 Понятие информации с точки зрения различных наук
В любой науке основные понятия определить достаточно сложно. Так и понятие «информация» невозможно определить через другие, более «простые» понятия. В каждой науке оно связано с различными системами понятий. В зависимости от области знания существуют различные подходы к определению понятия «информация».
Впервые как научное понятие термин «информация» стал применяться в теории журналистики в 30-х годах ХХ века, хотя в исследованиях по библиотечному делу он появился еще раньше. Под информацией понимались различные сведения, сообщения. Что соответствует переводу с латинского языка informatio – сведение, разъяснение, ознакомление.
В физике понятие информация рассматривается как антиэнтропия или энтропия с обратным знаком. Поскольку мерой беспорядка термодинамической системы является энтропия системы, то информация (антиэнтропия) является мерой упорядоченности и сложности системы.
В неживой природе понятие информация связано с понятием отражения, отображения. В некоторых физических и химических теориях информация определяется как отраженное многообразие.
Под информацией в технике понимают сообщение, передаваемое с помощью знаков и символов. В теории связи, например, под информацией принято понимать любую последовательность символов, не учитывая их смысл. В основанной американским ученым Клодом Шенноном математической теории информации под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность).
Понятие
информация используется в
Под информацией в документолистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.
В биологии, которая изучает живую природу, понятие «информация» связано с целесообразным поведением живых организмов. С точки зрения индивидуального человеческого сознания информация – это то, что поступает в наш мозг из многих источников в разных формах и, взаимодействуя там, образует структуру нашего знания.
Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами.
1.2 Свойства информации
Все знания об окружающем мире человек получает с помощью органов чувств. Насколько мы им можем доверять?
Информация нам нужна для того, чтобы принимать правильные решения. Поэтому необходимо, чтобы она обладала следующими свойствами или качественными признаками:
1. Объективность информации. Информация объективна, если она не зависит от чьего-либо мнения.
2. Достоверность. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной информация может быть по следующим причинам:
1) преднамеренное искажение (дезинформация);
2) искажение в результате действия помех;
3) когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи, рыбацкие истории).
3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решения. Неполная информация может привести к ошибочному выводу или решению. (Русская пословица «Недоученный хуже неученого»).
4. Актуальность (своевременность)
информации – важность, существенность
для настоящего времени. Неактуальной
может быть информация по двум причинам:
а) она может быть устаревшей (прошлогодняя
газета);
б) незначимой, ненужной (сообщение:
цены в Италии снижены на 5% ).
5. Ценность (полезность или бесполезность) информации оценивается применительно к задачам, которые можно решить с ее помощью. Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая. Самая достоверная информация не может быть новой.
6. Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя.
1.3 Виды ( классификация ) информации
Некоторые представления о разнообразии информации может дать следующее определение (энциклопедический словарь).
Информация – общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетки, от организма к организму. Из этого определения следует существование 4 видов информации:
1. социальная (человек-человек);
2. техническая (человек-автомат, автомат-автомат);
3. биологическая (информация в живом и растительном мире);
4. генетическая (передача признаков от клетки к клетке, от организма к организму).
Другие основания классификации информации:
· по способам и формам получения (восприятия);
· по характеру носителя;
· по характеру источника;
· по сфере применения;
· по общественному значению.
Около 90% всей информации человек получает при помощи органов зрения (визуальный), около 9% - при помощи органов слуха (аудиальный) и только около 1% - при помощи всех остальных органов чувств. Органы чувств получили название анализаторов, поскольку именно через это органы информация попадает в головной мозг.
Таблица 1 – Основные виды информации
информация | ||
по способу восприятия |
по форме представления |
по общественному значению |
Визуальная |
Текстовая |
Массовая: 1.обыденная; |
1.4
Общая характеристика
и накопления информации
Сбор информации – это процесс получения информации из внешнего мира и приведение ее к стандарту для данной информационной системы. Обмен информацией между воспринимающей ее системой и окружающей средой осуществляется посредством сигналов. Сигнал – средство передачи информации в пространстве и времени.
Передача информации осуществляется различными способами: с помощью курьера, пересылка по почте, доставка транспортными средствами, дистанционная передача по каналам связи. Для осуществления последней, необходимы специальные технические средства.
Преобразование (обработка) информации – внесение изменений в набор данных, вычисления, информационный поиск, сортировка, построение графиков и тому подобное.
В современных развитых информационных системах машинная обработка информации предполагает последовательно-параллельное во времени решение вычислительных задач. Это возможно при наличии определенной организации вычислительного процесса. Вычислительная задача по мере необходимости обращается с запросами в вычислительную систему. Организация процесса предполагает определение последовательности решения задач и реализацию вычислений.
Технология электронной обработки информации – человеко-машинный процесс исполнения взаимосвязанных операций, протекающих в установленной последовательности с целью преобразования исходной информации (первичной) в результатную. Операция представляет собой комплекс совершаемых технологических действий, в результате которых информация преобразуется. Технологические операции разнообразны по сложности, назначению, технике реализации, выполняются на различном оборудовании разными исполнителями.
Хранение и накопление информации вызвано многократным ее использованием, применением постоянной информации, необходимостью комплектации первичных данных до их обработки. Хранение осуществляется на машинных носителях в виде информационных массивов, где данные располагаются по установленному в процессе проектирования группировочному признаку.
1.5 Количество информации: формулы Хартли и Шеннона
Какое количество
информации содержится, к примеру, в
тексте романа "Война и мир",
во фресках Рафаэля или в
В теории информации
количеством информации называют числовую
характеристику сигнала, не зависящую
от его формы и содержания, и
характеризующую
В определенных,
весьма широких условиях можно пренебречь
качественными особенностями
Подходы к определению количества информации Формулы Хартли и Шеннона
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли: I = log2N |
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются.
Для задач такого рода американский учёный Клод Шеннон предложил в1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона : I = — ( p1log2 p1 +p2 log2 p2 + . . . + pN log2 pN ),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N cообщений.
Легко заметить, что если
вероятности p1, ..., pN равны, то каждая
из них
равна 1 / N, и формула Шеннона превращается
в формулу Хартли. Важно помнить, что любые
теоретические результаты применимы лишь
к определённому кругу случаев, очерченному
первоначальными допущениями.
В качестве единицы информации
Клод Шеннон предложил принять
один бит (англ. bit — binary digit — двоичная
цифра). Бит в теории информации — количество
информации, необходимое для различения
двух равновероятных сообщений (типа
"орел" —"решка", "чет"—"нечет"
и т.п.). В вычислительной технике битом
называют наименьшую "порцию" памяти
компьютера, необходимую для хранения
одного из двух знаков "0" и "1",
используемых для внутримашинного представления
данных и команд. Бит — слишком мелкая
единица измерения. На практике чаще применяется
более крупная единица — байт, равная
восьми битам. Именно восемь битов требуется
для того, чтобы закодировать любой из
256 символов алфавита клавиатуры компьютера
(256=28).
Информация о работе Меры и единицы количества и объема информации. Формула Хартли. Формулы Шеннона