Информация и её свойства

Автор работы: Пользователь скрыл имя, 30 Октября 2012 в 20:07, реферат

Описание работы

Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале, под словом “информация” подразумевали: “представление”, “понятие”, затем “сведения”, “передача сообщений”.
В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “мера определенности в сообщении”.
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам.

Содержание работы

Введение 3
Глава I. Теоретическая часть. Понятие информации и ее измерение. Количество и качество информации. Единицы измерения информации.
1.1. Понятие информации. 4
1.2. Представление информации. 5
1.3. Передача информации. 6
1.4. Количество и качество информации.
Измерение информации. 8
1.5. Единицы измерения информации. 12
1.6. Свойства информации. 13
1.7. Использование информации 15
Заключение. 16
Список использованной литературы. 17

Файлы: 1 файл

Реферат по информатике.docx

— 50.82 Кб (Скачать файл)

Федеральное государственное  образовательное бюджетное учреждение 
высшего профессионального образования «Сибирский государственный 
университет телекоммуникаций и информатики» 

 

 

ВАРИАНТ 2

По дисциплине: «Информатика»

Фамилия:

Имя:

Отчество:

Шифр:

Группа:

Контрольная работа поступила  в 
«____»__________________201__г.

Методист____________________

Дата рецензии «____»__________________201__г.

Оценка____________________________________

Подпись рецензента________________________

 

 

 

 

 

 

 

 

 

Екатеринбург 2012

 

Оглавление

Введение           3

Глава  I. Теоретическая часть. Понятие информации и ее измерение. Количество и качество информации. Единицы измерения информации. 
 1.1. Понятие информации.       4 
 1.2. Представление информации.      5 
 1.3. Передача информации.       6 
 1.4. Количество и качество информации.  
                 Измерение информации.       8 
 1.5. Единицы измерения информации.     12 
 1.6. Свойства информации.       13 
 1.7. Использование информации                        15

Заключение.          16

Список использованной литературы.      17

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введение

Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно  сужая свои границы. Вначале, под словом “информация” подразумевали: “представление”, “понятие”, затем “сведения”, “передача сообщений”.

В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком  эластично, расплывчато, и дали ему  такое значение: “мера определенности в сообщении”.

Теорию информации вызвали  к жизни потребности практики. Ее возникновение связывают с  работой Клода Шеннона “Математическая  теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций.

С этих точек зрения система  может быть самой совершенной  и экономичной. Но важно еще при  создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях.

 

 

 

 

 

 

 

 

Глава I. Теоретическая часть.

1.1. Понятие информации.

Информатика -  наука о законах и   методах   накопления, обработки и передачи информации.  В наиболее общем виде понятие информации можно выразить так:

Информация – совокупность сведений о различных процессах, явлениях, объектах, выраженных в сигналах, доступных для восприятия.

Принято говорить,  что  решение задачи на ЭВМ,  в результате чего создается  новая  информация, получается  путем вычислений.  Потребность в вычислениях связана  с решением задач: научных, инженерных, экономических, медицинских и прочих.

В обыденной жизни под  информацией понимают всякого рода сообщения,  сведения о чем-либо, которые передают и получают люди. Сами по себе речь,  текст, цифры - не информация. Они лишь носители  информации.  Информация  содержится в речи людей,  текстах книг,  колонках цифр,  в показаниях часов,  термометров  и других приборов.  Сообщения, сведения, т.е. информация, являются причиной увеличения знаний людей о реальном мире.  Значит, информация отражает нечто, присущее реальному миру, который познается  в процессе получения информации:  до момента получения информации что-то было неизвестно,  или, иначе, не определено, и благодаря информации  неопределенность была снята, уничтожена.

Рассмотрим пример. Пусть нам известен дом, в котором проживает наш знакомый,  а номер квартиры неизвестен.  В этом  случае местопребывание знакомого в какой-то степени не определено.  Если в доме всего две квартиры, степень неопределенности невелика. Но если в доме 300 квартир - неопределенность достаточно велика. Этот пример наталкивает на мысль,  что неопределенность связана с количеством возможностей,  т.е. с разнообразием ситуаций.  Чем больше разнообразие, тем больше неопределенность.

Информация, снимающая неопределенность, существует постольку,  поскольку  существует разнообразие.  Если нет  разнообразия, нет неопределенности, а, следовательно, нет и информации.

Итак, информация - это  отражение  разнообразия,  присущего объектам и явлениям реального мира.  И,  таким образом,  природа информации объективно связана с  разнообразием  мира,  и  именно разнообразие является источником информации.

1.2. Представление информации.

Информация может существовать в самых разнообразных формах:

  • в виде текстов, рисунков, чертежей, фотографий;
  • в виде световых или звуковых сигналов;
  • в виде радиоволн;
  • в виде электрических и нервных импульсов;
  • в виде магнитных записей;
  • в виде жестов и мимики;
  • в виде запахов и вкусовых ощущений;
  • в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Предметы, процессы, явления  материального или нематериального  свойства, рассматриваемые с точки  зрения их информационных свойств, называются информационными объектами.

 

1.3. Передача информации.

Всякое событие, всякое явление  служит источником информации.

Информация передаётся в  виде сообщений от некоторого источника  информации к её приёмнику посредством  канала связи между ними. Источник посылает передаваемое сообщение, которое  кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением. Передача информации по каналам связи  часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

Любое событие или явление  может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.

Информация не может существовать без материального носителя, без  передачи энергии. Закодированное сообщение  приобретает вид сигналов-носителей  информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный  вид.

С этой целью сигналы пробегают  декодирующее устройство, приобретая  форму, удобную для абонента. Система  связи сработала, цель достигнута. Когда  говорят о каналах связи, о  системах связи, чаще всего для примера  берут телеграф. Но каналы связи - понятие  очень широкое, включающее множество  всяких систем, самых разных.

Чтобы ясен был многоликий характер понятия “канал связи”, достаточно  привести несколько примеров.

При телефонной передаче источник сообщения - говорящий. Кодирующее  устройство, изменяющее звуки слов в электрические импульсы, - это  микрофон. Канал, по которому передается информация - телефонный  провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в “принимающее  устройство”-ухо человека на другом конце провода. А вот канал связи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах  связи направление передачи информации может меняться, а по нервной  системе передача идет в одном направлении.

Еще один пример - вычислительная машина. И здесь те же характерные  черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина -автоматическое  устройство для обработки информации, как станок - устройство  для обработки металла. Машина не создает из “ничего” информацию, она преобразует только то, что в нее введено.

 

                        Канал связи





 

 

Рис.1.Общая  схема передачи информации.

 

1.4. Количество и качество информации. Измерение информации.

Важнейшим этапом в теории развития информации явилась количественная оценка информации.

Количество  информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.

Какое количество информации содержится, к примеру, в тексте романа "Война и мир", в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

А возможно ли объективно измерить количество информации? Важнейшим результатом  теории информации является вывод:

В определенных, весьма широких  условиях можно пренебречь качественными  особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных. 

В настоящее время получили распространение подходы к определению  понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно  нестрого трактовать в смысле её новизны  или, иначе, уменьшения неопределённости наших знаний об объекте.

Так, американский инженер  Р. Хартли (1928 г.) процесс получения  информации рассматривает как выбор  одного сообщения из конечного наперёд  заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли: I = log2N. 

Допустим, нужно угадать  одно число из набора чисел от единицы  до ста. По формуле Хартли можно вычислить, какое количество информации для  этого требуется: I = log2 100 = 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Приведем другие примеры  равновероятных сообщений:

    • при бросании монеты: "выпала решка", "выпал орел";
    • на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком  именно здании идет речь. Если это, например, станция метро, то вероятность выйти  из дверей первым одинакова для мужчины  и женщины, а если это военная  казарма, то для мужчины эта вероятность  значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную  неодинаковую вероятность сообщений  в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ),

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. 

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных  подходов к определению количества информации, существуют и другие. Важно  помнить, что любые теоретические  результаты применимы лишь к определённому  кругу случаев, очерченному первоначальными  допущениями.

Немаловажным аспектом является качество информации.

Потребительские показатели качества информации:

- репрезентативность, содержательность, достаточность

- актуальность, своевременность,  точность

- достоверность, устойчивость

Репрезентативность связана  с адекватным отражением свойств объекта. Важнейшее значение здесь имеют:

- правильность концепции, на базе которой сформулировано исходное понятие;

- обоснованность отбора  существенных признаков и связей  отобра-жаемого явления.

Содержательность отражает семантическую емкость, равную отношению  количества семантической информации в сообщении к объему обрабатываемых данных, т.е. С= Ic / Vд. С увеличением содержательности информации растет семантическая пропускная способность информационной системы (для получения одних и тех же сведений требуется преобразовать меньший объем данных).

Достаточность (полнота) означает , что она содержит минимальный , но достаточный для принятия правильного решения состав (набор показа-телей).Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная ,т.е. недостаточная для принятия правильного решения, так и избыточная информация снижает эффективность принимаемых пользователем решений.

Информация о работе Информация и её свойства