Автор работы: Пользователь скрыл имя, 31 Марта 2013 в 01:23, шпаргалка
1. Информатизация общества — организованный социально - экономический и научно-технический процесс создания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, органов государственной власти, органов местного самоуправления, организаций, общественных объединений на основе формирования и использования информационных ресурсов.
48. Компьютерный вирус - это небольшая программа, написанная программистом высокой квалификации, способная к саморазмножению и выполнению разных деструктивных действий. На сегодняшний день известно свыше 50 тыс. компьютерных вирусов.
В любом случае основной задачей ИС является удовлетворение конкретных информационных потребностей в рамках конкретной предметной области. Современные ИС де-факто немыслимы без использования баз данных и СУБД, поэтому термин «информационная система» на практике сливается по смыслу с термином «система баз данных».
В идеале в рамках предприятия
должна функционировать единая корпора
4.
Классификация мер. Для измерения информации вводятся два параметра: количество информации I и объем данных Vд.
Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис.2.1).
Рис.2.1. Меры информации
Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:
в двоичной системе
счисления единица измерения
– бит (bit – binary digit – двоичный разряд).
В современных ЭВМ наряду с
минимальной единицей измерения
данных «бит» широко используется укрупненные
единицы измерения байт – 23 бит,
слово – 24 бит, двойное слово 25 бит,
килобайт – 210 байт; мегабайт – 210 килобайт,
гигабайт – 210 мегабайт;
в десятичной системе счисления единица
измерения – дит (десятичный разряд).
Пример 2.3. Сообщение в двоичной системе
в виде восьмиразрядного двоичного кода
10111011 имеет объем данных Vд = 8 бит.
Сообщение в десятичной системе в виде шестиразрядного числа 275903 имеет объем данных Vд= 6 дит.
Количество информации
I на синтаксическом уровне определяется
в связи с понятием неопределенности
состояния системы (энтропии системы).
Считается что получение
Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a. Мерой его неосведомленности о системе является функция H(a), которая в то же время служит и мерой неопределенности состояния системы.
После получения
некоторого сообщения b получатель приобрел
некоторую дополнительную информацию
, уменьшившую его априорную
Тогда количество информации о системе, полученной в сообщении b, определится как
т.е. мерой количества информации изменение (уменьшение) неопределенности состояния системы.
Если конечная неопределенность обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации . Иными словами, энтропия системы H(a) может рассматриваться как мера недостающей информации.
Энтропия системы H(a), имеющая N возможных состояний, согласно формуле Шеннона, равна:
H(a)= -,
где – вероятность того, что система находится в i-м состоянии.
Часто данные кодируются числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и тоже количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения
,
где N- число всевозможных отображаемых состояний;
m- основание системы
счисления (разнообразие
n- число разрядов (символов) в сообщении.
Пример 2.4. По каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет , то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет формула Хартли. Если в качестве основания логарифма принять m, то I=n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных , полученных по каналу связи. Для не равновероятных состояний системы всегда .
Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.
Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.
, причем 0<Y<1.
С увеличением Y уменьшаются работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.
Семантическая мера
информации. Для измерения смыслового
содержания информации, т.е. ее количества
на семантическом уровне, наибольшее
признание получила тезаурусная
мера, которая связывает
Тезаурус- это совокупность сведений, которыми располагает пользователь или система.
В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.
Максимальное количество семантической информации Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения. Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.
Относительной мерой
количества семантической информации
может служить коэффициент
Прагматическая
мера информации. Эта мера определяет
полезность информации (ценность) для
достижения пользователем поставленной
цели. Эта мера также величина относительная,
обусловленная особенностями
Пример 2.5. В технической
системе прагматические свойства (ценность)
информации можно определить улучшением
показателей качества функционирования,
достигнутым благодаря
Ihb(g) = П(g/b) – П(g)
где Ihb(g) – ценность информационного сообщения b для системы управления g,
П(g) – априорный ожидаемый эффект функционирования системы управления g,
П(g/b) – ожидаемый эффект функционирования системы g при условии, что для управления будет использована информация, содержащаяся в сообщении b.
Для сопоставления введенные меры информации представим в таб.2.1
Таблица 2.1. Единицы измерения информации
Меры информации
Единицы измерения Примеры
(для компьютерной области)
Синтаксическая:
Шенноновский подход
компьютерный подход
Степень уменьшения
неопределенности
Единицы представления информации
Вероятность события
Бит, байт, Кбайт и т.д.
Семантическая Тезаурус
Технические показатели
Пакет прикладных программ,
персональный компьютер, компьютерные
сети и т.д.
мощность, производительность, надежность
Прагматическая
Ценность использования Емкость
памяти, производительность компьютера,
скорость передачи данных и т.д.
Денежное выражение,
Время обработки информации и принятия решений
Система счисле́ния — символический мет
Система счисления:
Системы счисления подразделяются
на позиционные, непозиционные
При передаче информации происходит кодирование информации, и мы должны договориться о том, как понимать те или иные обозначения.
Человек выражает свои мысли словами.
Они являются алфавитным представлением
информации. На уроках физики при рассмотрении
какого-либо явления мы используем
формулы. В этом случае говорят о
языке алгебры. Формула - это математический
код. Существует язык глухонемых, где
символы - мимика и жесты; язык музыки,
где символы - ноты и т.д.
Основу любого языка составляет алфавит
- конечный набор различных символов, из
кото-рых складывается сообщение.
Одна и та же запись может нести разную
смысловую нагрузку. Например, набор цифр
251299 может обозначать: массу объекта; длину
объекта; расстояние между объектами;
номер телефона; дату 25 декабря 1999 года.
Эти примеры говорят, что для представления
информации могут использоваться разные
коды, и поэтому надо знать законы записи
этих кодов, т.е. уметь кодировать.
Код - набор условных обозначений для представления
информации. Кодирование - процесс представления
информации в виде кода. Кодирование сводится
к использованию совокупности символов
по строго определенным правилам. При
переходе улицы мы встречаемся с кодированием
информации в виде сигналов светофора.
Водитель передает сигнал с помощью гудка
или миганием фар. Кодировать инфор-мацию
можно устно, письменно, жестами или сигналами
любой другой природы. По мере разви-тия
техники появились разные способы кодирования
информации. Во второй половине XIX века
американский изобретатель Морзе изобрел
удивительный код, который служит человечеству
до сих пор.
В качестве источников информации может
выступать человек, техническое устройство,
предметы, объекты живой и неживой природы.
Получателей сообщения может быть несколько
или один.
В процессе обмена информацией мы совершаем
две операции: кодирование и декодирование.
При кодировании происходит переход от
исходной формы представления информации
в форму, удобную для хранения, передачи
или обработки, а при декодировании - в
обратном направлении.
Любая информация (числовая, текстовая, звуковая, графическая и т.д.) в компьютере представляется (кодируется) в так называемой двоичной форме. Как оперативная, так и внешняя память, где и хранится вся информация, могут рассматриваться, как достаточно длинные последовательности из нулей и единиц. Под внешней памятью подразумеваются такие носители информации, как магнитные и оптические диски, ленты и т.п.
Единицей измерения информации является бит (BInary digiT) -- именно такое количество информации содержится в ответе на вопрос: нуль или один? Более крупными единицами измерения информации являются байт, килобайт (Kbyte), мегабайт (Mbyte), гигабайт (Gbyte) и терабайт (Tbyte). Один байт (byte) состоит из восьми бит, а каждая последующая величина больше предыдущей в 1024 раза.
Байта достаточно для хранения 256 различных значений, что позволяет размещать в нем любой из алфавитно-цифровых символов, если только мы можем ограничиться языками с небольшими алфавитами типа русского или английского. Первые 128 символов (занимающие семь младших бит) стандартизированы с помощью кодировки ASCII (American Standart Code for Information Interchange). Хуже обстоит дело с кодировками русского текста (символы русского алфавита расположены во второй половине таблицы из 256 символов) -- их несколько, а наиболее распространенные из них сейчас две -- Windows-1251 и KOI8-R.
Для кодирования всех возможных символов, используемых народами мира, одного байта мало -- необходимо использовать два последовательных (стандарт Unicode). Именно так и поступают при хранении символьных (char) значений в языке Java.
6. Персональный компьютер (ПК) предназначен для хранения и переработки информации. Информация может представлять собой текст, таблицы, рисунки, фотографии, звукозаписи и т. п. Информация хранится и обрабатывается в цифровом виде. Единица измерения информации - байт. Один байт (1б) соответствует примерно одному символу текста. Для удобства введены также более крупные единицы измерения информации: килобайт (Кб), мегабайт (Мб), гигабайт (Гб).
Современный ПК включает в себя следующие элементы:
Кроме перечисленных, в состав ПК могут входить модем или факс-модем, плоттер, устройства воспроизведения и записи звука и некоторые другие устройства.
Системный блок
В
системном блоке размещаются
основные устройства ПК, осуществляющие
переработку и хранение информации.
Непосредственно переработку