Введение в информатику

Автор работы: Пользователь скрыл имя, 21 Января 2013 в 14:26, лекция

Описание работы

Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".
Широко распространён также англоязычный вариант этого термина — "Сomputer science", что означает буквально "компьютерная наука".

Файлы: 1 файл

Lekciya 1.doc

— 117.00 Кб (Скачать файл)

Лекция 1. Введение в информатику 

1.1. Что такое  инфоpматика?

Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".

Широко распространён также англоязычный вариант этого термина — "Сomputer science", что означает буквально "компьютерная наука".

Инфоpматика — это  основанная на использовании компьютерной техники дисциплина, изучающая структуру  и общие свойства информации, а  также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.


В 1978 году международный  научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации — массового внедрения компьютерной техники во все области жизни людей.

Таким образом, информатика  базируется на компьютерной технике  и немыслима без нее.

Инфоpматика — научная  дисциплина с широчайшим диапазоном применения. Её основные направления:

  • pазpаботка вычислительных систем и пpогpаммного обеспечения;
  • теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;
  • методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);
  • системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;
  • методы машинной графики, анимации, средства мультимедиа;
  • средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;
  • разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

Информатику обычно представляют состоящей из двух частей:

  • технические средства;
  • программные средства.

Технические средства, то есть аппаратура компьютеров, в английском языке обозначаются словом Hardware, которое буквально переводится как "твёрдые изделия".

А для программных средств выбрано (а точнее, создано) очень удачное слово Software (буквально — "мягкие изделия"), которое подчёркивает равнозначность программного обеспечения и самой машины и вместе с тем подчёркивает способность программного обеспечения модифицироваться, приспосабливаться, развиваться.

Программное обеспечение — это совокупность всех программ, используемых компьютерами, а также вся область деятельности по их созданию и применению.


Помимо этих двух общепринятых ветвей информатики выделяют ещё  одну существенную ветвь — алгоритмические средства. Для неё российский академик А.А. Дородницин предложил название Brainware (от англ. brain — интеллект). Эта ветвь связана с разработкой алгоритмов и изучением методов и приёмов их построения.

Алгоритмы — это правила, предписывающие выполнение последовательностей действий, приводящих к решению задачи.


Нельзя приступить к программированию, не разработав предварительно алгоритм решения задачи.

Роль информатики в  развитии общества чрезвычайно велика. С ней связано начало революции  в области накопления, передачи и  обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни.

Рост производства компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д.

1.2. Что такое  информация?

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Информация — это  настолько общее и глубокое понятие, что его нельзя объяснить одной  фразой. В это слово вкладывается различный смысл в технике, науке  и в житейских ситуациях.

В обиходе информацией  называют любые данные или сведения, которые кого-либо интересуют.


Например, сообщение о  каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше".

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.


Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.


В случаях, когда говорят  об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией  понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.


Более развёрнутое представление  о существе рассматриваемых вопросов дается в [11, 41, 42].

1.3. В каком  виде существует информация?

Информация может существовать в самых разнообразных формах:

  • в виде текстов, рисунков, чертежей, фотографий;
  • в виде световых или звуковых сигналов;
  • в виде радиоволн;
  • в виде электрических и нервных импульсов;
  • в виде магнитных записей;
  • в виде жестов и мимики;
  • в виде запахов и вкусовых ощущений;
  • в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Предметы, процессы, явления  материального или нематериального  свойства, рассматриваемые с точки  зрения их информационных свойств, называются информационными объектами.

1.4. Как передаётся  информация?

Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.  
 

 

канал связи

 

ИСТОЧНИК

———————————®

ПРИЁМНИК


Примеры:

  1. сообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора;
  2. живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

1.5. Как измеряется  количество информации?

Какое количество информации содержится, к примеру, в тексте романа "Война и мир", в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод:

В определенных, весьма широких  условиях можно пренебречь качественными  особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.


В настоящее время  получили распространение подходы  к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли: I = log2N.


Допустим, нужно угадать  одно число из набора чисел от единицы  до ста. По формуле Хартли можно вычислить, какое количество информации для  этого требуется: I = log2100 » 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Приведем другие примеры равновероятных сообщений:

  1. при бросании монеты: "выпала решка", "выпал орел";
  2. на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ), 
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.


Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы  информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.  
 
А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Информация о работе Введение в информатику