Муниципальное Бюджетное Общеобразовательное
Учреждение
«Средняя Общеобразовательная Школа
№34 с углубленным изучением отдельных
предметов»
Реферат на тему: «Синергетика
и информация»
Подготовил: ученик 8 «В» класса
Литвяков Виктор
Проверила: учитель информатики
и ИКТ
Калужских Елена Геннадьевна
Старый Оскол
2014-2015гг.
Содержание
- Введение………………………………………………………………….…….3
- Синергетика……………………………………………………………………3
- Синергетика В России…………………………………………….………4
- Информация……………………………………………………………………4
- Количество информации………………………………………………….4
- Ценность информации…………………………………………………….7
- Заключение…………………………………………………………………….9
- Введение
В последние годы наблюдается
стремительный и бурный рост интереса
к междисциплинарному направлению, получившему
название «синергетика». Издаются солидные
монографии, учебники, выходят сотни статей,
проводятся национальные и международные
конференции. Трудно или даже невозможно
назвать область знания, в которой сегодня
не проводились бы исследования под рубрикой
синергетики. Для публикаций на тему синергетики
характерно то, что в них нередко приводятся
авторские трактовки принципов синергетики,
причем трактовки довольно разнородные
и не всегда достаточно аргументированные.
Причиной этого является отсутствие достаточной
определенности относительно основоположений
синергетики и возникающей отсюда необходимости
уточнения статуса излагаемого материала.
- Синергетика
Синерге́тика (от др-греч. συν— приставка со
значением совместности и ἔργον «деятельность»),
или теория сложных систем
—междисциплинарное направление науки, изучающее общие закономерности
явлений и процессов в сложных неравновесных
системах (физических, химических,
биологических, экологических, социальных
и других) на основе присущих им принципов самоорганизации. Синергетика является
междисциплинарным подходом, поскольку
принципы, управляющие процессами самоорганизации,
представляются одними и теми же безотносительно
природы систем, и для их описания должен
быть приАвтором термина синергетика
является Ричард Бакминстер Фуллер —
известный дизайнер, архитектор и изобретатель
из США. Ч. Шеррингтон называл синергетическим,
или интегративным, согласованное воздействие
нервной системы (спинного мозга) при управлении
мышечными движениями. Убедившись на практике
исследований сложных систем в ограниченности
по отдельности как аналитического, так
и численного подхода к решению нелинейных
задач, И. Забуский в 1967 году пришёл к выводу
о необходимости единого «синергетического»
подхода, понимая под этим «…совместное
использование обычного анализа и численной
машинной математики для получения решений
разумно поставленных вопросов математического
и физического содержания системы уравнений».
Определение термина «синергетика», близкое
к современному пониманию, ввёл Герман
Хакен в 1977 году в своей книге «Синергетика».годен
общий математический
аппарат.
- Синергетика
в России
Концептуальный вклад
в развитие синергетики внёс академик
Н. Н. Моисеев — идеи универсального эволюционизма
и коэволюции человека и природы.
Математический аппарат
теории катастроф, пригодный для описания
многих процессов самоорганизации, разработан
российским математиком В. И. Арнольдом
и французским математиком Рене Томом.
В рамках школы академика
А. А. Самарского и члена-корреспондента
РАН С. П. Курдюмова разработана теория
самоорганизации на базе математических
моделей и вычислительного эксперимента
(включая теорию развития в режиме с обострением).
Синергетический подход
в биофизике развивается в трудах членов-корреспондентов
РАН М. В. Волькенштейна и Д. С. Чернавского.
Синергетический подход
в теоретической истории (историческая
математика) с подразделами клиодинамика
и клиометрика, развивается в работах
Д. С. Чернавского, Г. Г. Малинецкого, Л.
И. Бородкина, С. П. Капицы, А. В. Коротаева,
С. Ю. Малкова, П. В. Турчина, А. П. Назаретяна
и др.
Приложения синергетики
распределились между различными направлениями:
теория динамического хаоса исследует
сверхсложную, скрытую упорядоченность
поведения наблюдаемой системы; напр.
явление турбулентности; теория фракталов
занимается изучением сложных самоподобных
структур, часто возникающих в результате
самоорганизации. Сам процесс самоорганизации
также может быть фрактальным; теория
катастроф исследует поведение самоорганизующихся
систем в терминах бифуркация, аттрактор,
неустойчивость; лингвистическая синергетика
и прогностика (труды профессора Р. Г. Пиотровского
и его учеников и последователей семантическая
синергетика.
- Информация
Информация — сведения, воспринимаемые человеком
или специальными устройствами как отражение
фактов материального мира в процессе
коммуникации.
3.1 Количество информации
Эта величина была
введена в 1948 году Клодом Шенноном на примере
текстового сообщения. Количество информации
в сообщении содержащем N символов IN, по
Шеннону равно;
(1.1)
где M - число
букв в алфавите, pi - частота встречаемости
i-ой буквы в языке, на котором написано
сообщение, знак " - " перед всей правой
частью формулы (1.2) поставлен для того,
чтобы Ii была положительной, несмотря
на то, что logq pi < 0 ( pi < 1) . Двоичные логарифмы
выбраны для удобства. При однократном
бросании монеты М=2 ("орел" или "решка"),
N = 1 и pi =1/2. При этом получаем минимальное
количеств информации (I=1), которое называется
"бит". Иногда в используются натуральные
логарифмы. Тогда единица информации называется
"нат" и связана с битом соотношением:
1 бит = 1,44 ната. Приведенные формулы позволили
определять пропускную способность каналов
связи, что послужило основанием для улучшения
методов кодирования и декодирования
сообщений, выбора помехоустойчивых кодов,
словом, для разработки основ теории связи.
В этом примере текст можно рассматривать
как результат выбора определенного варианта
расстановки букв. В общем случае, когда
делается выбор одного варианта из n возможных
(реализующихся с априорной вероятностью
pi i=1,2,...n), количество информации выражается
формулой:
; где i=1,2, ... n. |
(1.2) |
Если все варианты равновероятны,
то есть pi =1/n , то: I= log2 n. В частном случае
сообщения из N букв из бинарного алфавита
(М=2) число вариантов равно: n = 2N , количество
информации I= N, что совпадает с формулой
(1.1). На этом примере удобно пояснить, что
означает слово "равноправные" в
определении (Q). Представим, что в тексте
имеются символы, которые в алфавите вообще
не содержатся (не "буквы"). Априорная
вероятность такового считается очень
малой (pn+1 << 1/n) и в сумме (1,2) не учитывается,
поскольку он выпадает из рассматриваемого
множества. Отметим, что формула (1,2) отражает
количество информации, но не ценность
её. Поясним это на примере. Количество
информации в сообщении, определяемое
формулой Шеннона, не зависит от того или
иного сочетания букв: можно сделать сообщение
бессмысленным, переставив буквы. В этом
случае ценность информации исчезнет,
а количество информации останется прежним.
Из этого примера следует, что подменять
определение информации (с учетом всех
её качеств) определением количества информации
нельзя. Исторически сложилось так, что
определение количества информации было
предложено раньше, чем определение самой
информации. Для решения ряда практических
задач это было полезно. Однако, в дальнейшем
подмена понятий часто приводила к недоразумениям.
Обсудим в связи с количеством информации
ещё два понятия: "Информационная тара"
(термин введен В.И. Корогодиным) и "Информационная
ёмкость". Первый связан с мощностью
множества, из которого выбираются варианты.
Второй используется для физических систем,
способных хранить информацию. По смыслу
они близки друг другу.
Поясним смысл их на примере
текста. Если любое сочетание букв в тексте
является ценным, то количество ценной
информации совпадает с полным количеством,
но не может превышать его. Это значит,
что любая передача сигналов и/или запоминающее
устройство может содержать какое то количество
ценной (или осмысленной) информации (не
больше, чем (1,2) но может содержать и меньшее
или не содержать вовсе. В этой связи количество
информации в (1,2) можно назвать информационной
тарой. Это понятие играет существенную
роль при рецепции информации и/или при
обработке её (в частности при перекодировке).
Приведем пример. Имеется текст на русском
языке, содержащий Nr букв кириллицы (алфавит
содержит 32 буквы). Перевод его на английский
содержит Na букв латинского алфавита (26
букв). Русский текст - результат выбора
определенного варианта из nr возможных
(число вариантов порядка 32 в степени Nr
). Английский перевод - выбор определенного
расположения латинских букв, который
предопределен русским текстом (рецепция
информации). Число вариантов в английском
текста порядка 26 в степени Na Количество
ценной информации одинаково (если смысл
не искажен), а количество информации различно.
Ниже, на примерах мы увидим, что процессы
генерации, рецепции и обработки ценной
информации сопровождаются "переливанием"
информации из одной тары в другую. При
этом, как правило. количество информации
уменьшается, но количество ценной информации
сохраняется. Иногда "информационные
тары" столь различны, что можно говорить
об информациях разного типа. Этот термин
мы также будем применять к информациям,
имеющим одинаковый смысл и ценность,
но сильно различающихся количественно,
то есть помещенных в разные тары. В заключение
раздела отметим, что сам Шеннон не разделял
понятия информация и количество информации,
хотя и чувствовал. что это к добру не приведет.
"Очень редко, - писал Шеннон, - удается
открыть одновременно несколько тайн
природы одним и тем же ключом. Здание
нашего несколько искусственно созданного
благополучия слишком легко может рухнуть,
как только в один прекрасный день окажется,
что при помощи нескольких магических
слов, таких как информация, энтропия,
избыточность... нельзя решить всех нерешенных
проблем".
3.2 Ценность
информации.
Ранее эпитеты «ценная», «осмысленная»
употреблялись без определения, в расчете
на интуицию. В действительности эти понятия
являются центральными в современной
информатике. Уместно сделать ряд замечаний.
Ценность информации зависит
от цели, которую преследует рецептор.
Известны несколько способов
количественного определения ценности.
Все они основаны на представлении о цели,
достижению которой способствует полученная
информация. Чем в большей мере информация
помогает достижению цели, тем более ценной
она считается.
1. Если цель наверняка
достижима и притом несколькими
путями, то возможно определение
ценности (V) по уменьшению материальных
или временных затрат, благодаря
использованию информации. Так, например,
сочетание хороших предметного и алфавитного
каталогов библиотеки, наличие библиографических
справочников сокращают время на составление
списка литературы по конкретному интересующему
нас вопросу.
Этот метод определения ценности
предложен Стратоновичем.
2. Если достижение цели
не обязательно, но вероятно, то
используется один из следующих
критериев:
а) мерой ценности, предложенной
М.М.Бонгартом и А.А.Харкевичем, является:
V = log2 (P/p),
(1.3)
где p — вероятность достижения
цели до получения информации, а P — после.
Априорная вероятность p зависит от информационной
тары или. что то-же, полного количества
информации I в (1,2): p = 2-I. Так, если до получения
информации все варианты равновероятны,
то p = 1/n (где: n — число вариантов, а I = log2
n). Апостериорная вероятность Р может
быть как больше, так и меньше р. В последнем
случае ценность отрицательна и такая
информация называется дезинформацией.
Примером последней может служить указатель
на разветвлении дорог, который по каким
то причинам повернут в другую сторону.
Таким образом вероятность Р находится
в пределах 0 < Р <1, и, соответственно,
— <V< Vmax
б) мерой ценности, предложенной
В.И.Корогодиным, является величина V=(P-p)/(1-p)
(1.4).
Она обладает теми же свойствами,
что ценность (1,3), но изменяется от 0 до 1.
Мы далее будем использовать ценность,
определенную в (1,4) поскольку оно удобнее
и более популярно. Согласно (1.3) ценность
информации зависит от величины p — вероятности
достижения цели до получения информации,
то есть, от того, какой предварительной
(априорной) информацией он уже располагает
рецептор. Предварительная осведомленность
называется тезаурусом. Если таковая отсутствует,
то априорная вероятность во всех вариантах
одинакова и равна p=1/n (где n — число вариантов).
В этом случае величина p играет роль нормировочного
множителя. Если при этом, после получения
информации цель достигается наверняка
(P=1), то ценность этой информации максимальна
и равна V= Vmax =log2 n, т.е. совпадает с максимальным
количеством информации в данном множестве
(в данной таре). Это совпадение не случайно,
именно для этого была выбрана форма (1.3),
при этом ценность информации можно понимать
как количество ценной информации.