Автор работы: Пользователь скрыл имя, 07 Апреля 2012 в 23:58, реферат
Целью данной работы является изучение роли энтропии и информации для живого организма. Поставленная цель ставит решение следующих задач:
1) рассмотрения понятия энтропии,
2) определение взаимосвязи информации и энтропии,
3) изучение энтропии для оценки состояния организма человека,
4) исследования жизни и энтропии,
Введение 3
1. Понятие и сущность энтропии 4
2. Этапы развития теории энтропологии………………………………………..7
3.Информация и энтропия 10
4. Энтропия для оценки состояния организма человека 16
5. Жизнь и энтропия 18
6. Роль энтропии и информации для живого организма 23
Заключение 31
Список литературы 32
Очевидно, есть потребность в осмыслении энтропии и для биологического уровня организации. Если термин энтропия занят классической термодинамикой, то для более высоких уровней организации лучше использовать другие термины, например, устойчивость.
6. Роль энтропии и информации для живого организма
Рассмотрим теперь вопрос о роли информации для живого организма, которая также является важным фактором его эволюции. И.И. Шмальгаузен был одним из первых, кто обратил внимание на связь информации с энтропией и развил информационный подход к теоретической биологии. Он же установил, что процесс получения, передачи и обработки информации в живых организмах должен подчиняться известному нам принципу оптимальности. Применительно к живым организмам можно считать, что «информация - это запомненный выбор возможных состояний». Такой подход к информации означает, что возникновение и передача ее живой системе - это процесс организации этих состояний и, следовательно, может происходить и процесс самоорганизации. Мы уже знаем, что эти процессы для живой системы могут приводить к ее упорядочению и, следовательно, уменьшению энтропии.
Напомним, что энтропия также может считаться биологическим критерием оптимальности и служит мерой свободы системы: чем больше состояний доступно системе. тем больше энтропия. Если состояния имеют разные вероятности, то
где - вероятность i-го состояния, w - число состояний.
Если же состояния все одинаковы, то и
Энтропия максимальна именно при равномерном распределении вероятности, которое тем самым и не может привести к развитию. Всякое отклонение от равномерности приводит к уменьшению энтропии. Энтропию можно определить как логарифм фазового пространства. Заметим также, что экстремальный принцип энтропии позволяет находить устойчивое состояние системы.
Чем больше у живой системы информации о внутренних и внешних изменениях, тем больше у нее возможностей изменить свое состояние за счет обмена веществ, поведенческих реакций или адаптации к полученному сигналу. Например, резкий выброс адреналина в кровь в стрессовых ситуациях, покраснение лица у человека, повышение температуры тела и т.д. Полученная организмом информация так же, как энтропия, влияет на процессы ее организации. Общее состояние системы, ее устойчивость (гомеостаз в биологии как постоянство структуры и функций) будет зависеть от соотношения энтропия - информация. Для идеальных закрытых систем с учетом закона сохранения субстанций можно записать
где S - энтропия, а I - количество информации.
Количество информации, необходимой для реализации состояния, можно также выразить через вероятность. Мерой информации I, по К. Шеннону, является соотношение
где w - число возможных состояний, P - вероятность события.
Сравнивая формулы мы видим, что если возрастает количество информации в системе, то уменьшается ее энтропия, и наоборот. Впоследствии выяснилось, что в кибернетике, как науке об управлении процессами в неживой и живой природе, имеет смысл не просто количество информации, а ее ценность.[6.с]
Полезный информативный сигнал должен выделиться из информационного шума. А шум - это максимальное количество равновесных состояний, т.е. максимум энтропии. Поэтому минимум энтропии соответствует максимуму информации. И отбор информации из шума - это процесс рождения порядка из хаоса. Так же, как уменьшение однообразия (появление белой вороны в стае черных) будет означать уменьшение энтропии, но повышение информативности о такой системе (стае). За получение информации нужно «платить» увеличением энтропии.
Примером из неживой природы может служить образование упорядоченного кристалла из расплава. При этом энтропия образовавшегося кристалла уменьшается, но возрастает информация о расположении атомов в узлах кристаллической решетки. Как можно заметить, объем информации комплементарен объему энтропии, конкретнее обратно пропорционален ей, и поэтому информационный подход не дает нам больше, чем термодинамический. Необходимо учитывать кинетику образования диссипативных структур и ценность информации. Ценность информации как ее качество можно определить из соотношения
где и P - вероятности достижения какой-то цели до и после получения информации.
Информация обычно выражается в битах, бит - единица измерения в двоичной системе счисления. Анализ формул показывает, что для простейшего случая двух вариантов вероятности выбора между этими двумя вариантами w = 2 и P = 1/2, тогда I = = 1 бит. Оказалось, что по информативности живой организм значительно превосходит современные ЭВМ (I порядка бит), клетка - бит, а в целом живой организм может содержать до мегабит информации. Для примера, наш алфавит, состоящий из 32 () букв, в упорядоченном тексте содержит информацию всего I = = 5 бит.
Говоря о сложности кибернетической системы, фон Нейман имел в виду число компонентов, образующих систему. В многокомпонентных системах эту сложность в ряде случаев труднее описать, чем изготовить такую систему. Сложность в битах определяется как минимальное число двоичных знаков, которые содержат всю информацию об объекте, достаточную для его воспроизведения. Однако понятие ценности информации шире понятия сложности и для живых организмов играет большую роль, чем усложнение системы, поскольку для них важнее не принцип возрастания сложности, а принцип возрастания ценности информации [ 1. c.69].
Одной из существенных особенностей живой системы является способность создавать новую информацию и отбирать наиболее ценную для него в процессе жизнедеятельности. Чем более ценная информация создается в системе и чем выше критерий ее отбора, тем выше стоит эта система на лестнице биологической эволюции. Поэтому наряду с другими рассмотренными признаками развития самоорганизующихся систем критерием биологической эволюции является возрастание ценности информации, рождающейся в системе и передаваемой затем живым организмом генетически следующим поколениям. Закономерности биологической эволюции в свете теории информации будут определяться тем, как реализуется в процессе развития живого принцип максимума информации и ее ценности. Следует заметить, что «эффект границы», привлекающий все живое, о котором мы уже говорили, подтверждается тем, что граница более информативна.
Выделение живым организмом полезной информации и экономичность ее хранения в виде отдельных признаков связаны с дискретностью получаемой информации, что помогает рационально ее отбирать и хранить. Такой кибернетический подход дает возможность представить память как многоуровневую структуру блоков информации, позволяет живому организму экономно перерабатывать информацию и самосовершенствоваться.
Кроме того, кибернетика позволяет применить общие принципы воздействия одной системы на другую через отрицательные и положительные связи. Это связано с тем, что независимо от иерархического уровня методология управления для живых и неживых объектов одна и та же: управляющий субъект, управляемый объект и система обратных связей. Принцип обратной связи широко используется в науке и технике, и мы в главе 1.7 уже обсуждали отрицательную обратную связь, ослабляющую внешнее воздействие на систему, и положительную, увеличивающую это воздействие. Первая - стабилизирует систему, вторая - развивает ее.
Применительно к живому это отражается в признаке доминанты А.А. Ухтомского: всякая деятельность организма имеет определенную устойчивость, он обладает инерционностью - на слабый аномальный для него стимул организм отвечает компенсирующей реакцией, усиливающей его основную деятельность. Организм сопротивляется внешнему воздействию. Здесь имеется аналогия с известным принципом Ле Шателье, который для рассматриваемых самоорганизующихся систем состоит в том, что система, выведенная внешним воздействием из состояния с минимальным производством энтропии, стимулирует развитие процессов, направленных на ослабление внешнего воздействия.
Но сильный стимул для организма вызывает срыв регуляции и переключение на новую деятельность. В синергетике и физике - это переход на новый энергетический уровень («накачка» лазера и создание инверсной заселенности), создание неустойчивости, переход в новое неустойчивое равновесие и т.д. В биологии примером может служить лакающая молоко кошка: если ее слабо потянуть за хвост - лакание только усилится, если сильно, то она бросит свое занятие, мяукнет, да еще и цапнет. Этот же пример иллюстрирует и физиологический закон - все или ничего: возбудимый субъект или не реагирует, или реагирует с максимальной интенсивностью.
Поскольку информация и энтропия по смыслу противоположны, то нетрудно представить, что отрицательная энтропия (негэнтропия) и есть питательная для живого организма информация. Поэтому можно считать, что живое «питается» не отрицательной энтропией, а информацией. Пока мы получаем информацию и нуждаемся в ней - мы живем! Человек путем использования информации противостоит энтропийно-дезинтегрирующим факторам воздействия внешней среды и тем самым сохраняет свою структуру и равновесие. Можно сказать, что упорядоченность свойств живого достигается путем повышения получаемой информации. Для человека - путем повышения его знаний, образования и культуры. Более того, подпитка информацией, дающая ему саморазвитие, самообразование и самоорганизацию, удлиняет его жизнь! Личность достигает гармонического развития, когда, нравственно и образовательно совершенствуясь, она минимизирует энтропию. Больше информации - меньше энтропии!
Без выделения полезной информации из общего бесполезного шума («мыльных» опер, рекламы, глупых детективов - на бытовом уровне) не будет ни возможности управления собой, ни самого развития человека. Для того чтобы уменьшить вероятность разрушения полезной информации бесполезным шумом, нужна некоторая избыточность информации. Но так же, как и в случае слишком большей внешней энергии, большой уровень информации может привести к срыву регуляции организма, его структуры и функций. Как и во всем, нужна гармония [4 c.78].
Говоря о взаимоотношениях живого и информации, можно отметить также, что, по-видимому, существуют такая степень сложности живой системы и критическое значение параметров ее жизнедеятельности, при которых она порождает собственное информационное поле. Возможно, это позволяет провести некую границу, за которой система и становится живой. Таким образом, обмен живого организма энергией, веществом и информацией с окружающей средой приводит к внутренним структурным и функциональным изменениям, переходу из одного качественного состояния в другое. Организация функционирования в этом новом состоянии и определяет развитие организма как самоорганизующейся системы.
Подводя некоторый итог применения физических моделей и современных представлений к физике развивающихся систем, можно согласиться с Э. Шредингером, что «работа живого организма требует соблюдения точных физических законов».
В настоящее время есть все основания считать, что современная физика не встречается с границами своей применимости к рассмотрению биологических явлений. Как справедливо указывал М.В. Волькенштейн, «развитие биофизики как части современной физики свидетельствует о ее неограниченных возможностях. Приходится, конечно, вводить новые физические представления, но не новые принципы и законы». Понимание основных принципов эволюции как самоорганизации живых систем не требует новой физики. Необходимы лишь новые представления и подходы, связывающие теорию самоорганизации, неравновесную термодинамику и теорию информации, которые могут служить количественной основой молекулярной биологии и современной синтетической теории эволюции или универсального эволюционизма.
В физике живого можно объединить и синергетические, и квантово-механические принципы, можно также использовать представления о стационарности, стабильности, характерные для описания объектов классической и неклассической физики как физики бытия. А физика становления, физика возникающего применяет представления динамической устойчивости и стационарных неустойчивостей, принципов воспроизведения живых систем в процессе самоорганизации. Такой подход оказывается весьма эффективным при разработке физики живого. Он расширяет рамки описания и понимания живого, переходя от консервативных систем к диссипативным, от линейной динамики - к нелинейной, от равновесных состояний - к сильно неравновесным, от устойчивости как неизменности и неизбежности - к неустойчивостям и динамической устойчивости и т.д. Этим она и отличается от физики бытия. Тем самым снимаются жесткие разграничения в естественнонаучном описании живой и неживой природы, что свидетельствует о более адекватном понимании нами существующей реальности мира.
Заключение
Информация в кибернетическом смысле является чисто техническим понятием, позволяющим судить о наступившем событии только по его вероятности и независимо от его содержания. Однако, как будет показано ниже, информация может быть одной из фундаментальных характеристик нашего бытия. В этом случае информация, в отличие от гравитации, не может быть сведена к каким-либо более общим категориям как по определению, так и по своим проявлениям.
Энтропия - мера неупорядоченности больших систем. Впервые понятие "энтропия" введено в XIX в. в результате анализа работы тепловых машин, где энтропия характеризует ту часть энергии, которая рассеивается в пространстве, не совершая полезной работы (отсюда определение: энтропия - мера обесценивания энергии). Затем было установлено, что энтропия характеризует вероятность определенного состояния любой физической системы среди множества возможных ее состояний. В закрытых физических системах все самопроизвольные процессы направлены к достижению более вероятных состояний, т. е. к максимуму энтропии
Энтропия и информация оказываются совершенно разными по физическому смыслу и являются самостоятельными категориями. Первая, как и полагал Клаузиус, служит мерой рассеяния энергии, а вторая выражает уровень сложности или порядка структур и явлений любой природы.
Учитывая роль информации в определении энтропии, а следовательно и термодинамического состояния, мы определяем живой организм как открытую неравновесную информационно-
Информация о работе Роль энтропии и информации для живого организма