Энтропия. Теория информации
Другие рефераты
Содержание.
Введение.
1. Что измерил Клод Шеннон?
2. Пределы эволюционной изменчивости информационных систем.
3. Ограниченность адаптации биологических видов.
4. Этапы развития теории энтропии.
5. Методы исчисления количества структурной информации и информационной
энтропии текстов.
6. Информационно-энтропийные соотношения процессов адаптации и развития.
7. Информация и энергия.
8. Заключение.
9. Список литературы.
ВВЕДЕНИЕ
Во второй половине XX века произошли два события, которые, на наш
взгляд, в значительной мере определяют дальнейшие пути научного постижения
мира. Речь идет о создании теории информации и о начале исследований
механизмов антиэнтропийных процессов, для изучения которых синергетика
привлекает все новейшие достижения неравновесной термодинамики, теории
информации и общей теории систем.
Принципиальное отличие данного этапа развития науки от предшествующих
этапов заключается в том, что до создания перечисленных направлений
исследований наука способна была объяснить лишь механизмы процессов,
приводящих к увеличению хаоса и возрастанию энтропии. Что касается
разрабатываемых со времен Ламарка и Дарвина биологических и эволюционных
концепций, то они и по сей день не имеют строгих научных обоснований и
противоречат Второму началу термодинамики, согласно которому сопровождающее
все протекающие в мире процессы возрастание энтропии есть непременный
физический закон.
Заслуга неравновесной термодинамики заключается в том, что она сумела
выявить механизмы антиэнтропийных процессов, не противоречащих Второму
началу термодинамики, поскольку локальное уменьшение энтропии внутри
самоорганизующейся системы всегда оплачивается большим по абсолютной
величине возрастанием энтропии внешней среды.
Важнейшим шагом на пути постижения природы и механизмов
антиэнтропийных процессов следует введение количественной меры информации.
Первоначально эта мера предназначалась лишь для решения сугубо прикладных
задач техники связи. Однако последующие исследования в области физики и
биологии позволили выявить универсальные меры, предложенные К.Шенноном,
позволяющие установить взаимосвязь между количеством информации и
физической энтропией и в конечном счете определить сущность новой научной
интерпретации понятия «информация» как меры структурной упорядоченности
самых разнообразных по своей природе систем .
Используя метафору, можно сказать, что до введения в науку единой
информационной количественной меры представленный в естественно-научных
понятиях мир как бы «опирался на двух китов»: энергию и вещество. «Третьим
китом» оказалась теперь информация, участвующая во всех протекающих в мире
процессах, начиная от микрочастиц, атомов и молекул и кончая
функционированием сложнейших биологических и социальных систем.
Естественно, возникает вопрос: подтверждают или опровергают
эволюционную парадигму происхождения жизни и биологических видов новейшие
данные современной науки?
Для ответа на этот вопрос необходимо прежде всего уяснить, какие
именно свойства и стороны многогранного понятия «информация» отражает та
количественная мера, которую ввел в науку К.Шеннон.
Использование меры количества информации позволяет анализировать
общие механизмы информационно-энтропийных взаимодействий, лежащих в основе
всех самопроизвольно протекающих в окружающем мире процессов накопления
информации, которые приводят к самоорганизации структуры систем.
Вместе с тем информационно-энтропийный анализ позволяет выявить и
пробелы эволюционных концепций, представляющих собой не более чем
несостоятельные попытки сведения к простым механизмам самоорганизации
проблему происхождения жизни и биологических видов без учета того
обстоятельства, что системы такого уровня сложности могут быть созданы лишь
на основе той информации, которая изначально заложена в предшествующий их
сотворению план.
Проводимые современной наукой исследования свойств информационных
систем дают все основания утверждать, что все системы могут формироваться
только согласно спускаемым с верхних иерархических уровней правилами,
причем сами эти правила существовали раньше самих систем в форме
изначального плана (идеи творения).
ЧТО ИЗМЕРИЛ КЛОД ШЕННОН?
В основу теории информации положен предложенный К.Шенноном метод
исчислений количества новой (непредсказуемой) и избыточной (предсказуемой)
информации, содержащейся в сообщениях, передаваемых по каналам технической
связи.
Предложенный Шенноном метод измерения количества информации оказался
настолько универсальным, что его применение не ограничивается теперь узкими
рамками чисто технических приложений.
Вопреки мнению самого К.Шеннона, предостерегавшего ученых против
поспешного распространения предложенного им метода за пределы прикладных
задач техники связи, этот метод стал находить все более широкое примение в
исследованиях и физических, и биологических, и социальных систем .
Ключом к новому пониманию сущности феномена информации и механизма
информационных процессов послужила установленная Л.Бриллюэном взаимосвязь
информации и физической энтропии. Эта взаимосвязь была первоначально
заложена в самый фундамент теории информации, поскольку для исчисления
количества информации Шеннон предложил использовать заимствованную из
статистической термодинамики вероятную функцию энтропии.
Многие ученые (начиная с самого К.Шеннона) склонны были рассматривать
такое заимствование как чисто формальный прием. Л.Бриллюэн показал, что
между вычисленным согласно Шеннону количеством информации и физической
энтропии существует не формальная, а содержательная связь.
В статистической физике с помощью вероятностной функции энтропии
исследуются процессы, приводящие к термодинамическому равновесию, при
котором все состояния молекул (их энергии, скорости) приближаются к
равновероятным, а энтропия при этом стремится к максимальной
величине.
Благодаря теории информации стало очевидно, что с помощью той же
самой функции можно исследовать и такие далекие от состояния максимальной
энтропии системы, как, например, письменный текст.
Еще один важный вывод заключается в том, что
с помощью вероятностной функции энтропии можно анализировать все
стадии перехода системы от состояния полного хаоса, которому
соответствуют равные значения вероятностей и максимальное значение
энтропии, к состоянию предельной упорядоченности (жесткой
детерминации), которому соответствует единственно возможное состояние
ее элементов.
Данный вывод оказывается в равной мере справедливым для таких
несходных по своей природе систем, как газы, кристаллы, письменные тексты,
биологические организмы или сообщества и др.
При этом, если для газа или кристалла при вычислении энтропии
сравнивается только микросостояние (т.е. состояние атомов и молекул) и
макросостояние этих систем (т.е. газа или кристалла как целого), то для
систем иной природы (биологических, интеллектуальных, социальных)
вычисление энтропии может производится на том или ином произвольно
выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой
системы и количество информации, характеризующей степень упорядоченности
данной системы и равное разности между максимальным и реальным значением
энтропии, будет зависеть от распределения вероятности состояний элементов
нижележащего уровня, т.е. тех элементов, которые в своей совокупности
образуют эти системы.
Другими словами,
количество сохраняемой в структуре системы информации пропорционально
степени отклонения системы от состояния равновесия, обусловленного
сохраняемым в структуре системы порядком.
Сам того не подозревая, Шеннон вооружил науку универсальной мерой,
пригодной в принципе (при условии выявления значенй всех вероятностей) для
оценки степени упорядоченности всех существующих в мире систем.
Опредеделив введенную Шеноном информационную меру как меру
упорядоченности движения, можно установить взаимосвязь информации и
энергии, считая энергию мерой интенсивности движения. При этом
количество сохраняемой в структуре систем информации пропорционально
суммарной энергии внутренних связей этих систем.
Одновременно с выявлением общих свойств информации как феномена
обнаруживаются и принципиальные различия относящихся к различным уровням
сложности информационных систем.
Так, например, все физические объекты, в отличие от биологических, не
обладают специальными органами памяти, перекодировки поступающих из
внешнего мира сигналов, информационными каналами связи. Хранимая в них
информация как бы «размазана» по всей их структуре. Вместе с тем, если бы
кристаллы не способны были сохранять информацию в определяющих их
упорядоченность внутренних связях, не было бы возможности создавать
искусственную память и предназначенные для обработки информации технические
устройства на основе кристаллических структур.
Вместе с тем необходимо учитывать, что создание подобных устройств
стало возможным лишь благодаря разуму человека, сумевшего использовать
элементарные инфор
| | скачать работу |
Другие рефераты
|