Главная    Почта    Новости    Каталог    Одноклассники    Погода    Работа    Игры     Рефераты     Карты
  
по Казнету new!
по каталогу
в рефератах

Энтропия. Теория информации

ва  «спутник»
совпадает со структурой древних слов «соратник» и «соплеменник»,  внутренняя
и внешняя структура организма современного зайца повторяет структуру  зайца,
появившегося в результате акта творения на нашей Земле.
       Мутациям  могут  подвергаться  только  второстепенные   признаки,   а
основные  признаки  вида  остаются  неизменными,   подобно   тому,   как   в
приведенных   выше   примерах    словообразований    неизменными    остаются
определяющие смысловое значение каждого слова корни путь, племя и рать.  При
этом могут  меняться  второстепенные  признаки  слова  (префиксы,  суффиксы,
окончания),  превращая  путь  в   спутник,   попутчик,   путевой,   путевка,
распутица, беспутный, путеводный и т.п.
       Изначальный смысл слова путь при этом всюду останется  неизменным,  а
основанные на коренном слове словообразования могут приобретать те или  иные
оттенки в процессе последующей эволюции языка.
       Каждое новое  слово  подчиняется  правилам,  сохраняемым  на  высоких
иерархических  уровнях  информационно-энтропической  спирали  и  действующим
сверху вниз и на уровне слов, и на уровне букв.
       Подобным образом мог быть  сформирован  и  живой  организм.  Правила,
которым подчиняются все его согласованно  функционирующие  органы,  ткани  и
клетки, могли быть «сформулированы» только на самых  высоких,  не  доступных
нашему разуму уровнях информационно-энтропической спирали.

       Приведенная в таблице 1 «фраза», полученная в  результате  случайного
комбинирования  8-и   буквенных   сочетаний,   имеет   формальные   признаки
осмысленных фраз. В ней можно различить глагольные формы (враться),  наречия
(непо и корко), форму прилагательного (весел) и даже  уловить  некий  опенок
смысла (какого-то бодрого действия, движения).
       В свое время академик Щерба тоже  приводил  пример  формализированной
фразы,  из  которой  можно  было  бы  понять,  что   некая   Глокая   куздра
штекобуданула  (читай:  «оттолкнула»)  некого  «бокра»  и  кудрячит  (читай:
«приласкивает») бокренка. Означают ли две  рассмотренные  «фразы»,  что  при
движении снизу вверх по рассматриваемой нами спирали, можно путем  случайных
комбинаций букв и слогов получить осмысленный  текст?  Такой  вывод  был  бы
ошибочным. Формальное сходство  с  грамматическими  конструкциями  порождает
всего лишь иллюзию смысла, потому что не смысл рождается  из  грамматики,  а
грамматика строится таким образом, чтобы с ее помощью  можно  было  передать
(т.е. закодировать) содержащийся в той или иной фразе смысл.
       Таким образом, эти примеры еще раз  убеждают  нас  в  том,  что  план
построения сложной информационной  системы  может  формироваться  только  на
верхних иерархических уровнях и оттуда  спускаться  на  нижележащие  уровни,
задавая на них тот или иной порядок чередования элементов.
       Сказанное выше имеет  самое  непосредственное  отношение  к  проблеме
возникновения и функционирования биологических систем.
       Выше было отмечено, что проводимый на самом нижнем структурном уровне
текста  (на  уровне  отдельных  букв)  статистический  анализ  распределения
вероятностей букв и последующий  расчет  количества  информации  и  величины
энтропии способны регулировать лишь результирующую  упорядоченность  текста.
Причины  этой  упорядоченности  формируются  на  недоступных  информационно-
энтропийному анализу верхних иерархических уровнях текста и языка.
       Пытаясь преодолеть указанные ограничения возможностей информационно -
энтропийного анализа, К.Шеннон исследовал  вероятности  появления  в  тексте
различных  4-х,  6-ти  и  8-ми  буквенных  сочетаний.  Подставляя  найденные
значения вероятностей  в  вероятную  функцию  энтропии,  К.Шеннон  определил
таким образом величину энтропии с учетом взаимной  зависимости  (корреляции)
букв в пределах слогов, а  затем  экстраполировал  полученный  результат  на
более длительные текстовые отрезки, показав, что корреляция  не  выходит  за
пределы отрезков текста в 40-60 букв .
       Аналогичные результаты исследований русских  текстов  представлены  в
работе Добрушина (табл. 1).
       Используемый  теорией   информации   полуэмпирический   метод   учета
межбуквенных корреляций обладает  рядом  существенных  ограничений,  которые
становятся очевидными, если  сопоставить  результаты  анализа  искусственных
текстов  Шеннона  со  свойствами  реального  языка.  Дело  в  том,  что  при
искусственном расчленении текста на отрезки из 4-8 букв  стираются  границы,
разделяющие уровни слогов от уровней слов. В реальных текстах в  зависимости
от смыслового контекста и одна, и две,  и  три  буквы  могут  быть  в  одних
случаях самостоятельным словом, а в других – входить в состав других слов.
       Очевидно, что в двух указанных случаях рассматриваемые сочетания букв
относятся к различным иерархическим уровням текста (или  к  уровню  слогов),
однако  подобное  разграничение  уровней  может  осуществляться  только   по
смыслу,  который  заключает  в  себе  анализируемый   текст.   А   поскольку
используемые  теорией  информации  методы  игнорируют  смысловое  содержание
текста, исследуемые ею искусственные тексты отличаются от  реальных  текстов
отсутствием четкой иерархической структуры.
       Причины  возникновения  исследуемого  порядка  всегда   остаются   за
пределами компетенции статистических методов.  Находясь  как  бы  на  нижних
ступенях   некой   упорядоченной   иерархической   структуры,    вооруженная
статистическими  методами  наука  исследует  не  само  действие  порождающих
исследуемый порядок причин, а лишь его результат. Любая  попытка  с  помощью
информационно-энтропийного анализа делать какие  бы  то  ни  было  выводы  о
содержательной стороне письменных текстов была  бы  равносильна  суждению  о
достоинствах и недостатках какого-то музыкального произведения на  основании
того, как часто создававший его композитор прибегал к помощи ноты  «до»  или
«соль». Подобным способом можно  идентифицировать  принадлежность  тому  или
иному автору его сочинений, но бесполезно  пытаться  по  результатам  такого
анализа доискиваться до причин, побудивших этого автора сочинить именно  эту
симфонию, поэму или роман.
       Из всего вышесказанного  следует,  что  адекватное  представление  об
иерархической  структуре  реальных  текстов  не  может  быть   получено   на
основании конструирования  искусственных  текстов,  осуществляемого  теорией
информации по принципу «снизу вверх».
       Присущий  реальным  текстам  порядок  чередования  букв   формируется
согласно правилам, заданным  верхними  иерархическими  уровнями  текста,  то
есть не «снизу  вверх»,  а  «сверху  вниз».  Что  же  касается  используемой
теорией  информации  вероятностной  функции  энтропии,  то  она  может  быть
использована  в  качестве  точного  математического  инструмента  только  на
нижних уровнях иерархии текста, поскольку только  на  этих  уровнях  удается
найти достоверные значения вероятностей появления исходных  элементов  этого
уровня (т.е. букв). С переходом на следующий уровень мы  обнаруживаем  такое
обилие исходных элементов этого уровня (т.е.  такое  количество  слов),  что
определение  вероятности  появления  в  тексте   всех   слов,   составляющих
лексикон, становится практически неразрешимой задачей.
       Так, например, лексикон искусственного текста, каждое слово  которого
состоит из 6-ти букв, а алфавит - из 30-ти букв, составит 306 =  729  •  106
«слов».  Среди   этих   слов   будут   попадаться   бессмысленные   и   даже
непроизносимые сочетания из 6-ти гласных или 6-ти согласных букв.
       Приняв, что значащие слова  составят  0,01%  от  всех  шестибуквенных
комбинаций, получим 72 900 слов. Из  сочетаний  этих  слов  можно  составить
практически  неограниченное   количество   текстов,   поэтому   бессмысленно
пытаться определять вероятности появления отдельных слов.
       Это  значит,  что  вероятностная  функция  энтропии  не  может   быть
использована для  строгого  определения  количества  информации  и  энтропии
текстов  на  уровне  слов,  и  поэтому  Шеннон  был  вынужден   использовать
приближенные методы экстраполяции результатов, полученных на  уровне  слогов
и отдельных букв.
       Четкое   понимание   присущих   информационно-энтропийному    анализу
ограничений  не  исключает  возможности  использования  полученной  нами  на
примере  искусственных  текстов   расширяющейся    информационно-энтропийной
спирали (рис. 3) в качестве универсальной модели всех  существующих  в  мире
иерархических  систем.  Благодаря   теории   информации,   понятие   «текст»
приобретает общенаучный смысл.
       Так, например, начальным алфавитом всех генетических кодов служат

4  нуклеотида   ДНК.   Генетический   «лексикон»   состоит   из   триплетов,
соответствующих 20-ти аминокислотам. Содержащиеся  в  генах  «фразы»  –  это
закодированные программы формировния органов и  их  функций,  «концепция»  –
это целостный организм.
       «Начальным алфавитом» всей природы служат  входящие  в  менделеевскую
таблицу атомы  химических  элементов.  «Лексикон»  –  это  молекулы  сложных
веществ. «Фразы, концепции» – это  геохимические  и  биологические  системы,
составляющие все многообразие и богатство природы.
       Так же, как в случае текста, за  пределами  когнитивных  возможностей
иерархической информационно-энтропийной модели остаются вопросы  о  том,  на
каких высших уровнях  и  каким  образом  формируются  правила,  определяющие
фиксируемую  наукой  на  более  низких  уровнях  упорядоченность   структуры
существующих в природе систем.
       Как будет показано ниже, этот
12345След.
скачать работу

Энтропия. Теория информации

 

Отправка СМС бесплатно

На правах рекламы


ZERO.kz
 
Модератор сайта RESURS.KZ