Использование теории информации в биологии


 

Несмотря на то, что теория информации поначалу разрабатывалась исключительно для решения проблем технических систем связи, в 50-е гг. появились попытки использовать её и для описания живых систем. Одна из первых таких попыток принадлежит Г. Кастлеру [39]. Он совместно с С.Д. Данкофом в 1953 г. предложил оценивать сложность организмов величиной их информационной ёмкости. Для этого нужно выделить структурные элементы живой системы, определить количество видов этих элементов и численность каждого вида элементов. После этого остаётся вычислить количество двоичных разрядов, необходимых для полного кодирования всех структур. Основная проблема при этом состоит в решении вопроса, что принимать в качестве структурных элементов?

Авторы приняли, что структурными элементами организма являются молекулы, и что количество видов таких молекул более 500. Количество молекул было оценено исходя из того, что каждая молекула состоит в среднем из 100 атомов, а общее число атомов в организме примерно 7•1027. Было учтено также, что 90% массы представлено не структурообразующими молекулами (например, водой), а структурные молекулы могут иметь 12 различных способов ориентации в пространстве. В итоге полученная оценка информации о строении человека составила 5•1025бит. Если же принять за элементарные структуры атомы, то соответствующая оценка составит 2•1028 бит.

Более плодотворным оказалось применение теории информации для оценки систем передачи управляющих сигналов в живых организмах. К таким системам в первую очередь следует отнести кровеносную систему, которая является каналом передачи гормональных воздействий, и нервную систему, передающую сигналы по нервным волокнам в виде электрических импульсов.

Возможности кровеносной системы могут быть оценены исходя из того, что каждая переносимая по сосудам молекула может являться сигналом для соответствующего рецептора. С учётом средних размеров молекул каждый мм2 сечения сосудов может соответствовать примерно 1014 каналам связи. В действительности этих каналов меньше, поскольку не все молекулы могут выполнять сигнальные функции, а из сигнальных молекул не все двигаются по сосудам одновременно. Тогда с учётом скорости движения крови скорость передачи информации только по одному капилляру может достигать 1000 бит/с [39, с.51].

Аналогичные расчёты для нервной системы, основанные на известных данных о частоте генерирования нервных импульсов, показывают, что пропускная способность одной нервной клетки также составляет величину не менее 1000 бит/с [39, с. 53]

Самыми мощными рецепторами по восприятию внешних сигналов являются органы зрения. У высокоразвитых организмов на их долю приходится около 90% принимаемой информации. Световые сигналы воспринимаются клетками сетчатки (колбочки, палочки), которые формируют в глазу человека примерно 240 000 рецептивных участков. Каждый такой участок способен реагировать на смену интенсивности света 18 раз в секунду, что даёт 4,2 бит/с, откуда на глаз в целом приходится 106 бит/с [39, с.55].

Теория информации была применена и для оценки информационной сложности экологических систем. В этом случае за элементарную структурную единицу принимается один организм (особь). С 60-х гг. в экологии широко применяется показатель видового разнообразия биоценозов, получивший название индекс Шеннона-Уивера (Н), определяемый по формуле, полностью идентичной формуле (9.5)

 
 
n Н = -∑ рi log2 рi . (9.6) i=1    


Здесь n – количество биологических видов в экосистеме, рi – доля особей данного (i-го) вида в общем количестве особей.

Пример. Сравним видовое разнообразие деревьев в 2 лесных системах (табл.9.1).

Таблица 9.1

Сравнение древесных экосистем по индексу Шеннона-Уивера

  Система Доля каждого вида деревьев, % Н
Берёза Осина Дуб Сосна Липа Клён
Лес 1 1,7071
Лес 2 - - 1,8955

 

Расчёт по формуле 9.6 показывает:

Н1 = - (0,6 log20,6 + 0,2 log20,2 + 0,1 log20,1 + 0,05 log20,05 + 0,04 log20,04 + 0,01log20,01) = 1,7071;

Н2 = - (0,3 log20,3 + 0,3 log20,3 + 0,3 log20,3 + 0,1 log20,1) = 1,8955.

Первый лес имеет больше видов, но менее разнообразен. Путешествуя по этому лесу, вы чаще всего будете находиться среди берёз, и гораздо реже вам будут попадаться другие виды. Во втором лесу при меньшем количестве видов воспринимаемая картина будет разнообразнее, одновременно будет восприниматься больше видов, чем в первом лесу. Именно эта особенность биоценозов и оценивается индексом Шеннона – Уивера, значение которого можно рассматривать как информационную оценку сообщества с точки зрения его видового состава.

 

Виды информации

 

Описанный подход к измерению информации, позволяя сравнительно хорошо решать некоторые проблемы технических систем связи, не решает многих проблем, связанных с описанием информационных процессов в более сложных системах. Покажем это на примере.

Человек (потребитель информации), находящийся далеко от дома, имеет канал связи с ограниченными возможностями (1 сообщение в день). Потребитель получает информацию о том, что для него на входе канала есть два сообщения: одно больше, другое меньше, и надо выбрать, какое он желает получить первым. Можно ожидать, что человек захочет получить сначала бόльшее сообщение. Сообщение оказывается таким: «Кошка родила». Количество полученной информации, исходя из 5 бит на букву, составит 55 бит. На следующий день поступает более короткая информация (35 бит): «Умер дед». Можно представить, насколько негативно отнесётся наш пользователь к такой системе оценки информации. А если вторым сообщением окажется: «Идёт цунами» (50 бит), то наш герой к моменту получения информации, может уже вообще распрощаться с жизнью.

Пример показывает, что информация, измеренная рассмотренным вероятностным (статистическим) методом, явно нуждается в дополнительных характеристиках. Такими характеристиками можно считать смысл информации, её ценность, полезность, важностью и т.д. В связи с этим имеются попытки разработать новые методы количественной оценки информации, учитывающие указанные свойства. А информация, которую мы измеряли в наших примерах с помощью вероятностного метода, получила название статистической информации.

Статистическая информация, по сути дела, является величиной, оценивающей только количество передаваемых сигналов. На вопросы, что означают эти сигналы, какой смысл они несут для принимающей системы, статистическая информация ответа не даёт.

Информацию, которая представляла бы собой оценку смысла поступающих сигналов предложено называтьсемантической информацией. Эта информация должна указывать, каким природным объектам или явлениям соответствует та или иная комбинация поступающих сигналов. Как, например, можно узнать, что одному комплексу сигналов, поступающих в мозг животного, соответствует образ хищника, а другому комплексу сигналов соответствует образ пищи.

Вопрос о методе оценки информации с точки зрения её смысла оказался весьма сложным и не разрешённым до настоящего времени. Многими авторами предложены различные формулы для вычисления семантической информации. Нот все эти формулы либо не выдерживают критики, либо являются трудными для понимания принципов их построения и практического использования.

Однако и семантическая информация совместно со статистической ещё не обеспечивают полноты описания информационного взаимодействия, поскольку соотнесение сигналов с каким-либо объектом ещё не даёт возможность оценить ценность или полезность данного объекта для воспринимающей системы. Нужен информационный показатель, который позволял бы оценивать получаемую информацию с точки зрения её практической значимости, полезности или вредности. Такой показатель предложено называть прагматической информацией.Для измерения этой информации также предлагаются различные формулы, авторы которых отмечают, что в ряде конкретных случаев прагматическую информациютрудно отличить от семантическойинформации.

Одной из наиболее удачных и понятных является формула, предложенная А.А. Харкевичем в 1960 г. [39, с.123]:

IП = log (р1/ р0), (9.7)
где IП– ценность информации (или прагматическая информация),
р0 – вероятность достижения цели до получения информации,

р1 – вероятность достижения цели после получения информации.

В этой формуле хорошо видно, что ценность имеется, если (р1>р0). Если же вероятность р1 после получения информации остаётся без изменений (р1=р0), то ценность полученной информации равна нулю ( log 1 = 0). А если вероятность достижения цели после получения информации ещё и уменьшилась (р1<р0), то мы имеем отрицательную прагматическую информацию (логарифм числа, меньшего единицы, всегда отрицателен). Можно сказать, что мы в этом случае получили то, что называется дезинформацией, которую, оказывается, тоже можно измерить.

Хорошо было бы, если кто-нибудь ещё и объяснил, как определить р1 ир0? В указанном источнике [39] такого объяснения не даётся.

Как видим, в теории информации существуют проблемы, которые ещё не решены, а некоторые, возможно, ещё и не сформулированы. Читатель может заняться решением этих проблем, да и всех остальных, упомянутых в этой книге.

 

 



Дата добавления: 2020-10-25; просмотров: 195;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.01 сек.