Энтропия непрерывных сообщений


Исходные данные часто представляются в виде непрерывных величин, например, температура воздуха или морской воды. Поэтому представляет интерес измерение количества содержащейся в таких сообщениях информации.

Как было сообщено выше, средняя энтропия дискретного сообщения, входящего в полную группу из m независимых сообщений, находится по формуле: .

Эта формула справедлива, в частности, для сообщений, состоящих из конечного числа букв (в нашем случае m штук).

Если рассматривать попадание значения непрерывного сообщения в определенный интервал, как появление определенной буквы, то непрерывное сообщение можно рассматривать как предельный случай дискретного если число букв устремить к бесконечности (рис. 1.3).

Рис. 1.3. Представление непрерывного процесса в виде дискретной последовательности букв.

Для вычисления энтропии дискретного сообщения необходимо было знать множество букв и вероятности их появления. Аналогом набора вероятностей букв в непрерывном сообщении является плотность вероятностей f(a) распределения значений непрерывного сообщения (рис. 1.4).

Рис. 1.4. Вычисление вероятности попадания значений непрерывного процесса в некоторый интервал шириной ∆a.

Непрерывную величину можно считать предельным случаем квантованной по уровню, если размер шага квантования ∆a устремить к нулю.

Зная плотность распределения вероятности (дифференциальный закон распределения) и предполагая независимость соседних значений случайной величины, можно найти, используя известную формулу, среднюю энтропию одного ее значения:

, где ak=k*∆a

Из теории вероятностей известно, что вероятность попадания случайной величины в некоторый интервал находится через дифференциальный закон ее распределения по формуле:

При достаточно гладкой функции P(a) и малом ∆a можно считать, что

.

Поэтому

.

Первое слагаемое в пределе превращается в интеграл:

.

Во втором слагаемом тоже образуется интеграл. Это определенный интеграл от дифференциального закона распределения с бесконечными пределами, который, как известно, равен 1. В результате получаем:

.

Ясно теперь, что первое слагаемое – конечное число, а второе - бесконечное. Как и следовало ожидать, энтропия непрерывного сообщения в математическом смысле бесконечно велика, что означает, что непрерывный сигнал несет в себе бесконечно большое количество шенноновской информации. Однако в реальной жизни это не так. Любое непрерывное сообщение, например показания термометра за окном или пружинных весов, человек так или иначе подвергает квантованию, что приводит к уменьшению количества информации по шеннону.

Таким образом, в математическом смысле непрерывные сигналы-сообщения не имеют абсолютной меры энтропии. Поэтому для них вводится понятие относительной энтропии. Это понятие подразумевает наличие эталона, с которым сравнивается энтропия непрерывного сообщения. В качестве такого эталона выбирается также непрерывное сообщение-сигнал, имеющий равномерный закон распределения в интервале ε (эпсилон). График равномерного закона приведен на рис. 1.5.

Рис. 1.5. График равномерного закона распределения.

Абсолютная энтропия такого эталонного сообщения равна:

.

Из-за второго члена H(ε) также бесконечно велика.

Относительная энтропия непрерывного сообщения в данном случае определяется как разность между абсолютной энтропией Hнепр этого сообщения и абсолютной энтропией H(ε) эталонного сообщения. Ее принято называть дифференциальной эпсилон-энтропией непрерывного сообщения. Она обозначается Hε и вычисляется по формуле:

.

Если положить ε=1, то дифференциальная энтропия (слово эпсилон часто не произносится) запишется в виде:

.

Видим, что формула дифференциальной энтропии похожа на формулу энтропии дискретного источника, но следует помнить, что она описывает не абсолютное, а относительное значение энтропии, когда за стандарт взята случайная величина, равномерно распределенная на единичном интервале.

Дифференциальная энтропия позволяет сравнивать различные непрерывные источники сообщений по степени информативности.



Дата добавления: 2021-04-21; просмотров: 515;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.012 сек.