Статистическая мера информации.


Статистическая теория, в отличие от структурной, позволяет оценивать информационные системы в конкретных условиях их применения, например, при передаче сообщений по каналам связи с шумами.

Статистическая теория оперирует понятием энтропии, введенной американским ученым Шенноном и определяемой выражением:

(1.5)

где m – число возможных состояний объекта А; – вероятность нахождения объекта А в i-ом состоянии, ; – энтропия объекта А.

В (1.5) предполагается, что имеет место ансамбль событий, т.е. полная группа событий с известным распределением вероятностей.

Если в (1.5) основание логарифма , то единицей измерения энтропии является бит.

Энтропия характеризует неопределенность состояния объекта А и использована Шенноном в статистической теории для определения количества информации , получаемое об объекте А в результате информационного обмена:

(1.6)

где – априорная энтропия объекта А, т.е. неопределенность состояния объекта А, имеющаяся у получателя информации до информационного обмена; – апостериорная неопределенность объекта А, т.е. остающаяся у получателя после информационного обмена.

Единицы измерения те же, что и для энтропии . Энтропия определяет среднее количество информации, приходящееся на 1 знак сообщения.



Дата добавления: 2019-02-08; просмотров: 432;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.006 сек.