Взаимная информация и ее свойства


Определим теперь количество информации, передаваемой по каналу связи как разность между количеством информации на его входе, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии . Величину называют также взаимной информацией и определяют соотношением:

 

; (3.1)

 

или

 

;   (3.2)

 

С учетом теоремы умножения вероятностей получим:

 

;   (3.3)

 

Раскрывая последнее выражение, получим соотношение для взаимной информации в симметричном виде:

 

;   (3.4)

 

Рассмотрим основные свойства взаимной информации:

1. . Это свойство следует из свойств энтропии, причём при обрыве канала, когда вся информация теряется из-за помех в канале.

2. . Равенство достигается при отсутствии помех, т. е. .

3. , где энтропия выхода канала H(B) и условная энтропия определяются аналогично найденным выше значениям энтропии. Данное свойство вытекает из симметрии выражения для взаимной информации.

4. . Данное свойство вытекает из предыдущего. Равенство здесь имеет место, если .

5. В выражении для взаимной информации будем полагать , тогда , а . Таким образом, энтропию можно трактовать как меру собственной информации об ансамбле источника сообщений.

Определение взаимной информации наглядно иллюстрируется на рис. 2.

 

  Рис. 2. Иллюстрация передачи информации по каналу с помехами

 

Пусть известно время передачи одного сообщения , тогда по аналогии с производительностью источника можно легко определить скорость передачи информации по каналу как количество информации, переданной в единицу времени:

 

  ;     (3.5)
где скорость, т.е. число символов, поступающих в канал в течении секунды, бит/с (Бод).
         

 

Выводы

1. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии .

 

Заключение

1. Из всех видов возможных распределений вероятностей случайных процессов, у которых дисперсия является фиксированной величиной, наибольшее значение дифференциальной энтропии имеет гауссовское распределение.

2. Условная энтропия представляет собой количество информации, которое теряется из-за помех и не поступает получателю.

3. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии .

 

Литература

1. Р.Р. Биккенин, М.Н. Чесноков Теория электрической связи. Случайные процессы. Помехоустойчивая передача дискретной информации: Учебное пособие / СПб., 2001, стр. 121-127.

2. Д.Д. Кловский «Теория электрической связи» М. «Радио и связь», стр. 246-249, 227-231.



Дата добавления: 2017-11-21; просмотров: 2195;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.012 сек.