Эффективное кодирование неравновероятных символов источника дискретных сообщений.


 

Цель работы. Ознакомление с алгоритмами эффективного кодирования неравновероятных символов источника дискретных сообщений и сравнение их эффективности.

Содержание работы. По номеру в списке группы ( k ) из Таблицы 1 выбрать закон распределения вероятности появления символов источника дискретных сообщений с объёмом алфавита М=8.

Произвести эффективное кодирование заданного источника дискретных сообщений по алгоритму Шеннона-Фено и по алгоритму Хафмена.

Рассчитать для построенных на основе этих алгоритмов кодов:

а). среднюю длину неравномерного кода (nн);

б). избыточность неравномерного кода(Rнк);

в). энтропию элементов символов полученных кодов(H);

Сравнить полученные результаты с соответствующими параметрами равномерного двоичного цифрового кода.

Таблица 1.

mi
m1 0.10 0.18 0.07 0.65 0.55 0.60 0.01 0.15 0.30 0/01
m2 0.51 0.10 0.03 0.05 0.05 0.06 0.02 0.10 0.20 0.05
m3 0.02 0.47 0.11 0.06 0.16 0.02 0.02 0.30 0.10 0.03
m4 0.10 0.07 0.33 0.03 0.03 0.10 0.15 0.35 0.05 0.02
m5 0.02 0.03 0.25 0.02 0.02 0.02 0.02 0.02 0.15 0.10
m6 0.20 0.02 0.01 0.15 0.02 0.15 0.45 0.02 0.10 0.14
m7 0.01 0.04 0.17 0.02 0.02 0.03 0.30 0.01 0.07 0.25
m8 0.04 0.09 0.03 0.02 0.15 0.05 0.03 0.05 0.03 0.40

2. Произвести эффективное кодирование двоичным кодом соответствующего Вашему номеру (k) источника дискретных сообщений по алгоритму Хаффмена в программном средстве MathCad. Вычислить энтропию сообщений и среднюю длину nсркодового слова. Сравнить с минимально возможной длиной nср.min.и средней длиной кодового символа при кодировании равномерным кодом. Сравнить полученный результат с результатами «ручного» кодирования.

Ниже приведён пример программы, разработанной в программном средстве MathCad, для эффективного кодирования двоичным кодом источника дискретных сообщений по алгоритму Хаффмена в программном средстве MathCad.

Источник дискретных сообщений X (xi, i= 1,…, m), c объёмом алфавита равном m = 9, имеет следующие вероятности их появлений, заданные при вектор-строкой

,

где, например, и .

Предварительно определим единицы измерения количества энтропии и информации как и .

Составим матрицу, в которой вероятности выписываются в первый (основной) столбец в порядке их убывания, т.е.

;

.

Две последних вероятности P1 объединяются в одну вспомогательную вероятность Ps1:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P2 объединяются в одну вспомогательную вероятность Ps2:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P3 объединяются в одну вспомогательную вероятность Ps3:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P4 объединяются в одну вспомогательную вероятность Ps4:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P5 объединяются в одну вспомогательную вероятность Ps5:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P6 объединяются в одну вспомогательную вероятность Ps6:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P7 объединяются в одну вспомогательную вероятность Ps7:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

Две последних вероятности P8 объединяются в одну вспомогательную вероятность Ps8:

.
; ; ;

Вероятности

снова располагаются в порядке их убывания в дополнительном столбце

;

.

На этом при получении дополнительного столбца с вероятностью, равной единице, процесс заканчивается. Матрица M, на основе которой проводится кодирование, принимает вид:

;

;

;

На основании данной таблицы строим кодовое дерево, ветки которого соответствуют вероятностям, согласно матрице M.

 

 


Каждой ветке дерева присваивается символ "1" при выходе из узла вверх и символ "0" при выходе из узла вниз. Движение по кодовому дереву из вершины с P=1.00 к сообщениям, определяемым соответствующими вероятностями, дает двоичные кодовые комбинации эффективного кода, приведенные в таблице.

 

Сообщения Вероятность Двоичный код
x1 0.04
x2 0.06
x3 0.08
x4 0.10
x5 0.10

 

x6 0.12
x7 0.15
x8 0.15
x9 0.20

 

Согласно таблице кодирования, длину кодовых символов можно описать вектор-строкой

.

Средняя длина кодового слова в битах

; .

Энтропия источника сообщений

; .

На основании (4.2) минимально возможная средняя длина кодового слова равна энтропии источника, т.е.

; .

В случае использования равномерного двоичного кодирования девяти символов сообщения требуется четырехразрядное кодовое слово для каждого сообщения, так как 23<9. При таком кодировании максимальная средняя длина кодового слова bit.

Таким образом, проведенное кодирование более эффективно, чем равномерное. Однако оно не достигает максимально возможной эффективности, так как ncp.min< ncp< ncp.max.

 

Контрольные вопросы.

  1. Какой вид кодирования называют эффективным и в чем его специфика?
  2. Что такое избыточность кодов?
  3. Какие коды называются равномерными?
  4. На каких принципах основано построение эффективных кодов при неравновероятном появлении символов сообщения?
  5. Принцип построения эффективного кода по алгоритму Шеннона-Фено.
  6. Принцип построения эффективного кода по алгоритму Хафмена.

 



Дата добавления: 2018-11-26; просмотров: 1095;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.017 сек.