Для источника с символами {A,B,C} с вероятностями {0.5,0.3,0.2} вычислите энтропию в битах, объясните смысл результата и предложите способ кодирования, приближённый к оптимальному, обсудите компромиссы между длиной кодовых слов и задержкой декодирования

20 Ноя в 08:43
4 +1
0
Ответы
1
1) Энтропия:
H=−∑ipilog⁡2pi=−(0.5log⁡20.5+0.3log⁡20.3+0.2log⁡20.2) H=-\sum_i p_i\log_2 p_i = -\big(0.5\log_2 0.5+0.3\log_2 0.3+0.2\log_2 0.2\big)
H=i pi log2 pi =(0.5log2 0.5+0.3log2 0.3+0.2log2 0.2)
−0.5log⁡20.5=0.5,−0.3log⁡20.3≈0.52109,−0.2log⁡20.2≈0.46439 -0.5\log_2 0.5=0.5,\quad -0.3\log_2 0.3\approx0.52109,\quad -0.2\log_2 0.2\approx0.46439
0.5log2 0.5=0.5,0.3log2 0.30.52109,0.2log2 0.20.46439
H≈0.5+0.52109+0.46439≈1.4855 бит/символ H\approx 0.5+0.52109+0.46439\approx 1.4855\ \text{бит/символ}
H0.5+0.52109+0.464391.4855 бит/символ

2) Смысл результата: HHH — среднее количество информации (бит) в одном символе источника и нижняя граница для средней длины безусловно восстанавливаемого кода (в среднем нельзя кодировать меньше чем HHH бит/символ).
3) Предложение кодирования (приближённое к оптимальному): однобайтовый префиксный Huffman-код
A = 0, B = 10, C = 11. Тогда средняя длина
L=0.5⋅1+0.3⋅2+0.2⋅2=1.5 бит/символ, L=0.5\cdot1+0.3\cdot2+0.2\cdot2=1.5\ \text{бит/символ},
L=0.51+0.32+0.22=1.5 бит/символ,
избыточность L−H≈1.5−1.4855≈0.0145L-H\approx 1.5-1.4855\approx 0.0145LH1.51.48550.0145 бит/символ (очень близко к оптимуму).
4) Компромиссы между длиной кодовых слов и задержкой декодирования:
- Префиксные переменной длины (Huffman): минимальная средняя длина среди префиксных кодов, мгновенное декодирование по входному потоку (низкая задержка), но разная длина кодов — возможен большой максимум длины для редких символов.
- Фиксированная длина: простота и константная задержка, но обычно большая средняя длина (неэффективна при неравных вероятностях).
- Блочное кодирование (группировка символов в блоки): приближает среднюю длину ещё ближе к HHH (за счёт дробных бит/символ), но увеличивает задержку и память (надо накопить блок).
- Арифметическое/энтропийное кодирование: достигает сходимости к HHH с очень малой избыточностью, но требует буферизации, арифметики с высокой точностью и более чувствительно к ошибкам/синхронизации (больша задержка и сложность).
Выбор зависит от требований: минимальная задержка → префиксный Huffman или фиксированная длина; минимальная средняя длина при допустимой задержке → блоковое/арифметическое кодирование.
20 Ноя в 09:38
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Гарантированные бесплатные доработки в течение 1 года
Быстрое выполнение от 2 часов
Проверка работы на плагиат
Поможем написать учебную работу
Прямой эфир