Рассмотрите энтропию Шеннона и канал с пропускной способностью C: сформулируйте задачу кодирования для надёжной передачи сообщений при заданном уровне шума и объясните пределы сжатия и коррекции ошибок на примерах

29 Окт в 09:25
6 +2
0
Ответы
1
Задача кодирования (формулировка).
- Имеется источник сообщений с распределением PXP_XPX и энтропией в битах на символ H(X)=−∑xPX(x)log⁡2PX(x)\displaystyle H(X)=-\sum_x P_X(x)\log_2 P_X(x)H(X)=x PX (x)log2 PX (x).
- Имеется шумный канал с пропускной способностью (ёмкостью) CCC бит на одно использование канала.
- Нужно построить кодирующий оператор (сжатие + добавление избыточности) и декодер, которые для больших блоков исходных символов обеспечивают вероятность ошибки передачи →0\to 00.
Ключевые теоремы Шеннона (кратко).
1) Теорема о сжатии источника (source coding): для стационарного эргодического источника средняя длина кода на символ Lˉ\bar LLˉ удовлетворяет
Lˉ≥H(X), \bar L \ge H(X),
LˉH(X),
и существуют коды с Lˉ→H(X)\bar L \to H(X)LˉH(X) при росте блока. То есть H(X)H(X)H(X) — фундаментальный предел сжатия (не учитывая потери/примеров).
2) Теорема о пропускной способности канала (channel coding): для канала с ёмкостью CCC любые скорости передачи R<CR<CR<C достижимы с вероятностью ошибки, стремящейся к нулю при росте длины блока; а при R>CR>CR>C надёжная передача невозможна (ошибка остаётся отличной от нуля). Формально: существуют коды размера 2nR2^{nR}2nR на блок длины nnn с ошибкой →0\to00 если R<CR<CR<C.
Связь сжатия и коррекции ошибок (разделение задач).
- При разделении (Shannon separation theorem) можно сначала сжать источник до примерно H(X)H(X)H(X) бит/символ, затем кодировать для канала. Для надёжной передачи требуется, чтобы средовая скорость информации не превышала ёмкость канала:
(информация за символ) H(X) ≤ ρ C, \text{(информация за символ)}\ H(X)\ \le\ \rho\,C,
(информация за символ) H(X) ρC,
где ρ\rhoρ — число использований канала на один символ источника (обычно ρ=1\rho=1ρ=1, тогда требование H(X)≤CH(X)\le CH(X)C). В блоковой форме: для kkk источ. символов и nnn использований канала требуется
k H(X)≤n C. k\,H(X)\le n\,C.
kH(X)nC.

Примеры и численные иллюстрации.
1) Бинарный источник с вероятностью единицы ppp. Энтропия
H(p)=−plog⁡2p−(1−p)log⁡2(1−p). H(p)=-p\log_2 p-(1-p)\log_2(1-p).
H(p)=plog2 p(1p)log2 (1p).
- Если p=0.5p=0.5p=0.5, то H=1H=1H=1 бит/символ — не удастся сжать ниже 1 бита/символ без потерь.
- Если p=0.9p=0.9p=0.9, то H(0.9)≈0.469H(0.9)\approx 0.469H(0.9)0.469 бита/символ — можно сжать до ≈0.47 бита/символ.
2) Бинарный симметричный канал (BSC) с вероятностью искажения qqq. Его ёмкость
C=1−H(q), C=1-H(q),
C=1H(q),
где H(q)H(q)H(q) — бинарная энтропия. Например, при q=0.1q=0.1q=0.1 имеем H(0.1)≈0.469H(0.1)\approx 0.469H(0.1)0.469 и C≈0.531C\approx 0.531C0.531 бит/использование.
Комбинация источника и канала:
- Для источника с p=0.9p=0.9p=0.9 (H≈0.469H\approx0.469H0.469) и BSC с q=0.1q=0.1q=0.1 (C≈0.531C\approx0.531C0.531) выполняется H<CH<CH<C, значит при достаточно длинных блоках возможно сжатие до ~0.4690.4690.469 бита/символ и надежная передача (без потерь) через этот канал.
- Для равновероятного источника (H=1H=1H=1 бит/символ) и канала с C=0.5C=0.5C=0.5 бит/использование невозможно передать по одному использованию на символ: требуется по меньшей мере ρ=H/C=2\rho=H/C=2ρ=H/C=2 использ. канала на символ (т.е. добавить избыточность / уменьшить скорость).
Интуиция о компромиссе.
- Сжатие убирает избыточность источника, снижая количество бит информации; это хорошо для экономии канальных ресурсов, но оставляет меньше резервов для исправления ошибок.
- Канальное кодирование добавляет избыточность для коррекции ошибок; общая эффективность зависит от того, чтобы итоговая скорость передачи информации не превышала ёмкость CCC.
- На практике существуют ограничения конечной длины блока, задержек и вычислительной сложности: тогда достижение асимптотических пределов HHH и CCC невозможно, и появляется компромисс между скоростью, задержкой и вероятностью ошибки.
Короткое резюме.
- Предел сжатия: средняя длина кода ≥H(X)\ge H(X)H(X).
- Предел коррекции: надёжная передача возможна только при скорости информации R<CR<CR<C.
- Для надёжной передачи источника через канал требуется kH≤nCkH\le nCkHnC (или H≤ρCH\le\rho CHρC); при нарушении этого условия надёжность невозможна независимо от алгоритмов.
29 Окт в 10:20
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Гарантированные бесплатные доработки в течение 1 года
Быстрое выполнение от 2 часов
Проверка работы на плагиат
Поможем написать учебную работу
Прямой эфир