Теорема Шеннона о кодировании источника - Shannon's source coding theorem
Теория информации |
---|
В теории информации , источник Шеннона теорема кодирование (или бесшумная теорема кодирования ) устанавливает пределы возможного сжатия данных , а также оперативный смысл энтропии Шеннона .
Теорема кодирования источника, названная в честь Клода Шеннона , показывает, что (в пределе, поскольку длина потока независимых и одинаково распределенных данных случайных величин (iid) стремится к бесконечности) невозможно сжать данные так, чтобы скорость кода (среднее количество битов на символ) меньше энтропии Шеннона источника, при этом практически нет уверенности в том, что информация будет потеряна. Однако можно получить скорость кода, произвольно близкую к энтропии Шеннона, с пренебрежимо малой вероятностью потерь.
Теорема исходного кодирования для символьных кодов устанавливает верхнюю и нижнюю границы минимально возможной ожидаемой длины кодовых слов как функции энтропии входного слова (которое рассматривается как случайная величина ) и размера целевого алфавита.
Заявления
Источник кодирования является отображением из (последовательности) символов из информационного источника к последовательности символов алфавита (обычно биты) таким образом, что символы источника может быть точно восстановлены из двоичных бит (кодирование источника без потерь) или восстанавливается в течение некоторого искажения ( кодирование с потерями исходного кода). Это концепция сжатия данных .
Теорема исходного кода
В теории информации теорема кодирования источника (Shannon 1948) неофициально утверждает, что (MacKay 2003, pg. 81, Cover 2006, Chapter 5):
N i.id случайных величин, каждая с энтропией H ( X ), может быть сжато до более чем N H ( X ) битов с пренебрежимо малым риском потери информации при N → ∞ ; но, наоборот, если они сжаты до менее чем N H ( X ) битов, практически наверняка информация будет потеряна.
Теорема исходного кодирования для символьных кодов
Пусть Σ 1 , Σ 2 обозначают два конечных алфавита и пусть Σ∗
1и Σ∗
2обозначают набор всех конечных слов из этих алфавитов (соответственно).
Предположим, что X - случайная величина, принимающая значения в Σ 1, и пусть f - однозначно декодируемый код из Σ ∗
1в Σ∗
2где | Σ 2 | = а . Пусть S обозначает случайную величину, заданную длиной кодового слова f ( X ) .
Если f оптимален в том смысле, что он имеет минимальную ожидаемую длину слова для X , то (Shannon 1948):
Где обозначает оператор ожидаемого значения .
Доказательство: теорема о кодировании источника.
Если X является источником iid , его временные ряды X 1 , ..., X n являются iid с энтропией H ( X ) в дискретном случае и дифференциальной энтропией в случае с непрерывными значениями. Теорема кодирования источника утверждает, что для любого ε > 0 , то есть для любой скорости H ( X ) + ε, большей, чем энтропия источника, существует достаточно большое n и кодировщик, который принимает n iid повторений источника, X 1: n , и отображает его в n ( H ( X ) + ε ) двоичных битов, так что исходные символы X 1: n восстанавливаются из двоичных битов с вероятностью не менее 1 - ε .
Доказательство достижимости. Зафиксируем некоторое ε > 0 и пусть
Типовой набор, Аε
n, определяется следующим образом:
Свойство асимптотической равнораспределенности (AEP) показывает, что для достаточно большого n вероятность того, что последовательность, сгенерированная источником, принадлежит типичному набору, Aε
n, как определено, приближается к одному. В частности, при достаточно больших п , можно сделать сколь угодно близким к 1, и , в частности, больше , чем (см
AEP для доказательства).
Определение типичных наборов подразумевает, что те последовательности, которые лежат в типичном наборе, удовлетворяют:
Обратите внимание, что:
- Вероятность того, что последовательность будет взята из Aε
nбольше 1 - ε . - , что следует из левой части (нижней оценки) для .
-
, что следует из оценок сверху и снизу полной вероятности всего множества Aε
n.
Так как битов достаточно, чтобы указать на любую строку в этом наборе.
Алгоритм кодирования: кодировщик проверяет, находится ли входная последовательность в пределах типичного набора; если да, он выводит индекс входной последовательности в типичном наборе; в противном случае кодировщик выдает произвольное n ( H ( X ) + ε ) разрядное число. Пока входная последовательность находится в пределах типичного набора (с вероятностью не менее 1 - ε ), кодировщик не делает ошибок. Таким образом, вероятность ошибки кодировщика ограничена сверху величиной ε .
Доказательство обратного. Обратное доказывается, показывая, что любой набор размера меньше, чем Aε
n(в смысле экспоненты) охватывал бы набор вероятностей, ограниченный от 1 .
Доказательство: теорема кодирования источника для символьных кодов.
Для 1 ≤ i ≤ n пусть s i обозначает длину слова каждого возможного x i . Определим , где C выбрано так, чтобы q 1 + ... + q n = 1 . Затем
где вторая строка следует из неравенства Гиббса, а пятая строка следует из неравенства Крафт :
так что журнал C ≤ 0 .
Для второго неравенства можно положить
и что
так что
и
и поэтому по неравенству Крафт существует код без префиксов, имеющий такую длину слова. Таким образом, минимальный S удовлетворяет
Распространение на нестационарные независимые источники
Кодирование источника без потерь с фиксированной скоростью для нестационарных независимых источников дискретного времени
Определить типовой набор Aε
n в виде:
Тогда для данного δ > 0 и достаточно большого n Pr ( Aε
n)> 1 - δ . Теперь мы просто кодируем последовательности в типичном наборе, а обычные методы кодирования исходного кода показывают, что мощность этого набора меньше, чем . Таким образом, в среднем H n ( X ) + ε битов достаточно для кодирования с вероятностью больше 1 - δ , где ε и δ можно сделать сколь угодно малыми, увеличив n .
Смотрите также
- Кодирование каналов
- Теорема о шумном канальном кодировании
- Показатель ошибки
- Свойство асимптотической равнораспределенности (AEP)
- Теория информации с конечной длиной блока