Заметим, что все живые языки естественно обладают некоторой избыточностью. Эта избыточность часто помогает восстановить правильный текст «по смыслу» сообщения. Вот почему встречающиеся вообще нередко искажения отдельных букв телеграмм довольно редко приводят к действительной потере информации: обычно удается исправить искаженное слово, пользуясь одними только свойствами языка. Этого не было бы при отсутствии избыточности. Мерой избыточности языка служит величина
(2.4)где
– средняя фактическая энтропия, приходящаяся на один передаваемый символ (букву), рассчитанная для достаточно длинных отрывков текста, с учетом зависимости между символами;n– число применяемых символов (букв);
– максимально возможная в данных условиях энтропия на один передаваемый символ, которая была бы, если бы все символы были равновероятны и независимы.Расчеты, проведенные на материале наиболее распространенных европейских языков, показывают, что их избыточность достигает 50 % и более (т.е., грубо говоря, 50 % передаваемых символов являются лишними и могли бы не передаваться, если бы не опасность искажений).
Однако для безошибочной передачи сведений естественная избыточность языка может оказаться как чрезмерной, так и недостаточной: все зависит от того, как велика опасность искажений («уровень помех») в канале связи.
С помощью методов теории информации можно для каждого уровня помех найти нужную степень избыточности источника информации. Те же методы помогают разрабатывать специальные помехоустойчивые коды (в частности, так называемые «самокорректирующиеся» коды). Для решения этих задач необходимо уметь учитывать потерю информации в канале, связанную с наличием помех.
Рассмотрим сложную систему, состоящую из источника информации
, канала связи и приемника Y (рис. 2.5).Рис. 2.5 Направление передачи информации в условиях помех
Источник информации представляет собой физическую систему
, которая имеет возможных состояний x1, x2,…,xn с вероятностями p1, p2, …,pn.Будем рассматривать эти состояния как элементарные символы, которые может передавать источник
через канал к приемнику Y. Количество информации на один символ, которое дает источник, будет равно энтропии на один символ: .Если бы передача сообщений не сопровождалась ошибками, то количество информации, содержащееся в системе Y относительно
, было бы равно самой энтропии системы При наличии ошибок оно будет меньше:Условную энтропию
рассматривают как потерю информации на один элементарный символ, связанную с наличием помех.Определив потерю информации в канале, приходящуюся на один элементарный символ, переданный источником информации, можно определить пропускную способность канала с помехами, т. е. максимальное количество информации, которое способен передать канал в единицу времени.
Предположим, что канал может передавать в единицу времени k элементарных символов. так как максимальное количество информации, которое может содержать один символ, равно
, а максимальное количество информации, которое могут содержать символов, равно , и оно достигается, когда символы появляются независимо друг от друга.Рассмотрим канал с помехами. Его пропускная способность определится
(2.5)где
k – количество передаваемых символов;
max
– максимальная информация на один символ, которую может передать канал при наличии помех.Максимальная информация зависит от того, как и с какими вероятностями искажаются символы; происходит ли их перепутывание, или же простое выпадение некоторых символов; происходят ли искажения символов независимо друг от друга и т.д.
Однако для простейших случаев пропускную способность каналa удается сравнительно легко рассчитать.
Рассмотрим, например, такую задачу. Канал связи
передает от источника информации к приемнику элементарные символы 0 и 1 в количестве k символов в единицу времени. В процессе передачи каждый символ независимо от других с вероятностью может быть искажен (т.е. заменен противоположным). Требуется найти пропускную способность канала.Определим сначала максимальную информацию на один символ, которую может передавать канал. Пусть источник производит символы
и с вероятностями и . Тогда энтропия источника будетОпределим информацию на один элементарный символ:
Чтобы найти полную условную энтропию найдем сначала частные условные энтропии:
(энтропию системы при условии, что система приняла состояние ) и (энтропию системы при условии, что система приняла состояние . Вычислим ; для этого предположим, что передан элементарный символ . Найдем условные вероятности того, что при этом система находится в состоянии и в состоянии . Первая из них равна вероятности того, что сигнал не перепутан:вторая – вероятности того, что сигнал перепутан:
Условная энтропия
будет:Найдем теперь условную энтропию системы Y при условии, что X ~ x2 (передан сигнал единица):
.откуда
Полная условная энтропия
) получится, если усреднить условные энтропии и с учетом вероятностей и значений .. Так как частные условные энтропии равны, то