Вычислить количество информации получаемой о фазовом сдвиге сигнала, если станет известной его амплитуда.
Решение:
Количество информации вычисляется по формуле:
Величина I(Y,X) показывает, сколько в среднем бит информации о реализации ансамбля Y дает наблюдение реализации ансамбля Z. Подставив в эту формулу в выражение для вычисления энтропии и условной энтропии:
Учитывая, что
,последнее выражение можно записать в виде:
Вычисляются необходимые величины.
p(y1) = p(x1, y1) + p(x2, y1) = 0.47 + 0.27 = 0.74
p(y2) = p(x1, y2) + p(x2, y2) = 0.17 + 0.09 = 0.26
p(x1) = p(x1, y1) + p(x1, y2) = 0.47 + 0.17 = 0.64
p(x2) = p(x2, y1) + p(x2, y2) = 0.27 + 0.09 = 0.36
Все величины подставляются в формулу:
1.3 Задача № 1.84
Дискретный источник выбирает сообщения из ансамбля
.Длительности сообщений соответственно равны: tu1=0,96 c, tu2=0,44 c, tu3=0,67 c, tu4=0,39 c. Определить производительность источника.
Решение:
Производительность источника рассчитывается по формуле,
где T – время, затрачиваемое в среднем на каждое сообщение при передаче, и определяемое в соответствии со следующим выражением:
а энтропия источника H(U) в соответствии с формулой (1.4) [1] равна:
Итак, производительность источника равна:
2. Расчёт информационных характеристик дискретного канала
2.1 Задача № 2.23
На вход дискретного симметричного канала, показанного на рисунке 2, без памяти поступают двоичные символы
и с априорными вероятностями p(U1)=0,75 и p(U2)=0,25.Рисунок 2 – Дискретный симметричный канал
Переходные вероятности
в таком канале задаются соотношением ,где p=0,1 – вероятность ошибки. Определить все апостериорные вероятности
.Решение:
- переходные вероятности того, что на выходе будет символ zj при условии, что на входе был символ ui. - апостериорные вероятности того, что на входе канала имел место символ ui при условии, что на выходе наблюдается zj.По формуле Байеса:
Итак,
2.2 Задача № 2.48
Двоичный источник с равновероятными элементами имеет производительность U’=1500 бит в секунду. При передачи по каналу в среднем один из 100 символов принимается ошибочно. Определить скорость передачи инфориации по данному каналу.
Решение:
U1 Z1 “1”
U2 Z2 “0”
Рисунок 3 – Дискретный канал
Ситуация в канале характеризуется данным рисунком 3. В среднем один из 100 символов принимается ошибочно, поэтому вероятность ошибки будет составлять ро=1/100=0,01. Тогда вероятность правильного принятия будет вычисляться из следующего выражения: 1-р0=1-0,01=0,99.
Таким образом, канал описывается распределением вероятностей:
P(Z1/U1)=P(Z2/U2)=0,99
P(Z1/U2)=P(Z1/U2)=0,01
P(U1)=P(U2)=0,5- дано по условию
Скорость передачи информации вычисляется по формуле:
I’(U,Z)=H’(U)-H’(U/Z),
а энтропия будет равна 1 биту, так как
0,5log2+0,5log2=1
H’(U)=VC*H(U), где VC=1500 c-1
I’(U,Z)=H’(U)-H’(U/Z)
H’(U/Z)=VC*H(U/Z)
Условные вероятности можно найти по формуле Байеса:
H(U/Z)=-P(Z1)[P(U1/Z1)log2P(U1/Z1)+P(U2/Z1)log2P(U2/Z1)]-P(Z2)[P(U1/Z2)log2P(U1/Z2)+ P(U2/Z2)log2P(U2/Z2)]
H(U/Z)=-(0.5+0.5)(-2*0.99log(0.99)-2*0.01*log(0.01))=0.16
H’(U/Z)=VC*H(U/Z)=1500*0,16=241 (бит)
I’(U,Z)=H’(U)-H(U/Z)=1500-241=1259(бит/с)
3. Согласование дискретного источника с дискретным каналом
3.1 Задача № 3.23
Закодировать двоичным кодом Фано ансамбль сообщений {ai}:
{0.08, 0.001, 0.06, 0.09, 0.017, 0.18, 0.4, 0.06, 0.003, 0.027, 0.014, 0.068}
Закодировать произвольную комбинацию, состоящую из 5 символов из ансамбля{ai}. Определить потенциальный минимум среднего количества символов кода, приходящихся на одно сообщение ансамбля {ai} и среднее количество символов, разработанного кода Фано, приходящихся на одно сообщение из ансамбля {ai}. Рассчитать эффективность разработанного кода.
Решение.
Кодируется кодом Фано заданный ансамбль сообщений следующим образом.
Таблица 1 - Кодирование ансамбля сообщений {ai} двоичным кодом Фано
сообщение | вероятность | код |
а7 | 0,4 | 00 |
а6 | 0,18 | 01 |
а4 | 0,09 | 100 |
a1 | 0,08 | 1010 |
а12 | 0,068 | 1011 |
а3 | 0,06 | 1100 |
а8 | 0,06 | 1101 |
а10 | 0,027 | 1110 |
а5 | 0,017 | 11110 |
а11 | 0,014 | 111110 |
а9 | 0,003 | 1111110 |
a2 | 0,001 | 1111111 |
Сообщения источника располагаются в порядке не возрастания их вероятностей, делятся на две части так, чтобы суммарные вероятности сообщений в каждой части были по возможности равны. Сообщениям первой части приписывается в качестве первого символа нуль, а сообщениям второй части единица. Затем каждая из этих частей (если она содержит более одного сообщения) опять делится на две примерно равные части и в качестве второго символа для первой из них берется 0, а для второй 1. Этот процесс повторяется до тех пор, пока в каждой из полученных частей не останется по одному сообщению.
После использования полученных комбинаций символов, закодируется произвольная комбинация, состоящая из 5 символов из ансамбля {ai}: 101011111110010011110.
Среднее количество символов, приходящихся на одно сообщение, определяется по формуле 2.9 курса лекций:
,где ms – количество позиций, а ps – вероятность сообщения из ансамбля {ai}.
Определяется минимальное среднее количество символов, приходящихся на одно сообщение, по формуле
,
где M – объем алфавита кода, равный 2, а H(U) энтропия источника.
Далее находится энтропия:
Затем вычисляется величина ψ-эффективность кода, которая характеризует степень близости неравномерного статистического кода к оптимальному.