Контрольная работа
По курсу: Теория информации и кодирования
На тему: Энтропия сигналов
1. ЭНТРОПИЯ ОБЪЕДИНЕНИЯ
Объединение - совокупность двух и более ансамблей дискретных, случайных событий. С объединением связаны понятия условной, безусловной, совместной и взаимной энтропии.
1. Безусловная энтропия - среднее количество информации, приходящееся на один символ (рис. 1). Если Х – передаваемое, а У- принимаемое сообщения, то можно записать следующие соотношения:
YX | y1 y2 ym |
x1x2xm | p(y1/x1) p(y2/x1) . . . p(ym/x1)p(y1/x2) p(y2/x2) . . . p(ym/x2)p(y1/xm) p(y2/xm) . . . p(ym/xm) |
При этом:
.Вероятности, расположенные на диагонали характеризует вероятность правильного приема, остальные – ложного, чем они расположены дальше от диагонали, тем они меньше. При отсутствии помех в канале связи элементы матрицы, расположенные по диагонали, равны единице, а все остальные равны нулю. Канальные матрицы всегда квадратные, т. к. количество передаваемых сигналов, равно количеству принятых, хотя вероятность прохождения отдельных сигналов может быть равна нулю.
Потери информации, вызванные действием помех, определяются с помощью условной энтропии. Для равновероятных сигналов на выходе источника общая условная энтропия вычисляется по формуле:
. (3)Для не равновероятных сигналов на выходе источника общая условная энтропия вычисляется по формуле:
(4)Частная условная энтропия определяет потери информации, приходящиеся на долю какого – либо конкретного сигнала (например, потери для сигнала x1)
. (5)При отсутствии помех вероятность получения правильного сигнала станет безусловной, а условная энтропия будет равна нулю.
Для исследования канала со стороны приемника (известен полученный сигнал) - условная вероятность p(xi /yi) означает вероятность того, что при приеме сообщения yiбыло передано сообщение xi.
Канальная матрица имеет вид, приведенный в табл. 2.
Таблица 2
YX | y1 y2 ym |
x1x2xm | p(x1/y1) p(x1/y2) . . . p(x1/ym)p(x2/y1) p(x2/y2) . . . p(x2/ym)p(xm/y1) p(xm/y2) . . . p(xm/ym) |
Вероятности расположения на диагонали характеризует вероятность правильной передачи, остальные – ложной. Для равновероятных сигналов на входе приемника общая условная энтропия вычисляется по формуле:
. (6)Для не равновероятных сигналов на входе приемника общая условная энтропия вычисляется по формуле:
( 17)Частная условная энтропия, определяющая потери, приходящиеся на долю сигнала y1, равна:
. (8)Пример 1. Вычислить энтропию источника сообщений, выдающего два символа 0 и 1 с вероятностями p(0)=3/4, p()=1/4 и условными вероятностями: p(0/0)=2/3, p(/0)=1/3, p(0/1)=1, p(/1)=0, т. е. после 1 всегда идет 0.
Решение: Для случая взаимозависимых, не равновероятных элементов энтропия равна:
Пример 2. Определить энтропию источника сообщений, если вероят-ности появлений символов на входе приемника, равны: P(b1)=0,1; P(b2)=0,3; P(b3)=0,4,P(b4)=0,2 а канальная матрица имеет вид:
P(a/b)=
.Сумма вероятности при одноименных условиях равна
Решение: Определим энтропию источника
.= 0,1×0,99+0,3×0,2+0,4×0=0,105;
= 0,1×0,01+0,3×0,98+0,4×0,01+0, ×2×0,01=0,301;
0,1×0+0,3×0+0,4×0,98+0,2×0,02=0,396;
0,1×0+0,3×0+0,4×0,01+0,2×0,97=0,198;
Проверка:
0,105+0,301+0,396+0,198=1.