Эта матрица отражает статистические характеристики действия помех. Канальная матрица источника является матрицей прямых переходов переданных сигналов
в принятые сигналы .Каждая строка КМИ представляет собой распределение условных вероятностей принятых сигналов
относительно переданных сигналов . Все эти условные вероятности p(bj/ai) и образуют КМИ.Канальная матрица приемника (КМП)
Дискретный канал полностью задан, если известны безусловные вероятности приема сигналов
и задана канальная матрица приемника.Условные вероятности р(ai /bj) приёма сигналов
относительно переданных сигналов составляют канальную матрицу приемника (КМП) и отражают действие помех на канале.Канальная матрица объединения (КМО)
Дискретный канал полностью задан канальной матрицей объединения (КМО).
КМО состоит из совместных вероятностей появления сигналов
и - р(ai ,bj) и отражает действие помех на канале связи.Элементами матрицы являются совместные вероятности:
Взаимосвязь канальных матриц
Из КМО в КМИ
p(bi/aj) =
p(ai) =
p(ai,bj) (i=1,2…n)Из КМИ в КМО
Из КМО в КМП
p(ai/bj) =
p(bj) =
p(ai,bj) (j=1,2…n)Из КМП в КМО
p(ai, bj) = p(bj) ·p(ai/bj)
Свойства канальной матрицы источника (КМИ):
1. КМИ – квадратная матрица, то есть её размер nxn ;
2. Сумма условных вероятностей каждой строки равна 1, то есть образует полную группу:
(i=1,2…n)3. Условные вероятности главной диагонали КМИ отражают вероятность правильного приема сигналов
относительно переданных сигналов ;4. Остальные условные вероятности канальной матрицы (кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
5. Для идеального канала, на котором нет помех, канальная матрица имеет вид:
Свойства канальной матрицы приемника (КМП):
1. КМП – это квадратная матрица, то есть её размер nxn ;
2. Сумма условных вероятностей каждого столбца равна 1, то есть образует полную группу:
(j=1,2…n)3. Условные вероятности главной диагонали КМП отражают вероятность правильного приема сигналов
относительно переданных сигналов ;4. Остальные условные вероятности канальной матрицы приемника(кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
5. Для идеального канала, на котором нет помех, КМП имеет вид:
Свойства канальной матрицы объединения (КМО):
1. Сумма совместных вероятностей каждой строки равна безусловной вероятности источника:
дискретный матрица приемник кодирование
(i=1,2…n)Σ p(ai) = 1
2. Сумма совместных вероятностей каждого столбца равна соответствующей безусловной вероятности приемника:
(j=1,2…n)3. Сумма всех элементов канальной матрицы объединения равна 1.
Σ p(bj) = 1
Для того, чтобы понять что такое информационные характеристики, нужно вначале дать определение таким терминам, как алфавит сообщения, кортеж упорядоченных уникальных символов и дискретный ансамбль сообщения (ДАС).
Алфавитом сообщения называются символы, которые входят в сообщение. Например:
A={a1, a2,…,an}
Кортеж упорядоченных уникальных символов – это упорядоченная последовательность символов.
Х={х1, х2,…, хn} – сообщение – кортеж символов
Дискретный ансамбль сообщения (ДАС) – сообщение с вероятностями символов ДАС {Х, p(хi) или A, p(ai)}
Количество информации
Количеством информации символа сообщения определяется:
I(ai) = - log2(p(ai)) = - log(p(ai)) [бит] (i=1,2…n)
В Шенноновской теории информации количество информации источника определяется вероятностью появления символа.
I(ai) = - ln(p(ai)) [нат]
I(ai) = - lg(p(ai)) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации источника сообщений
1. Количество информации неотрицательно:
I(ai) >= 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(ai) = 1 ⇒I(ai) = 0
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого.
I(a1, a2, a3) = I(a1) + I(a2) + I(a3)
Энтропия – среднее количество информации на символ сообщения (средневзвешенное).
[бит/символ]Свойства энтропии
1. Энтропия неотрицательна: Н(А) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1: Н(ai) = 0 ⇔р(ai) =1
3. Энтропия ограничена: H (ai) ≤ log n[бит/символ]
где n – количество символов в сообщении.
4. Максимальная энтропия равна: Hmax(А) = log n[бит/символ]
Существует два вида условной энтропии, которые определяют действия помех на дискретном канале – это частная условная энтропия (ЧУЭ) и общая условная энтропия (ОУЭ).
Частная условная энтропия источника (ЧУЭИ) сообщений отображает количество потерь информации при передаче каждого сигнала аi:
H(В/аi) = −
p(bj/ai)logp(bj/ai) (i = 1,2…n) [бит/символ]Общая условная энтропия источника (ОУЭИ) определяет средние потери количества информации на принятый сигнал
относительно переданных сигналов . [бит/символ]Количество информации
Количеством информации символа сообщения определяется:
I(bj) = - log2(p(bj)) = - log(p(bj)) [бит] (j=1,2…n)
В Шенноновской теории информации количество информации приемника определяется вероятностью появления символа.
I(bj) = - ln(p(bj)) [нат]
I(bj) = - lg(p(bj)) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации приемника сообщений
1. Количество информации неотрицательно: I(bj) ≥ 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(bj) = 1 ⇒I(bj) = 0