Оптимальный приёмник вычисляет апостериорную плотность распределения вероятности и выдаёт то значение сообщения, при котором апостериорная плотность максимальна.
Эффективное значение среднеквадратичной ошибки воспроизведения сообщения, вызванной ошибочным приемом одного из символов двоичного кода за счет широкополосного шума, можно найти по формуле:
(5.1)где Рош – вероятность ошибки приема разрядного символа.
Приведенная формула справедлива при небольших значениях
.Из формулы (5.1) выразим допустимую вероятность ошибки:
(5.2)Выражаем из формулы (5.2)
: (5.3)Найдем требуемое значение отношения
, обеспечивающее требуемое качество. (5.4) (5.5)6 РАСЧЕТ ЭНТРОПИИ ИСТОЧНИКА СООБЩЕНИЙ
Энтропия источника сообщения – это его информационная характеристика.
Для расчёта энтропии целесообразнее всего воспользоваться приближённой формулой, которая является достаточно точной при большом числе уровней квантования:
(6.1)где W(x) – плотность вероятности сообщения;
h – значение интервала квантования;
Um – порог ограничения сообщения.
(6.2)Для четвертого распределения энтропия выражается следующей формулой:
H(x) =
(6.3)H(x) = 13 - 0,5 +
=12,5 - 1 = 11,5 бит/симв7 РАСЧЕТ ИЗБЫТОЧНОСТИ И ИНФОРМАЦИОННОЙ НАСЫЩЕННОСТИ СООБЩЕНИЙ
Для оценки избыточности сначала рассчитаю информационную насыщенность сообщения:
Iн(x)=
(7.1)где Hмакс – максимальная энтропия источника, достигаемая при равномерном распределении.
Тогда избыточность может быть найдена и выражена
R(x) = 1 – Iн(x) = 1 - 0,885 = 0,115 (7.2)
8 РАСЧЕТ ПРОИЗВОДИТЕЛЬНОСТИ ИСТОЧНИКА
И ПРОПУСКНОЙ СПОСОБНОСТИ КАНАЛА СВЯЗИ
Производительность источника сообщения находиться из равенства:
I`(x) = 2f0∙H(x) = 2 1600 11, 5 = 36800 бит/(симв·с) (8.1)
Пропускная способность канала связи определяется формулой Шеннона, которая означает условия согласования канала связи с источником сообщения
C = I`(x) = 36800 бит/с (8.2)
Сравнивая пропускную способность (8.2) с производительностью источника (8.1), можно найти значение отношения мощности сигнала и помехи, требуемое для согласования источника сообщения с каналом связи:
(8.3) (8.4)Следовательно:
(8.5)Следует иметь в виду, что в данном случае речь идёт о мощности шума в полосе частот, равной половине частоты дискретизации сообщения, и что при этом информация передаётся без искажений.
9 ВЫБОР СЛОЖНОГО СИГНАЛА ДЛЯ ПЕРЕДАЧИ ИНФОРМАЦИИ И СИНХРОНИЗАЦИИ
Применение сложных сигналов не может дать выигрыша в помехоустойчивости при помехе в виде широкополосного шума и сигнале, известном точно. Однако применение сложных сигналов позволяет получить ряд других преимуществ:
1) Сложные сигналы обладают повышенной помехоустойчивостью по отношению к помехам с сосредоточенным спектром (узкополосным помехам);
2) Сложные сигналы обладают повышенной разрешающей способностью, которая позволяет разделить сигналы при многолучевом распространении;
3) Использование сложного сигнала позволяет обеспечить синхронизацию устройства восстановления аналогового сообщения по принятому цифровому сигналу.
Необходимо выбрать два вида используемых сигналов с ФКМ – фазокодовой манипуляцией (это последовательность импульсов, у которых фаза меняется на p по специальному коду). Один сигнал должен быть использован для синхронизации, второй – для передачи информационных символов.
Существует два типа кода:
· код Баркера;
· М–последовательность.
Я выбираю для передачи информационной последовательности и для импульсов синхронизации М–последовательность.
k-ый элемент последовательности рассчитывается по формуле:
(9.1)где С и d – двоичные числа.
Составим М-последовательность для синхроэлемента. Для этого зададим первые четыре импульса:
Рассчитаем остальные элементы для передачи информационных символов:
(9.2)где k больше либо равно пяти.
Рассчитаем число элементов в каждой последовательности по формуле:
(9.3)Таким образом, я получила М-последовательность для передачи информационных символов: 100011110101100.
Рассчитаем элементы для передачи синхросигнала:
(9.4)М-последовательность для передачи синхросигнала: 100010011010111.
Далее построим функцию корреляции для информационных импульсов и синхросигнала, предварительно пропустив М-последовательность через схему согласованного фильтра.
Рисунок 9.1 – Схема согласования фильтров для информационных импульсов
Рисунок 9.2 - Схема согласования фильтров для синхроимпульсовТаблица 9.1 – Вычисление значений сигнала на выходе согласованного фильтра (фильтр информационный, сигнал информационный)
0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 1 | |
0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 1 | |
Х | 1 | 1 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 1 | 1 | |
Х | 1 | 1 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 1 | ||
Х | 1 | 1 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | |||
0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 1 | 1 | |||||
0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 1 | ||||||
0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | |||||||
0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | ||||||||
Х | 1 | 1 | 0 | 0 | 1 | 0 | 1 | ||||||||
0 | 0 | 1 | 1 | 0 | 1 | ||||||||||
Х | 1 | 1 | 0 | 0 | 1 | ||||||||||
0 | 0 | 1 | 1 | ||||||||||||
0 | 0 | 1 | |||||||||||||
Х | 1 | 1 | |||||||||||||
0 | |||||||||||||||
∑ | 0 | 0 | 3 | 2 | -3 | -2 | -3 | 2 | 1 | 2 | -3 | -4 | -1 | 1 | 13 |
Рисунок 9.3 - Функция корреляции
Таблица 9.2 – Вычисление значений сигнала на выходе согласованного фильтра (фильтр информационный, синхросигнал)
1 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | |
1 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | |
Х | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 1 | 1 | 0 | 1 | 1 | 1 | |
Х | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 1 | 1 | 0 | 1 | 1 | ||
Х | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 1 | 1 | 0 | 1 | |||
1 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 1 | |||||
1 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | ||||||
1 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | |||||||
1 | 1 | 1 | 0 | 1 | 0 | 1 | 1 | ||||||||
Х | 0 | 0 | 0 | 1 | 0 | 1 | 0 | ||||||||
1 | 1 | 1 | 0 | 1 | 0 | ||||||||||
Х | 0 | 0 | 0 | 1 | 0 | ||||||||||
1 | 1 | 1 | 0 | ||||||||||||
1 | 1 | 1 | |||||||||||||
Х | 0 | 0 | |||||||||||||
1 | |||||||||||||||
∑ | 1 | 0 | -1 | -4 | 1 | 0 | 5 | 2 | -1 | -2 | 1 | 4 | -1 | 4 | 1 |