Рис. 4.1. Аналоговый сигнал
xmin = - 0.204
xmax = 0.095
4.2. Расчет энтропии источника
Передаваемая информация представляет собой совокупность следующих сигналов:
1) а1 – знак числа, а1= (0,1). Заранее указать его невозможно, поэтому, в соответствии с признаком максимальной энтропии, Р1 = 0.5.
2) а2 – количество цифр целой части числа, а2 = 0
3) а3 – число в интервале от 0 до наибольшего по абсолютной величине х, а3 = 204.
Если допустить, что цифры по КС передаются двоичным кодом, то для передачи числа 204 требуется l разрядов:
2l = 204 (4.1)
l = 7.672
После округления в большую сторону для расчетов принято l = 8. Таким образом, а3 = [0, 204] передается с помощью двойного кода с количеством разряда, равным 8. Заранее указать значение числа невозможно, поэтому, в соответствии с принципом максимальной энтропии, Р = 1/28.
Таким образом, передаваемая информация состоит из трех сигналов и представляет собой сложное сообщение.
При передаче сигналов их энтропия находится по формуле Шеннона:
Н
(4.2)H1 = - 0.5 * log2 0.5
H1 = 0.5 бит/символ
H2 = - 1*log2 1
H2 = 0 бит/символ
H3 =
H3 = 8 бит/символ
На основании правила сложения энтропий при передаче сложного сообщения, можно найти энтропию датчика сообщения:
H(А) = H1 + H2 + H3 (4.3)
H(А) = 8.5 бит/символ
4.3. Расчет ширины спектра сигнала
Любой непрерывный датчик характеризуется шириной спектра сигнала dF. В соответствии с теоремой Котельникова, для обеспечения неискаженного процесса передач необходимо показание датчика снимать с интервалом времени dt:
dF =
(4.4)Учитывая (1.9) и (1.10), ширина спектра сигнала будет равна:
dF = 0.06 Гц
4.4. Расчет полосы пропускания КС
Необходимо рассчитать ПП КС при соотношении сигнал-шум равным 26.
В соответствии с теоремой Шеннона, для обеспечения передачи информации без искажений должно выполняться условие:
C >> R (4.5)
где R – скорость выдачи информации датчиком
С – пропускная способность КС
Т.е.
2Fkcmin log2 (
) 2dFFkcmin
dFFkcmin
0.109 ГцШирина ПП должна быть тем больше, чем больше ширина спектра датчика и чем меньше соотношение мощности сигнала к мощности помехи.
4.5. Расчет энтропии приемника
В настоящее время создано большое разнообразие оконечных или периферийных устройств, с помощью которых можно представлять информацию в форме, удобной для обработки. Эта информация может наноситься на магнитные либо на бумажные носители, или представляться в виде образов на экране.
В зависимости от формы носителя разрабатываются свои методики, с помощью которых обосновываются характеристики оконечных устройств. Эти методики учитывают специфику оконечных устройств. Рассмотрим подход при разработке этих методик на примере согласования КС с черно-белым дисплеем с разрешением 800*600.
На экран монитора информация выводится в виде множества точек – пикселей. Количество пикселей, выводимых на дисплей, определяется двумя величинами – r и q. Черно-белый дисплей может, в принципе, представлять образы в виде полутонов, т.е. для каждого пикселя существует l градаций яркости. В этом случае необходимо учитывать гораздо большее количество состояний дисплея.
С другой стороны, в современных дисплеях управление разверткой луча и уровнем полутона осуществляется командами, которые представляют собой двоичные кодовые группы. Для определения количества разрядов этих кодовых групп будем считать, что луч должен выводиться равновероятно в любую точку матрицы q*r, а градации полутона могут быть также выбраны равновероятно из интервала [0, l].
Тогда количество разрядов для кодирования величин q, r, l составит:
(4.6)
В данном случае r = 600, q = 800, l = 8.
n1 = 9.644 бит/символ
n2 = 9.229 бит/символ
n3 = 3 бит/символ
Если считать, что все состояния дисплея равновероятны, то энтропия дисплея численно равна:
H(B) = log2 2n1 + n2 + n3 = n1 + n2 + n3 (4.7)
H(B) = 21.873 бит/символ
4.6. Определение максимальной полосы КС
Если на дисплей в единицу времени подается n0 фрагментов информации, то частота подачи информации на дисплей будет равна:
F =
(4.8)Тогда скорость вывода информации на дисплей определиться по формуле:
R = n0 H(B) =
(4.9)Задача согласования КС с дисплеем сводится к следующему:
R >> C (4.10)
или
Fkcmax (4.11)Подставив в эту формулу выражения 4.7 и 4.8, получим:
n0(n1 + n2 + n3)
FkcmaxПри достаточно большом соотношении сигнал-шум величина
1, следовательно, для согласования КС с дисплеем достаточно чтобы выполнялось условие:Fkcmax
n0(n1 + n2 + n3) (4.12)В данном случае необходимо определить полосу КС при n0 = 80 зн/с:
Fkcmax
1.75*103 ГцДля нормальной передачи информации от датчика к дисплею по КС должны выполняться два условия:
(4.13)Из этой формулы следует следующее:
Fkc = Fkmax – Fkmin
Fkc = 1.75 кГц
Таким образом, для нормальной передачи информации от датчика к дисплею по КС должны выполняться два условия:
1) Пропускная способность КС должна быть больше либо равна скорости выдачи информации датчиком.
2) Скорость вывода информации на дисплей должна быть больше либо равна пропускной способности КС.
В данном случае, исходя из формулы (4.13), видно, что достаточная ширина ПП КС составляет 1.75 кГц.
5. КОДИРОВАНИЕ ИНФОРМАЦИИ В КАНАЛЕ СВЯЗИ
Необходимо закодировать заданное сообщение М <АКСЕНЕНКО_И> двумя способами:
1. методом Шеннона-Фано;
2. методом Хаффмана.
Для каждого кода требуется оценить показатель его эффективности.
Для расчетов принять значения вероятностей появления букв, представленные в приложении.
Дискретный КС, работающий без помех, является самым простым техническим устройством. Для такого канала наилучшим способом кодирования является система с неравномерными кодами. При этом наиболее вероятные сообщения необходимо передавать короткими кодовыми группами. При этом основанием кода может быть любое число k.
Допустим, передаче подлежит ансамбль (1,2,3…m) с соответствующими вероятностями (Р1, Р2, Р3… Рm). Тогда количество информации
Ii = - log2 Pi
(5.1)где
= РiОтсюда путем некоторых преобразований можно получить выражение для определения среднего количества разрядов, которые необходимо отвести при передаче символов:
ni =
(5.2)Если среднее количество разрядов не больше дроби, то кодирование оптимальное. Если нет, то говорят что кодирование неоптимальное. В настоящее время разработано множество оптимальных кодов, но классическими являются коды Шеннона-Фано и Хаффмана. Отличительной способностью этих кодов является то, что начало любой кодовой комбинации, с помощью которой кодируется символ, не совпадает с более короткой кодовой комбинацией.