4.1 Вероятности ошибок различения M известных сигналов
Под обнаружением сигнала в радиоэлектронике понимают анализ принятого колебания y(t), завершающийся вынесением решения о наличии или отсутствии в нем некоторой полезной составляющей, которую и называют сигналом. Различение М сигналов определяют как анализ принятого колебания y(t), заканчивающийся принятием решения о том, какой именно из М сигналов, принадлежащих указанному заранее множеству S{s0(t), s1(t), …, sM-1(t)} присутствует в y(t). Обнаружение сигнала есть частный случай различения двух сигналов, один из которых равен нулю на всем интервале наблюдения.
Пусть наблюдаемое колебание y(t) является реализацией случайного процесса, который имеет распределение Wy, т.е. n-мерную плотность вероятности (ПВ) W(y) [либо функционал ПВ W(y(t))], принадлежащее одному из М непересекающихся классов Wi (Wi∩Wk=Ø, i≠k, i, k=0, 1, …, M-1). Необходимо, пронаблюдав реализацию y(t), решить, какому из классов принадлежит Wy. Предположение о том, что Wy
Wi, называют гипотезой Hi: Wy Wi. Решения, являющиеся результатом проверки гипотез, будем обозначать , где i {0, 1, …, M-1} – номер гипотезы, истинность которой декларируется принятым решением. Анализируемое колебание y(t) является результатом взаимодействия присутствующего в нем сигнала si(t) с мешающим случайным процессом (помехой, шумом) x(t): y(t)=F[si(t), x(t)]. От того, какой из М возможных сигналов присутствует в y(t), зависит ПВ ансамбля, которому принадлежит y(t), так что каждому si(t) соответствует некоторый класс Wi распределений ансамбля, представляемого y(t). Таким образом, гипотезы Hi трактуются как предположения о наличии i-го (и только i-го) сигнала в y(t). При этом решения , одно из которых служит итогом процедуры различения, есть утверждения о том, что в принятом колебании содержится именно i-й сигнал. Гипотезам Hi соответствуют классы Wi. Гипотезу Hi называют простой, если класс Wi содержит одно и только одно распределение. Любую другую гипотезу называют сложной. М сложных гипотез называют параметрическими, если соответствующие им классы отличаются друг от друга только значениями конечного числа параметров одного и того же распределения, описываемого известным законом. В противном случае гипотезы именуют параметрическими.Рассмотрим различение М детерминированных ненулевых сигналов одинаковой энергии. При этом за основу будет принято правило максимального правдоподобия (МП)
оптимальное в том случае, когда критерием качества служит сумма условных вероятностей ошибок, либо полная вероятность ошибки при равных апостериорных вероятностях всех сигналов pi=1/M.
При произвольном М различитель, придерживающийся правила МП, считает присутствующим в y(t) сигнал, наименее удаленный от y(t) в смысле евклидова расстояния
или, что при одинаковых энергиях сигналов равносильно, имеющий с y(t) максимальную корреляцию . Если рассматривать сигналы s0(t), s1(t), …, sM-1(t) как пучок векторов, расположенный в М-мерном пространстве, то для того чтобы по возможности уменьшить вероятность перепутывания i-го сигнала с k-м, следует максимально «раздвинуть» i-й и k-й векторы. Таким образом, оптимальный выбор М детерминированных сигналов сводится к поиску такой конфигурации пучка М векторов, в которой минимальное евклидово расстояние между парой векторов было бы максимальным: mindik=max (i≠k). Так как при равенстве энергий, т.е. длин векторов ,где ρik – коэффициент корреляции i-го и k-го сигналов, Е – энергия сигнала, то требование максимума минимального расстояния тождественно условию минимума максимального коэффициента корреляции в множестве сигналов S{s0(t), s1(t), …, sM-1(t)}. Предельно достижимый минимум максимального коэффициента корреляции устанавливается довольно легко. Просуммировав ρik по всем i и k, получим
где неравенство следует из неотрицательности квадрата под интегралом. Кроме того, в сумме слева М слагаемых при i=k равны единице, а остальные М(М-1) не больше ρмакс=max ρik (i≠k). Поэтому М+М(М-1)ρмакс≥0 и ρмакс≥-1/(М-1).
Конфигурацию из М векторов, в которой косинус угла между любой парой векторов равен -1/(М-1), называют правильным симплексом. Если эти векторы взять в качестве М сигналов, то полученный детерминированный ансамбль при равновероятности всех si(t) обеспечит минимум полной вероятности ошибки Pош, что и решает вопрос об оптимальном выборе М сигналов. При М>>1 выполняется соотношение -1/(М-1)≈0, и поэтому при большом числе различаемых сигналов ортогональный ансамбль практически не проигрывает симплексному в значении Pош.
Последовательность вывода точного выражения для вероятности ошибки различения М сигналов с произвольными ρik такова. Плотность вероятности (ПВ) системы случайных величин z0, z1, …, zM-1 есть М-мерный нормальный закон, для задания которого достаточно знать средние всех zi и их корреляционную матрицу. Для средних при истинности гипотезы Hl имеем
. Корреляционный же момент i-й и k-й корреляций равен N0Eρik/2. После того как М-мерная ПВ найдена, ее М-кратный интеграл по области zl≥zi, i=0, 1, …, M-1, позволяет получить вероятность правильного решения при условии истинности Hl. Сумма таких вероятностей, деленная на М (с учетом равновероятности сигналов), будет полной вероятностью правильного решения Pпр, связанной с Pош очевидным равенством Pош=1-Pпр. Получаемый таким образом М-кратный интеграл в ряде важных случаев удается свести к однократному. Так, для любых равнокоррелированных (равноудаленных) сигналов (ρik=ρ, i≠k)В практических расчетах это выражение используют редко из-за необходимости численного интегрирования. Полезна его оценка сверху, для вывода которой будем считать, что истинна гипотеза Hl. При этом ошибка происходит всегда, когда истинно хотя бы одно из событий zi>zl, i≠l. Вероятность ее Pошl, равная вероятности объединения
событий zi>zl, i≠l, по теореме сложения вероятностей,и в силу неравенства Буля не больше первой суммы справа. Так как каждое слагаемое этой суммы есть вероятность перепутывания двух сигналов [sl(t) с si(t)], то для равноудаленных сигналов
Здесь
- отношение сигнал/шум на выходе фильтра, согласованного с si(t) при гипотезе Hi, - вероятность перепутывания двух сигналов. При равновероятных сигналах (pi=1/M) приходим к так называемой аддитивной границе полной вероятности ошибкиИспользование этого выражения оправдывается, с одной стороны, асимптотическим сближением его правой части и Pош по мере роста требований к качеству различения (Pош→0), а с другой – тем, что, выбирая необходимую энергию сигналов (минимальное значение q) исходя из правой части выражения, разработчик всегда действует с известной перестраховкой, гарантируя удержание фактической вероятности ошибки ниже цифры, принятой им при расчете. [9]
4.2 Вероятности ошибок различения M флуктуирующих сигналов
Далеко не всегда наблюдатель подробно априори осведомлен о различаемых сигналах. Чаще ему заранее не известны не только номер присутствующего в анализируемой реализации сигнала, но и значения каких-либо параметров (амплитуды, частоты, фазы и пр.) каждого из М возможных сигналов. Сами сигналы при этом уже не являются детерминированными, поскольку параметры их не заданы; соответствующую задачу различения называют различением сигналов с неизвестными параметрами.