Соответственно сочетания Хt могут быть дискретными и непрерывными случайными величинами.
Случайный процесс называется Х(t) выборочно неправильным, дифференцируемым и интегрируемым в точке ω€Ω, если его реализация x(t) = x(t, ω) соответственно непрерывна, дифференцируема и интегрируема.
Случайный процесс Х(t) называется непрерывным: почти, наверное, если
P(A)=1, A = {ω € Ω : lim x(tn) = x(t)}
В среднем квадратическом, если
LimM[(X(tn) – X(t))2] = 0
По вероятности, если
Aδ ≥ 0 : limP[| X(tn) – X(t)| > δ] = 0
Сходимость в среднем квадратическом обозначают также:
X(t) = limX(tn)
Оказывается, из выборочной непрерывности следует непрерывность почти наверное, из непрерывности почти наверное и в среднем квадратическом следует непрерывность по вероятности.
Теорема. Если X(t) – гильбертов случайный процесс, непрерывный в среднем квадратическом, то mx(t) – непрерывная функция и имеет место соотношение
Lim M [X(tn)] = M [X(t)] = M [lim X(tn)].
Теорема. Гильбертов случайный процесс X(t) непрерывен в среднем квадратическом тогда и только тогда, когда непрерывна его ковариационная функция R(t, t’) в точке (t, t).
Гильбертов случайный процесс X(t) называется дифференцируемым в среднем квадратическом, если существует случайная функция X(t) = dX(t)/dtтакая, что
X(t) = dX(t)/ dt = lim X(t+∆t) – X(t) / ∆t
(t € T, t +∆t € T),
т.е. когда
Lim M [((X(t + ∆t) – X(t) / (∆t)) – X(t))2] = 0
Случайную функцию X(t) будем называть производной в среднем квадратическом случайного процесса X(t) соответственно в точке t или на T.
Теорема. Гильбертов случайный процесс X(t) дифференцируем в среднем квадратическом в точке t тогда и только тогда, когда существует
δ2 R(t, t’) / δtδt’ в точке (t, t’). При этом:
Rx(t, t’) = M[X(t)X(t’)] = δ2 R(t, t’) / δtδt’.
Если гильбертов случайный процесс дифференцируем на Т, то его производная в среднем квадратическом также является гильбертовым случайным процессом; если выборочные траектории процесса дифференцируемы на Т с вероятностью 1, то с вероятностью 1 их производные совпадают с производными в среднем квадратическом на Т.
Теорема. Если X(t) - гильбертов случайный процесс, то
M[dX(t) / dt] = (d / dt) M[X(t)] = dmx(t) / dt.
Пусть (0, t) – конечный интервал, 0 <t1 < … <tn = t – его точки
X(t) - гильбертов случайный процесс.
Yn = ∑ X(ti)(ti – ti-1) (n = 1,2, …).
Тогда случайная величина
Y(t) = limYn
max (ti – ti-1)→0
Называется интегралом в среднем квадратическом процесса X(t) на (0, t) и обозначается:
Y(t) = ∫ X(τ)dτ.
Теорема. Интеграл Y(t) в среднем квадратическом существует тогда и только тогда, когда ковариационная функция R(t, t’) гильбертова процесса X(t) непрерывна на Т×Т и существует интеграл
Ry(t, t’) = ∫ ∫ R(τ, τ’) dτdτ’
Если интеграл в среднем квадратическом функции X(t) существует, то
M[Y(t)] = ∫ M[X(τ)]dτ,
RY(t, t’) = ∫ ∫ R(τ, τ’)dτdτ’
Ky(t, t’) = ∫ ∫ K(τ, τ’)dτdτ’
Здесь Ry(t, t’) = M[Y(t)Y(t’)], Ky(t, t’) = M[Y(t)Y(t’)] – ковариационная и корреляционная функции случайного процесса Y(t).
Теорема. Пусть X(t) – гильбертов случайный процесс с ковариационной функцией R(t, t’), φ(t) – вещественная функция и существует интеграл
∫ ∫ φ(t)φ(t’)R(t, t’)dtdt’
Тогда существует в среднем квадратическом интеграл
∫ φ(t)X(t)dt.
Случайные процессы:
Xi(t) = Viφi(t) (i = 1n)
Где φi(t) – заданные вещественные функции
Vi- случайные величины с характеристиками
M(VI = 0), D(VI) = DI, M(ViVj) = 0 (i ≠ j)
Называют элементарными.
Каноническим разложением случайного процесса X(t) называют его представление в виде
X(t) = mx(t) + ∑ Viφi(t) (t € T)
Где Vi – коэффициенты, а φi(t) – координатные функции канонического разложения процесса X(t).
Из отношений:
M(VI = 0), D(VI) = DI, M(ViVj) = 0 (i ≠ j)
X(t) = mx(t) + ∑ Viφi(t) (t € T)
Следует:
K(t, t’) = ∑ Diφi(t)φi(t’)
Эту формулу называют каноническим разложением корреляционной функции случайного процесса.
В случае уравнения
X(t) = mx(t) + ∑ Viφi(t) (t € T)
Имеют место формулы:
X(t) = mx(t) + ∑ Viφ(t)
∫ x(τ)dt = ∫ mx(τ)dτ + ∑ Vi ∫ φi(t)dt.
Таким образом, если процесс X(t) представлен его каноническим разложением, то производная и интеграл от него также могут быть представлены в виде канонических разложений.
Марковские случайные процессы с дискретными состояниями
Случайный процесс, протекающий в некоторой системе S с возможными состояниями S1, S2, S3, …, называется Марковским, или случайным процессом без последствия, если для любого момента времени t0 вероятные характеристики процесса в будущем (при t>t0) зависит только от его состояния в данный момент t0 и не зависят от того, когда и как система пришла в это состояние; т.е. не зависят от её поведения в прошлом (при t<t0).
Примером Марковского процесса: система S – счётчик в такси. Состояние системы в момент t характеризуется числом километров (десятых долей километров), пройденных автомобилем до данного момента. Пусть в момент t0 счётчик показывает S0/ Вероятность того, что в момент t>t0 счётчик покажет то или иное число километров (точнее, соответствующее число рублей) S1 зависит от S0, но не зависит от того, в какие моменты времени изменились показания счётчика до момента t0.
Многие процессы можно приближенно считать Марковскими. Например, процесс игры в шахматы; система S – группа шахматных фигур. Состояние системы характеризуется числом фигур противника, сохранившихся на доске в момент t0. Вероятность того, что в момент t>t0 материальный перевес будет на стороне одного из противников, зависит в первую очередь от того, в каком состоянии находится система в данный момент t0, а не от того, когда и в какой последовательности исчезли фигуры с доски до момента t0.
В ряде случаев предысторией рассматриваемых процессов можно просто пренебречь и применять для их изучения Марковские модели.
Марковским случайным процессом с дискретными состояниями и дискретным временем (или цепью Маркова) называется Марковский процесс, в котором его возможные состояния S1, S2, S3, … можно заранее перечислить, а переход из состояния в состояние происходит мгновенно (скачком), но только в определённые моменты времени t0,t1,t2, ..., называемые шагами процесса.
Обозначим pij – вероятность перехода случайного процесса (системы S) из состояния I в состояние j. Если эти вероятности не зависят от номера шага процесса, то такая цепь Маркова называется однородной.
Пусть число состояний системы конечно и равно m. Тогда её можно характеризовать матрицей переходаP1, которая содержит все вероятности перехода:
p11 p12 … p1m
p21 p22 … p2m
… … … …
Pm1 pm2 … pmm
Естественно, по каждой строке ∑ pij = 1, I = 1, 2, …, m.
Обозначим pij(n) – вероятностью того, что в результате n шагов система перейдёт из состояния I в состояние j. При этом при I = 1 имеем вероятности перехода, образующие матрицу P1, т.е. pij(1) = pij
Необходимо, зная вероятности перехода pij, найти pij(n) – вероятности перехода системы из состояния I в состояние j за n шагов. С этой целью будем рассматривать промежуточное (между I и j) состояние r, т.е. будем считать, что из первоначального состояния I за k шагов система перейдёт в промежуточное состояние r с вероятностью pir(k), после чего за оставшиеся n-k шагов из промежуточного состояния r она перейдёт в конечное состояние j с вероятностью prj(n-k). Тогда по формуле полной вероятности
Pij(n) = ∑ pir (k) prj (n-k) – равенство Маркова.
Убедимся в том, что, зная все вероятности перехода pij = pij(1), т.е. матрицу P1 перехода из состояния в состояние за один шаг, можно найти вероятность pij(2), т.е. матрицу P2 перехода из состояния в состояние за два шага. А зная матрицу P2, - найти матрицу P3 перехода из состояния в состояние за три шага, и т.д.
Действительно, полагая n = 2 в формуле Pij(n) = ∑ pir (k) prj (n-k), т.е. k=1 (промежуточное между шагами состояние), получим
Pij(2) = ∑ pir(1)prj (2-1) = ∑ pirprj
Полученное равенство означает, что P2 =P1P1 = P21
Полагая n = 3, k = 2, аналогично получим P3 = P1P2 = P1P12 = P13, а в общем случае Pn= P1n
Пример
Совокупность семей некоторого региона можно разделить на три группы:
1. семьи, не имеющие автомобиля и не собирающиеся его покупать;
2. семьи, не имеющие автомобиля, но намеревающиеся его приобрести;
3. семьи, имеющие автомобиль.
Проведённое статистическое обследование показало, что матрица перехода за интервал в один год имеет вид:
0,8 0,1 0,1
0 0,7 0,3
0 0 1
(В матрице P1 элемент р31 = 1 означает вероятность того, что семья, имеющая автомобиль, также будет его иметь, а, например, элемент р23 = 0,3 – вероятность того, что семья, не имевшая автомобиля, но решившая его приобрести, осуществит своё намерение в следующем году, и т.д.)
Найти вероятность того, что:
1. семья, не имевшая автомобиля и е собиравшаяся его приобрести, будет находиться в такой же ситуации через два года;
2. семья, не имевшая автомобиля, но намеревающаяся его приобрести, будет иметь автомобиль через два года.
РЕШЕНИЕ: найдём матрицу перехода Р2 через два года: