Смекни!
smekni.com

Теория случайных чисел (стр. 3 из 11)

X={0,1,2,…,9}, P(x=k)=0.1, k=0,1,…,9, Y=x2, Z=(x-5)2.

X 0 1 2 3 4 5 6 7 8 9
P 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1
Y 0 1 4 9 16 25 36 49 64 81
Py 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1
Z 25 16 9 4 1 0 1 4 9 16
Pz 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1

Закон распределения СВ Z:

Z 0 1 4 9 16 25
Pz 0.1 0.2 0.2 0.2 0.2 0.1

Бинарные операции (с несколькими величинами)

СВ X,Y заданы в 1 опыте.

Исход опыта E1 E2 En
Вероятность исхода P1 P2 Pn
X X1 X2 Xn
Y Y1 Y2 Yn
Z=j(XY) Z1 Z2 Zn

Сложнее, если СВ задана только своим распределением:

X a1 a2 an
Р p1 p2 pn
Y b1 b2 bn
Р g1 g2 Gn

Z=X+Y

СВ Z принимаетзначения ak+bs, где ak=a1,a2,…,an; bs=b1,b2,…bm.

Общее количество возможных значений СВ = m×n.

P(Z=ak+bs)=P(X=ak, Y=bs)

Для нахождения такой вероятности необходимо знать закон совместного распределения СВ X и Y.

Набор точек (ak,bs) вместе с вероятностями P(X=ak, Y=bs) называется совместным распределением СВ X и Y. Обычно такое распределение задается таблицей.

Определение закона распределения суммы СВ по законам распределения слагаемых называется композицией законов распределения.


X \Y

b1 b12 bs bm Px
a1 P11 P12 P1s P1m P1
a2 P21 P22 P2s P2m P2
ak Pk1 Pks Pkm Pk
an Pn1 Pn2 Pns Pnm Pn
Py g1 g2 gs gm 1

Наиболее просто вероятности Pks находятся в случае независимости СВ X и Y. Две СВ X и Y называются независимыми тогда и только тогда, когда

P(X=ak, Y=bs)=P(X=ak)×P(Y=bs)

Pks=Pk×Ps

По известному закону распределения совместного распределения СВ X и Y могут быть найдены одномерные законы распределения СВ X и Y.

Теорема . Если СВ Х,Y являются независимыми, то любые функции j(Х) и y(У) от этих величин также являются независимыми.

Распределение функции от случайной величины

Х – непрерывная СВ

. По закону распределения СВ Х. Найти закон распределения СВ Y.

Если СВ ХÎ[х01], то

Î [y0 ,y1].

Предполагается, что функция j(х) является однозначной и имеет обратную функцию q(y).

Воспользовавшись элементами вероятности:

получим

.

Закон распределения не меняется, если q(y) является линейной.

fy(y)=fx(x).

Многомерные законы распределения СВ

Часто при решении практических задач мы имеем дело не с одной, а с совокупностью нескольких случайных величин, которые взаимосвязаны.

nx1,x2,…,xnn-мерная случайная величина – совокупность n взаимосвязанных случайных величин. Для ее описания используются многомерные законы распределения.

Двумерные функции распределения

X,YF(x,y)=P(X<x,Y<Y)

Функция F(x,y) обладает свойствами, аналогичными свойствам одномерной функции:

– не убывающая 1. x2³x1ÞF(x2,y)³F(x1,y)

– не отрицательная y2³y1ÞF(x,y2)³F(x,y1)

0£F(x,y)£ 1 2. F(¥,¥)= 1 F(-¥,-¥)=0

3. Fx(x)=P(X<x+=P(X<x,Y<¥)=F(x,¥)

Fy(y)=P(Y<y)=P(X<¥,Y<y)=F(¥,y)

f(x,y) – функция плотности вероятности совместного распределения величин x и y.

1. f(x,y)³0

2.

– условие нормировки

3. По известным двумерным находятся соответствующие одномерные

В случае статистической независимости СВ Х и У

F(x,y)=Fx(x)×Fy(y)

f(x,y)=fx(x)×fy(y)

F(x,y)=Fx(x)×Fy(y/x)=Fx(x/y) – для условных

f(x,y)=fx(x) ×f(y/x)=fy(y) ×f(x/y)

Раздел 4. Числовые характеристики СВ

Исчерпывающие представления о СВ дает закон её распределения.

Во многих задачах, особенно на заключительной стадии, возникает необходимость получить о величине некоторое суммарное представление: центры группирования СВ – среднее значение или математическое ожидание, разброс СВ относительно её центра группирования.

Эти числовые характеристики в сжатой форме отражают существенные особенности изучаемого распределения.

Математическое ожидание (МО)

М(х), МО(х), mx, m

Основные свойства МО:

1. М(х) СВ Х Þ Хmin£М(х)£Хmax

2. М(С)=С МО постоянной величины есть величина постоянная

3. М(Х±У)=М(Х) ±М(У)

4. М(Х×У)=М(х) ×М(у) Þ М(Сх)=СМ(х) – МО произведения двух независимых СВ

5. М(аХ+вУ)=аМ(Х)+вМ(У)

6. М(Х-m)=0 – МО СВ Х от её МО.

МО основных СВ

Дискретные Случайные Величины

1. Биноминальные СВ МО(Х)=np

2. Пуассоновские СВ МО(Х)=l

3. Бернуллиевы СВ МО(Х)=р

4. Равномерно распред. СВ

Непрерывные Случайные Величины

1. Равномерно распределенная СВ

2. Нормально распределенная СВ MO(X)=m

3. Экспоненциально распределенная СВ

Дисперсия СВ

1. R=Xmax-Xmin – размах СВ

2. M(|X-m|) – среднее абсолютное отклонение СВ от центра группирования

3. M(X-m)2 – дисперсия – МО квадрата отклонения СВ от центра группирования

M(X-m)2=D(X)=s2=sx2=s2(X)

– среднеквадратическое отклонение (стандартное отклонение).

Основные свойства дисперсии:

1. Для любой СВ Х: D(X)³0. При Х=constD(X)º0.

2. D(X)=M(X2)-M2(X)=M(X2-2mX-m2)

3. D(cX)=c2D(X)

4. D(X+c)=D(X)

5. D(X+Y)=D(X)+D(Y), D(X-Y)=D(X)+D(Y)

В общем случае:

D(X+Y)=M(X+Y-mx+y)2=M((X-mx)+(Y-my))2=M((X=mx)2+2(X-mx)(Y-my)+(Y-my)2)=

=D(X)+2M((X-mx)(Y-my))+D(Y). Второй член этого выражения называется корреляционным моментом. mx+y=M(X)+M(Y)=mx+my. D(X)=M(X-mx)2.

M((X-mx)(Y-my))=K(X,Y)=Kxy=cov(x,y) – ковариация

Kxy/sxsy=rxy – коэффициент корреляции

6. Независимые СВ: D(XY)=D(X)D(Y)+M2(X)D(Y)+M2(Y)D(X)

Дисперсия основных СВ

ДСВ

1. Биноминальные D(X)=npq

2. Пуассоновские D(X)=l

3. Бернуллиевы D(X)=pq