6. Алгебра событий
закономерность случайный теория вероятность
Аксиоматическое определение вероятности.
Более верным математически определением вероятности, чем классическое, является аксиоматическое определение. Здесь события рассматриваются как элементы некоего конечного или бесконечного множества Ω. Для простоты возьмем конечное множество Ω=(w1,w2,…,wn), где wi это элементы множества Ω. Это множество Ω называют пространством элементарных событий, а его элементы wi – элементарными событиями.
Рассматривают такое подмножество F(Ω), которое обладает свойством ΩЄF. Событие Ө - пустое множество обозначим как невозможное событие ӨЄF(Ω). Тогда несовместимые события А и В будут определяться как
А ∩ В = Ө
(∩ - знак объединения множеств, U – пресечение множеств)
Тогда если ӨЄF, для любых событий АЄF и ВЄF верно следующее соотношение А∩ВЄF, АUВЄF
Такое множество F – называют алгебра событий.
Вероятностью события А называют такую числовую функцию Р(А), определенную на алгебре событий F, для которой справедливы следующие аксиомы:
1. Для любого АЄF верно Р(А)≥0 – аксиома неотрицательности.
2. Р(Ω)=1 – аксиома нормированности.
3. Если АЄF и ВЄF несовместимы (то есть А∩В=Ө), то Р(АUВ)=Р(А)+Р(В) – аксиома аддитивности.
7. Формула Бейеса
Пусть мы знаем вероятности событий А и В: Р(А) и Р(В). И пусть мы знаем условную вероятность события А по В: Р(A|B). Как найти условную вероятность P(B|A)? На этот вопрос отвечает формула Бейеса. Р(B|A)=P(A|B)·P(B)/P(A) (1) Разумеется этой формулой можно пользоваться только при условии, что Р(А)0. Формула Бейеса выводится из следующих равенств: Р(ВА)=Р(В|A)·P(A) (2) Р(AB)=Р(A|B)·P(B) (3) Р(ВА)=Р(AB) (4) так как пересечение событий В и А очевидно не зависит от порядка, в котором записаны А и В, т.е. ВА=AB. В случае Р(А)=0 принимаю обычно, что Р(В|A) есть величина неопределенная. 8.Формула полной вероятности.
Пусть имеем полную группу из n попарно непересекающихся событий
То есть , , (6)Пусть мы знаем условные вероятности некоторого события А по Еi: Р(А|Ei) и вероятности Р(Ei), i=1,...,n. Справедлива следующая формула полной вероятности для события А Р(А)=Р(A|E1)·P(E1)+...+P(A|En)·P(En) (7) Доказательство этой формулы вытекает из следующих равенств P(A)=P()=P(A(Ei))=P(AE1)+...+P(AEn)=Р(A|E1)·P(E1)+...+P(A|En)·P(En) (8) Из элементарной формулы Бейеса (1) и формулы полной вероятности (7) вытекает следующая более полная формула Бейеса
Р(Еi|A)=P(A|Ei)·P(Ei)/(Р(A|E1)·P(E1)+...+P(A|En)·P(En)) (9)
8. Полная группа событий
Несовместимые события – события, наступление которых одновременно при одном и том же опыте (испытании) невозможно. Например, выпадение двух граней кубика при одном броске невозможное событие.
Полная группа событий – совокупность однородных несовместимых событий, наступление одного из которых обязательно. Для примера с игральным кубиком полная группа событий будет выпадение каждой из шести граней.
И по классическому и по аксиоматическому определению вероятности очевидно, что вероятность наступления любого случайного события А будет равна 0<Р(А)<1. Краевые значения 0 и 1 будут определять неслучайные события – их делят на:
невозможные – ( Р(А)=0 или Р(Ө)=0) – наступление которых при данных условиях невозможно
достоверные – (Р(А)=1) – наступление которых при данных условиях обязательно.
Для несовместимых событий легко определить вероятность объединения (суммы) событий. Если Аi при i Є (1, n) несовместимые события, то вероятность суммы событий Аi равна сумме их частных вероятностей.
Р(А1+А2+,…,+Аn) = Р(А1)+Р(А2)+…+Р(Аn)
9. Независимость событий
Событие А называется независимым от события В, если наступление события А не оказывает никакого влияния на вероятность наступления события В.Вероятность одновременного наступления двух независимых событий равна произведению вероятностей этих событий.
Р(АВ) = Р(А)*Р(В) или Р(А1,А2,…,Аn) = Р(А1)*Р(А2)*…*Р(Аn)
Учитывая независимость событий и возможность появления двух событий одновременно тогда вероятность суммы двух независимых событий А и В более точно находят следующим образом:
Р(А+В) = Р(А) + Р(В) – Р(АВ),
где Р(АВ) – вероятность их одновременного появления
10. Условность событий
Безусловные события рассматриваются вне конкретных условий и обозначаются просто буквами А,В,С и т.д.
Условные события – рассматриваются при наступлении других событий. Они обозначаются например А/В – событие А при условии наступления события В и т.д.
Условную вероятность события А при наступлении события В находят следующим образом:
Р(А/В)=Р(АВ)/Р(В), если Р(В) ≠0
С помощью условных и безусловных вероятностей можно корректно определить зависимость или независимость событий.
События А,В и С называют независимыми если их безусловные вероятности равны их условным вероятностям:
Р(А)=Р(А/В)=Р(А/С)=Р(А/ВС)
Р(В)=Р(В/А)=Р(В/С)=Р(В/АС)
Р(С)=Р(С/А)=Р(С/В)=Р(С/АВ)
Это так называемое условие независимости событий. Если это условие нарушается, то события зависимы. Чем больше различия, тем сильнее зависимость.
Если рассмотреть вероятность совмещения (произведения) двух событий с учетом условности, то есть если принять что событие А наступает при условии наступления события В, то вероятность совмещения можно записать двумя способами:
Р(АВ)=Р(А)*Р(В/А)
Р(АВ)=Р(В)*Р(А/В)
Если брать три события, то количество способов, которыми можно записать вероятность их совмещения возрастает до двенадцати и т.д.
11. Понятие случайной величины
Случайная величина – величина, значение которой получается в результате пересчета или измерений и не может быть однозначно определено условиями его возникновения.
То есть случайная величина представляет собой числовые случайные события.
Случайные величины подразделяют на два класса:
Дискретные случайные величины – значения этих величин представляют собой натуральные числа, которым как отдельным событиям сопоставляются частоты и вероятности.
Непрерывные случайные величины – могут принимать любые значения из некоторого промежутка (интервала). Учитывая, что на промежутке от Х1 до Х2 числовых значений бесконечное множество, то вероятность того, что случайная величина ХiЄ(Х1,Х2) примет определенное значение, бесконечно мала. Учитывая, что невозможно перечислить все значения непрерывной случайной величины, на практике пользуются средним значением интервала (Х1,Х2).
Для дискретных случайных величин функция у=Р(х) - называется функцией распределения случайной величины и имеет график – его называют многоугольник распределения.
Различают следующие группы числовых характеристик: характеристики положения (математическое ожидание, мода, медиана, квантиль и др.), рассеивания (дисперсия, среднеквадратичное отклонение и др.), характеристики формы плотности распределения (показатель асимметрии, эксцесса и др.).
Математическим ожиданием (средним значением по распределению) называется действительное число, определяемое в зависимости от типа СВ Х формулой:
mX = M[X] =
Математическое ожидание существует, если ряд (соответственно интеграл) в правой части формулы сходится абсолютно. Если mX = 0, то СВ Х называется центрированной (обозначается
).Свойства математического ожидания:
M[C] = C,
где С - константа;
M[C×X] = C×M[X];
M[X+Y] = M[X]+M[Y],
для любых СВ X и Y;
M[X×Y] = M[X]×M[Y] + KXY,
где KXY = M[
] - ковариация СВ X и Y.Начальным моментом k-го порядка (k = 0, 1, 2, ...) распределения СВ Х называется действительное число, определяемое по формуле:
nk = M[Xk] =
Центральным моментом k-го порядка распределения СВ Х называется число, определяемое по формуле:
mk = M[(X-mX)k]=
Из определений моментов, в частности, следует, что: n0 = m0 = 1, n1 = mX, m2 = DX = sX2.
Модой СВНТ называется действительное число Mo(X) = x*, определяемое как точка максимума ПР f(x). Мода может иметь единственное значение (унимодальное распределение) или иметь множество значений (мультимодальное распределение).
Медианой СВНТ называется действительное число Mе(X) = x0, удовлетворяющее условию: P{X<x0} = P{X³x0} или F(x0) = 0,5.
Квантилем уровня р называется действительное число tp, удовлетворяющее уравнению: F(tp) = p. В частности, из определения медианы следует, что x0 = t0,5.
Дисперсией СВ Х называется неотрицательное число D[X] = DХ, определяемое формулой:
DX = M[(X-mX)2] = M[X2] - mX2 =
Дисперсия существует, если ряд (соответственно интеграл) в правой части равенства сходится. Свойства дисперсии:
D[C] = 0, где С - константа;
D[C×X] = C2×D[X];
D[X-C] = D[X],
дисперсия, очевидно, не меняется от смещения СВ X;
D[X + Y] = D[X] + D[Y] + 2×KXY,
где KXY = M[
] - ковариация СВ X и Y;Неотрицательное число sХ =
называется среднеквадратичным отклонением СВ X. Оно имеет размерность СВ Х и определяет некоторый стандартный среднеквадратичный интервал рассеивания, симметричный относительно математического ожидания. (Величину sХ иногда называют стандартным отклонением). СВ Х называется стандартизованной, если mX = 0 и sХ = 1. Если величина Х = const (т.е. Х не случайна), то D[X] = 0.