Вариант 1
Понятие о вероятности события
Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой Р (A) = m / n, где m - число элементарных исходов, благоприятствующих A; n - число всех возможных элементарных исходов испытания.
Классическое и статистическое её определение
Классической вероятностью называют отношение m к n, где n-число всевозможных, равновозможных, единственных исходов, m-число число благоприятствующих событию А исходов. P(A)=m/n. Если n достаточно велико, то частность или число, близкое к нему называют статистической вероятностью (при котором вероятностью события называют относительную частоту его появления при многократном воспроизведении комплекса условий эксперимента).
Теорема сложения и умножения вероятностей
Теорема сложения вероятностей: вероятность суммы 2-х несовместимых событий = сумме их вероятностей.
P(A+B)=P(A)+P(B). Совместные события P(A+B)=P(A)+P(B)-P(AB).Теорема умножения вероятностей: Произведение зависимых событий 2-х событий = произведению вероятности на условную вероятность 2-го, вычисленного в предположении, что 1-е, событие произошло: P(AB)=P(A/B)P(B)=P(B/A)P(A) Если событие А и В независимы, то вероятность произведения этих событий = произведению их вероятностей. P(AB)=P(A)*P(B);
Случайная функция
Случайная функция, функция произвольного аргумента t (заданная на множестве Т его значений и сама принимающая или числовые значения или, более общо, значения из какого-то векторного пространства) такая, что её значения определяются с помощью некоторого испытания и в зависимости от его исхода могут быть различными, причём для них существует определённое распределение вероятностей.
Стационарность и эргодичность
Стационарным случайным процессом называется такой случайный процесс, для которого все числовые характеристики не изменяются при сдвиге аргумента t. Это означает, что MX(t)=const, DX(t)=const, Rx(ti,tj)=Rx(ti,ti+τ), tj=ti+τ. (*)
Иначе говоря, для стационарного случайного процесса математическое ожидание и дисперсия не зависят о расположения интервала (ti,tj) по оси t, для которого они определяются, а автокорреляционная функция зависит только от расстояния между ti и tj и являются, таким образом, функцией лишь одного аргумента τ.
Случайный процесс обладает свойством эргодичности, если средние значения его числовых характеристик, определенные на достаточно большом временном интервале, равны средним значениям тех же характеристик по множеству реализаций эквивалентно усреднению по времени для любой достаточно «длительной» реализации. В этом случае одна единственная реализация дает представление о свойствах случайного процесса в целом, являясь как бы его «полномочным представителем».
Свойство эргодичности для стационарного случайного процесса обычно выполняется при стремлении к нулю его автокорреляционной функции при τ→∞.
Вариант 2
Понятие об условной вероятности
Вероятность события А, вычисленная при условии, что произошло событие В, называется условной вероятностью P(A/B) события A. Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого, т.е. для независимых событий Р(А/В)=Р(A), а для зависимых Р(А/В) не равно Р(A).
Формула полной вероятности
Пусть известны вероятности событий В1, В2,…Вnи условные вероятности события А, вычисленные в предположении, что произошли события В1 или В2 или … Вn, тогда вероятность события А может быть найдена по формуле полной вероятности:
Теорема Байеса
На основе формулы Бейеса решается задача о нахождении вероятности P(Hi/A) гипотезы Hi при условиях, что в результате проведённого эксперимента произошло событие А, а гипотезы H1, H2 … Hn образуют полную группу, причем их вероятности до опыта известны и равны соответственно P(H1), P(H2), … P(Hn). Согласно по формуле Бейеса
С помощью этой формулы переоценивают вероятности гипотез P(Hi), называемые априорными, т.е. известными до опыта.
Основные числовые характеристики случайной функции
Математическим ожиданием случайного процесса понимают неслучайную функцию M(X(t)), которая при каждом фиксированном значении времени ti равна математическому ожиданию соответствующего сечения случайного процесса mX(t)=M(X(t)).
Под дисперсией случайного процесса понимают неслучайную функцию DX(t), значение которой для фиксированного tiравно дисперсии соответствующего сечения процесса DX(t)=D(X(t)).
Корреляционная функция оценивает степень зависимости между различными сечениями случайного процесса, являющегося функцией двух аргументов t1 и t2 и уменьшающегося с увеличением расстояния между ними. Таким образом, корреляционный функцией называют неслучайную функцию RX(ti,tj), двух аргументов tiи tj равна корреляционному моменту соответствующих сечений случайного процесса: RX(ti,tj)=M(X(~)* (ti)X* (tj)), где X* (ti) и X* (tj) – центрированные случайные величины, т.е. X* (ti)=X*(ti)-MX(ti); X* (tj)=X(tj)-MX(tj).
Вариант 3
Понятие о законе распределения случайной величины.
Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения.
Функция распределения.
Функцией распределения называют функцию F(x), определяющую вероятность того, что случайная величина Х в результате испытаний примет значения, меньше х, т.е. F(x)=P(X<x). Эта функция существует как для непрерывных, так и для дискретных величин.
Плотность вероятности.
Плотность вероятности случайной величины X, функция р(х), такая, что при любых a и b вероятность неравенства а < Х < b равна
.Их связь и свойства
Функция распределения вероятности — просто функция плотности вероятности, проинтегрированная от -
до определенного значения. Для целочисленных случайных величин интеграл заменен суммированием по соответствующим индексам.Функция распределения, свойства: 1. Значения функции распределения принадлежат отрезку (0,1):
; 2. F(x) - неубывающая функция, т.е. , если ; 3. Если возможные значения случайной величины принадлежат интервалу (a,b), то: 1) F(x)=0 при ; 2) F(x)=1 при ;Плотность вероятности, свойства: 1)
; 2) 3) 4)Автокорреляционная функция (АКФ)
Показывает связь сигнала (функции) с копией самого себя, смещённого на величину m.
График автокорреляционной функции можно получить, отложив по оси ординат коэффициент корреляции двух функций (базовой и функции сдвинутой на величину m) а по оси абсцисс величину m. Если исходная функция строго периодическая, то на графике АКФ тоже будет строго периодическая функция. Таким образом, из этого графика можно судить о периодичности базовой функции, а следовательно и о её частотных характеристиках. Определяется выражением
, где значение поля в i-той точке. i=1…n. m – интервал принимающий значения . Свойства автокорреляционной функции: 1) АКФ – четная. Т.е. R(m)=R(-m). 2) При m=0, АКФ=D(дисперсии) 3) При сложении неслучайной функции φ(t) и случайного процесса АКФ процесса не меняется.4)При умножении случайного процесса на неслучайную функцию φ(t) АКФ процесса умножается на произведение φ(ti) φ(tj).Вариант 4
Числовые характеристики положения случайной величины.
Такая характеристика случайной величины, как математическое ожидание, квантиль называется иногда характеристикой положения, так как она дает представление о положении случайной величины на числовой оси. Другими характеристиками положения являются мода и медиана.
y - квантиль — числовая характеристика закона распределения случайной величины; такое число, что данная случайная величина попадает левее его с вероятностью, не превосходящей: y
Модой М дискретной случайной величины называется ее наиболее вероятное значение, модой М непрерывной случайной величины – значение, в котором плотность вероятности максимальна.
Медиана Ме – делит вариационный ряд на две части, равные по числу вариантов. Если число вариантов нечётно, т.е. n=2k+1, то Me=
, при четном n=2k, то Me=