Равномерное распределение вероятностей.
Пусть плотность вероятности А равна нулю всюду, кроме интервала (a; b), на котором она постоянна (рис. 6). Тогда можно записать
p (a < X < b) = A = .
Рис. 6. Дифференциальный и интегральный законы
равномерного распределения
Тогда дифференциальный закон равномерного распределения определяется
¦ (x) =
Интегральный закон распределения
F (x) = .
При х ³ b имеем
F (x) =
Таким образом интегральный закон равномерного распределения задается (рис. 6)
F (x) =
Основные характеристики распределения
М (X) = ;
D(X) =
=
=
.
Биноминальное распределение
Пусть при некотором испытании событие А может наступить или не произойти (А). Обозначим вероятность А через р, а А через q = 1 -р ( других итогов испытания нет ). Тогда исходами двух последовательных независимых испытаний и их вероятностью будут:
АА - р2; АА - рq; АА - qр; АА - q2.
Отсюда видно, что двукратное появление события А равно р2, вероятность однократного появления - 2 рq, а вероятность того, что А не наступит ни разу - q2. Эти результаты единственно возможные и поэтому
.
Это рассуждение можно перенести на любое число испытаний.
Например, при трех испытаниях получим
.
Подсчитаем вероятность того, что при n испытаниях событие А появится m раз. Это может произойти, например, в последовательности
Ясно, что вероятность равна рmqn-m. Но m событий А может быть и в другом сочетании. Число всех возможных сочетаний из n элементов по m (количество событий А) равно числу сочетаний . Используя теорему сложения вероятностей получаем общую вероятность Рm,n наступления m событий А из n испытаний
Pm,n =
= .
Из этой формулы видно, что вероятности Рm,n для различного исхода испытаний (появление или не появление определенного результата А) определяется
pn + npn-1q + .
Коэффициенты перед вероятностями р, q являются биноминальными коэффициентами, а общая вероятность представляет слагаемые в разложении бинома ( р + q )n. Поэтому закон распределения случайной величины Х, в котором вероятность наступления событий А определяется коэффициентами бинома, называется биноминальным распределением дискретной случайной величины. Этот закон может быть задан в виде таблицы 1.
Таблица 1
Биноминальный закон распределения
хi | 0 | 1 | 2 | ... | m | ... | n |
pi | qn | npqn-1 | ... | ... | pn |
Биномиальные коэффициенты удобно получать с помощью треугольника Паскаля.
1 n = 0
1 1 n = 1
1 2 1 n = 2
1 3 3 1 n = 3
1 4 6 4 1 n = 4
1 5 10 10 5 1 n = 5
Все строки треугольника ( начинающегося с единицы ) начинаются и заканчиваются единицей. Промежуточные числа получаются сложением соседних чисел вышестоящей строки. Числа, стоящие в одной строке, являются биноминальными коэффициентами соответствующей степени.
Из описания биномиального распределения становится ясно, что область его действия там, где возможно многократное проведение испытаний с известной вероятностью.
На рис. 7 представлен биномиальный закон распределения.
Рис. 7. Биномиальный закон распределения
Определим основные характеристики этого распределения.
Математическое ожидание
М (Х) =
+
+
= np (q + p)n-1 = np.
Дисперсия распределения может быть определена из общего выражения
,
но это приводит к громоздким вычислениям. В то же время случайная величина Х принимает в каждом опыте только два значения: 1, если событие А произошло и 0, если оно не произошло с вероятностями, соответственно, р или q. Тогда математическое ожидание одного опыта определится
М (Х1) = 0×q + 1×р = р = х
и соответственно дисперсия одного опыта
D (Х1) = (0 - р)2×q + (1 - р)2×р = р2q + q2р = рq (р + q) = рq.
Тогда дисперсия всех n опытов составит
D (X) = n×p×q.
Закон Пуассона
В случае малых р ( или, наоборот, близких к 1 ) биноминальный закон распределения можно преобразовать следующим образом
,
где .
.
Определим предел Рm,n при n ® ¥ и постоянном m. Тогда пределы
равны единице, а .
Окончательно имеем
.
Это распределение называется законом Пуассона, где l - интенсивность распределения. Используется в задачах с редкими событиями. На рис. 8 представлена схема вероятностей, распределенных по закону Пуассона.
Рис. 8. Закон распределения Пуассона
Определим его основные характеристики и смысл величины l.
Запишем закон распределения в виде таблицы.
õi | 0 | 1 | 2 | ... | m | ... |
pi | e-l | ... | ... |
M (X) =
+ .
Выражение в скобках есть разложение функции еl в ряд Маклорена.
Поэтому
М (Х) = lе-lеl = l.
Не рассматривая вывод отметим, что
D (Х) = l,
т.е. дисперсия равна математическому ожиданию.
Рассмотренные виды распределений случайной величины, конечно, не исчерпывают всех существующих распределений. Можно назвать еще несколько: распределение Бернулли, экспоненциальное распределение, гамма - распределение, распределение Вейбула, гипергеометрические распределения и др. При определенных условиях и параметрах один вид распределения может переходить в другой. Поэтому при решении практических задач по законам распределения случайных величин следует обращаться к специальной литературе.
Понятие статистической гипотезы и статистического критерия
Статистической гипотезой называют любое утверждение о виде или свойствах распределения наблюдаемых в эксперименте случайных величин. Такие утверждения можно делать на основе теоретических соображений или статистических исследований других наблюдений. Например, при многократном измерении некоторой физической величины, точное значение Х которой не известно, но в процессе измерений оно меняется. На результат измерений влияют многие случайные факторы, поэтому результат i - го измерения можно записать в виде аi = Х + εi, где εi - случайная погрешность измерения. Если εi складывается из большого числа ошибок, каждая из которых не велика, то на основании центральной предельной теоремы можно предположить, что случайные величины аi имеют нормальное распределение. Такое предположение является статистической гипотезой о виде распределения наблюдаемой случайной величины.
Если для исследуемого явления сформулирована та или иная гипотеза ( обычно ее называют основной или нулевой гипотезой и обозначают символом Но ), то задача состоит в том, чтобы сформулировать правило, которое позволяло бы по результатам наблюдений принять или отклонить эту гипотезу. Правило, согласно которому проверяемая гипотеза Но принимается или отвергается, называется статистическим критерием проверки гипотезы Но .
Наиболее распространены такие статистические гипотезы, как:
а) вида распределения;
б) однородности нескольких серий независимых результатов;
в) случайности результатов эксперимента и т.п.
Статистический критерий проверки гипотезы Но служит для определения возможного отклонения от основной гипотезы. Характер отклонений может быть различным. Если критерий ²улавливает² любые отклонения от Но, то такой критерий называют универсальным или критерием согласия. Существуют критерии, которые выявляют отклонения от заданного вида, это узко направленные критерии.
Выбор правила проверки гипотезы Но эквивалентен заданию критической области х1, при попадании в которую переменной х гипотеза Но отвергается. Критерий, определяемый критической областью х1 называют критерием х1.
В процессе проверки гипотезы Но можно прийти к правильному решению или совершить ошибку первого рода - отклонить Но когда она верна, или ошибку второго рода - принять Но, когда она ложна. Иными словами, ошибка первого рода имеет место, если точка х попадает в критическую область х1, в то время как верна нулевая гипотеза Но, а ошибка второго рода - когда х Î хо, но гипотеза Но ложна.
Желательно провести проверку гипотезы так, чтобы свести к минимуму вероятности обоих ошибок. Однако при данном числе испытаний n в общем случае невозможно одновременно обе эти вероятности сделать как угодно малыми. Поэтому наиболее рационально выбирать критическую область следующим образом: при заданном числе испытаний n устанавливается граница для вероятности ошибки первого рода и при этом выбирается та критическая область х1, для которой вероятность ошибки второго рода минимальна.
2.5. Вероятности ошибок первого и второго рода
Рассмотрим станок, который может работать только в одном из двух состояний. Если он работает в налаженном режиме, то для интересующего нас признака качества, например, длины или диаметра заготовки, имеет место нормальное распределение при работе как в налаженном так и в разлаженном режиме. Оба режима отличаются только уровнем настройки процесса по математическому ожиданию ( М(х) = 10 и 11, соответственно в налаженном и разлаженном режиме ), в то время как дисперсии в обоих случаях составляют s2 = 4.