В критерии Пирсона в качестве такой меры расхождения используется величина
,называемая статистикой «хи - квадрат» или статистикой Пирсона (вообще, статистикой называют любую функцию от результатов наблюдений). Ясно, что всегда c2 ³0, причем c2 = 0, тогда и только тогда, когда
при каждом i , т.е. когда все соответствующие эмпирические и теоретические частоты совпадают. Во всех остальных случаях c2¹0; при этом значение c2 тем больше, чем больше различаются эмпирические и теоретические частоты.Прежде чем рассказать о применении статистики c2 к проверке гипотезы о закон е распределения , вычислим ее значение для данного варианта; это значение, найденное по данным наблюдений и в рамках выдвинутой гипотезы, будем обозначать через c2набл..
i | ni | ||
1 2 3 4 5 6 7 8 9 10 | 10 9 11 14 18 13 11 7 4 3 | 8,85 8,51 12,45 15,41 16,19 14,39 10,85 6,8 3,81 2,74 | 0,15 0,03 0,17 0,13 0,20 0,13 0,00 0,01 0,01 0,02 |
: 100 100 0,85
c2набл. = 0,85
5.4. Распределение статистики c2.
Случайная величина имеет c2 – распределение с r степенями свободы (r = 1; 2; 3; …), если ее плотность имеет вид
где cr – которая положительная постоянная ( cr определяется из равенства
). Случайная величина, имеющая распределение c2 с r степенями свободы, будет обозначаться .Для дальнейшего изложения важно лишь отметить, что, во – первых, распределение
определяется одним параметром – числом r степеней свободы и, во – вторых, существуют таблицы, позволяющие произвольно найти вероятность попадания значений случайной величины в любой промежуток.Вернемся теперь к статистике
. Отметим, что она является случайной величиной, поскольку зависит от результатов наблюдений и, следовательно, в различных сериях опытов принимает различные, заранее не известные значения. Понятно, кроме того, закон распределения статистики зависит: 1) от действительного (но неизвестного нам) закона распределения случайной величины, измерения которой осуществляются (им определяются эмпирические частоты ) ; 2) от количества произведенных наблюдений (от числа n) и от способа разбиения числовой оси на промежутки (в частности, от числа i ); 3) от теоретического (выдвинутого в качестве гипотезы) закона распределения изучаемой случайной величины (им определяются теоретические вероятности pi и теоретические частоты = n×pi) Если выдвинутая гипотеза верна, то очевидно, закон распределения статистики зависти только от закона распределения изучаемой случайной величины, от числа n и от выбора промежутков разбиения. Но на самом же деле, в этом случае (благодаря мастерски подобранному Пирсоном выражению для ) справедливо куда более серьезное утверждение. А именно, при достаточно больших n закон распределения статистики практически не зависит от закона распределения изучаемой случайной величины и ни от количества n произведенных опытов: при распределение статистики стремится к - распределению с r степенями свободы. Эта теорема объясняет, почему статистика Пирсона обозначается через .Если в качестве предполагаемого выбрано одно их трех основных непрерывных распределений (нормальное, показательное или равномерное), то r = i – 3, где i – количество промежутков, на которые разбита числовая ось (количество групп опытных данных). В общем случае
где
- количество параметров предполагаемого (теоретического) распределения, которые заменены вычисленными по опытным данным оценками.Т.е. в данном варианте после группировки исходных данных получаем количество промежутков разбиения i = 10,
= 2, т.к. количество параметров предполагаемого (теоретического) распределения, которые заменены вычисленными по опытным данным оценками, = 2 – это а и s для нормального распределения.Следовательно
R=i-Nпар-1=10-2-1=7
5.5. Правило проверки гипотезы о законе распределения случайной величины.
Ранее отмечалось (и этот факт очевиден), что статистика
принимает только не отрицательные значения (всегда c2 ³0), причем в нуль она обращается в одном – единственном случае – при совпадении всех соответствующих эмпирических и теоретических частот (т.е. при для каждого i).Если выдвинутая гипотеза о законе распределения изучаемой случайной величины соответствует действительности, то эмпирические и теоретические частоты должны быть примерно одинаковы, а значит, значения статистики
будут группироваться около нуля. Если же выдвинутая гипотеза ложна, то эмпирические и соответствующие теоретические частоты будут существенно разниться, что приведет к достаточно большим отклонениям от нуля значений .Поэтому хотелось бы найти тот рубеж – называемый критическим значением (или критической точкой) и обозначаемый через
, который разбил бы всю область возможных значений статистики на два непересекающихся подмножества: область принятия гипотезы, характеризующаяся неравенством , и критическую область (или область отвержения гипотезы), определяемую неравенством .гипотезы
0
Как же найти критическое значение
?Если выдвинутая гипотеза о законе распределения изучаемой случайной величины верна, то вероятность попадания значений статистики
в критическую область должна быть мала, так что событие { } должно быть практически неосуществимым в единичном испытании. Эта вероятность, обозначим ее через :называется уровнем значимости.
Чтобы определить критическое значение
, поступим следующим образом. Зададим какое – либо малое значение уровня значимости (как правило = 0,05 или = 0,01) и найдем как уровень уравнения