В критерии Пирсона в качестве такой меры расхождения используется величина

,
называемая статистикой «хи - квадрат» или статистикой Пирсона (вообще, статистикой называют любую функцию от результатов наблюдений). Ясно, что всегда c2 ³0, причем c2 = 0, тогда и только тогда, когда

при каждом i , т.е. когда все соответствующие эмпирические и теоретические частоты совпадают. Во всех остальных случаях c
2¹0; при этом значение c
2 тем больше, чем больше различаются эмпирические и теоретические частоты.
Прежде чем рассказать о применении статистики c2 к проверке гипотезы о закон е распределения , вычислим ее значение для данного варианта; это значение, найденное по данным наблюдений и в рамках выдвинутой гипотезы, будем обозначать через c2набл..
: 100 100 0,85 c2набл. = 0,85
5.4. Распределение статистики c2.
Случайная величина имеет c2 – распределение с r степенями свободы (r = 1; 2; 3; …), если ее плотность имеет вид

где cr – которая положительная постоянная ( cr определяется из равенства

). Случайная величина, имеющая распределение c
2 с
r степенями свободы, будет обозначаться

.
Для дальнейшего изложения важно лишь отметить, что, во – первых, распределение

определяется одним параметром – числом r степеней свободы и, во – вторых, существуют таблицы, позволяющие произвольно найти вероятность попадания значений случайной величины

в любой промежуток.
Вернемся теперь к статистике

. Отметим, что она является случайной величиной, поскольку зависит от результатов наблюдений и, следовательно, в различных сериях опытов принимает различные, заранее не известные значения. Понятно, кроме того, закон распределения статистики

зависит: 1) от действительного (но неизвестного нам) закона распределения случайной величины, измерения которой осуществляются (им определяются эмпирические частоты

) ; 2) от количества произведенных наблюдений (от числа n) и от способа разбиения числовой оси на промежутки (в частности, от числа i ); 3) от теоретического (выдвинутого в качестве гипотезы) закона распределения изучаемой случайной величины (им определяются теоретические вероятности p
i и теоретические частоты

= n×p
i)

Если выдвинутая гипотеза верна, то очевидно, закон распределения статистики

зависти только от закона распределения изучаемой случайной величины, от числа n и от выбора промежутков разбиения. Но на самом же деле, в этом случае (благодаря мастерски подобранному Пирсоном выражению для

) справедливо куда более серьезное утверждение. А именно, при достаточно больших n закон распределения статистики

практически не зависит от закона распределения изучаемой случайной величины и ни от количества n произведенных опытов:
при 
распределение статистики
стремится к
- распределению с r степенями свободы. Эта теорема объясняет, почему статистика Пирсона обозначается через

.
Если в качестве предполагаемого выбрано одно их трех основных непрерывных распределений (нормальное, показательное или равномерное), то r = i – 3, где i – количество промежутков, на которые разбита числовая ось (количество групп опытных данных). В общем случае

где

- количество параметров предполагаемого (теоретического) распределения, которые заменены вычисленными по опытным данным оценками.
Т.е. в данном варианте после группировки исходных данных получаем количество промежутков разбиения i = 10,

= 2, т.к. количество параметров предполагаемого (теоретического) распределения, которые заменены вычисленными по опытным данным оценками, = 2 – это
а и s для нормального распределения.
Следовательно
R=i-Nпар-1=10-2-1=7
5.5. Правило проверки гипотезы о законе распределения случайной величины.
Ранее отмечалось (и этот факт очевиден), что статистика

принимает только не отрицательные значения (всегда c
2 ³0), причем в нуль она обращается в одном – единственном случае – при совпадении всех соответствующих эмпирических и теоретических частот (т.е. при

для каждого i).
Если выдвинутая гипотеза о законе распределения изучаемой случайной величины соответствует действительности, то эмпирические и теоретические частоты должны быть примерно одинаковы, а значит, значения статистики

будут группироваться около нуля. Если же выдвинутая гипотеза ложна, то эмпирические и соответствующие теоретические частоты будут существенно разниться, что приведет к достаточно большим отклонениям от нуля значений

.
Поэтому хотелось бы найти тот рубеж – называемый критическим значением (или критической точкой) и обозначаемый через

, который разбил бы всю область возможных значений статистики

на два непересекающихся подмножества:
область принятия гипотезы, характеризующаяся неравенством

, и
критическую область (или область отвержения гипотезы), определяемую неравенством

.
Область принятия Критическая область
гипотезы
0

Как же найти критическое значение

?
Если выдвинутая гипотеза о законе распределения изучаемой случайной величины верна, то вероятность попадания значений статистики

в критическую область должна быть мала, так что событие {

} должно быть практически неосуществимым в единичном испытании. Эта вероятность, обозначим ее через

:

называется уровнем значимости.
Чтобы определить критическое значение

, поступим следующим образом. Зададим какое – либо малое значение уровня значимости

(как правило

= 0,05 или

= 0,01) и найдем

как уровень уравнения