По количеству включаемых факторов модели могут быть однофакторными и многофакторными (два и более факторов).
В зависимости от познавательной цели статистические модели подразделяются на структурные, динамические и модели связи.
Двухмерная линейная модель корреляционного и регрессионного анализа (однофакторный линейный корреляционный и регрессионный анализ). Наиболее разработанной в теории статистики является методология так называемой парной корреляции, рассматривающая влияние вариации факторного анализа х на результативный признак у и представляющая собой однофакторный корреляционный и регрессионный анализ. Овладение теорией и практикой построения и анализа двухмерной модели корреляционного и регрессионного анализа представляет собой исходную основу для изучения многофакторных стохастических связей.[3]
Важнейшим этапом построения регрессионной модели (уравнения регрессии) является установление в анализе исходной информации математической функции. Сложность заключается в том, что из множества функций необходимо найти такую, которая лучше других выражает реально существующие связи между анализируемыми признаками. Выбор типов функции может опираться на теоретические знания об изучаемом явлении, опят предыдущих аналогичных исследований, или осуществляться эмпирически – перебором и оценкой функций разных типов и т.п.
При изучении связи экономических показателей производства (деятельности) используют различного вида уравнения прямолинейной и криволинейной связи. Внимание к линейным связям объясняется ограниченной вариацией переменных и тем, что в большинстве случаев нелинейные формы связи для выполнения расчётов преобразуют (путём логарифмирования или замены переменных) в линейную форму. Уравнение однофакторной (парной) линейной корреляционной связи имеет вид:
ŷ = a0 + a1x ,
где ŷ - теоретические значения результативного признака, полученные по уравнению регрессии;
a0, a1 - коэффициенты (параметры) уравнения регрессии.
Поскольку a0 является средним значением у в точке х=0, экономическая интерпретация часто затруднена или вообще невозможна.
Коэффициент парной линейной регрессии a1 имеет смысл показателя силы связи между вариацией факторного признака х и вариацией результативного признака у. Вышеприведенное уравнение показывает среднее значение изменения результативного признака у при изменении факторного признака х на одну единицу его измерения, то есть вариацию у, приходящуюся на единицу вариации х. Знак a1 указывает направление этого изменения.[7]
Параметры уравнения a0, a1 находят методом наименьших квадратов (метод решения систем уравнений, при котором в качестве решения принимается точка минимума суммы квадратов отклонений), то есть в основу этого метода положено требование минимальности сумм квадратов отклонений эмпирических данных yi от выровненных ŷ :
S(yi – ŷ)2 = S(yi – a0 – a1xi)2 ® min
Для нахождения минимума данной функции приравняем к нулю ее частные производные и получим систему двух линейных уравнений, которая называется системой нормальных уравнений:
(2.1)Решим эту систему уравнений в общем виде:
(2.2)(2.3)
Параметры уравнения парной линейной регрессии иногда удобно исчислять по следующей формуле, дающим тот же результат:
(2.4)Определив значения a0, a1 и подставив их в уравнение связи ŷ = a0 + a1x , находим значения ŷ , зависящие только от заданного значения х.[11]
2.2. Отбор факторных признаков для построения множественной регрессионной модели
Регрессионный анализ наиболее широко используемый метод многомерного статистического анализа. Термин ''множественная регрессия'' объясняется тем, что анализу подвергается зависимость одного признака (результирующего) от набора независимых (факторных) признаков. Разделение признаков на результирующий и факторные осуществляется исследователем на основе содержательных представлений об изучаемом явлении (процессе). Все признаки должны быть количественными (хотя допускается и использование дихотомических признаков, принимающих лишь два значения, например 0 и 1).
Для корректного использования регрессионного анализа требуется выполнение определенных условий. Факторные признаки должны быть некоррелированы (отсутствие мультиколлинеарности), они предполагаются замеренными точно и в их измерениях нет автокорреляции, т.е. значения признаков у одного объекта не должны зависеть от значений признаков у других объектов.[5]
Изучение связи между результативным и двумя или более факторными признаками называется множественной регрессией. При исследовании зависимостей методами множественной регрессии ставят 2 задачи.
1. определение аналитического выражения связи между результативным признаком у и фактическими признаками х1, х2, х3, …хк, т.е. найти функцию у=f(х1, х2, …хк)
2. Оценка тесноты связи между результативным и каждым из факторных признаков.
Корреляционно-регрессионная модель (КРМ) – такое уравнение регрессии, которое включает основные факторы, влияющие на вариацию результативного признака.
1. выбор формы связи
2. отбор факторных признаков
3. обеспечение достаточного объема совокупности для получения верных оценок.
1. линейная:
2. степенная:
3. показательная:
4. парабола:
5. гипербола:
Хотя все 5 функций присутствуют в практике КРА, наиболее часто используется линейная зависимость, как наиболее простая и легко поддающаяся интерпретации уравнение линейной зависимости:
, (2.5)где к – множество факторов включающихся в уравнение,
bj– коэффициент условно-чистой регрессии, который показывает среднее по совокупности отклонение результативного признака от его среднего значения при отклонении фактора xj от своей средней величины на единицу при условии, что все остальные факторы, входящие в уравнение сохраняют средние значения.[9]
Параметры уравнения множественной регрессии и определение с помощью МНК.
Пример: