Высокие значения коэффициента детерминации R2 = 0,995 и значение F – критерия однозначно говорит об адекватности полученной модели исходным данным. Необходимо отметить, что эти значения намного превышают значения R2 и F – критерия, которые были получены в модели с одним фактором. Таким образом, введение в модель еще одного фактора улучшает качество модели в целом.
В какой степени допустимо использовать критерий R2 для выбора между несколькими регрессионными уравнениями? Дело в том, что при добавлении очередного фактора R2 всегда возрастает и, если взять число факторов, равным числу наблюдений, то можно добиться того, что R2 = 1. Но это вовсе не будет означать, что полученная эконометрическая модель будет иметь экономический смысл.
Попыткой устранить эффект, связанный с ростом R2 при возрастании числа факторов, является коррекция значения R2 с учетом используемых факторов в нашей модели.
Скорректированный (adjusted) R2имеет следующий вид:
(2.17)где n – объем выборки;
k – количество коэффициентов в уравнении регрессии.
Для нашего случая
В определенной степени использование скорректированного коэффициента детерминации R2 более корректно для сравнения регрессий при изменении количества факторов.
В том случае, когда имеются одна независимая и одна зависимая переменные, естественной мерой зависимости является (выборочный) коэффициент корреляции между ними. Использование множественной регрессии позволяет обобщить это понятие на случай, когда имеется несколько независимых переменных. Корректировка здесь необходима по следующим очевидным соображениям. Высокое значение коэффициента корреляции между исследуемой зависимой и какой-либо независимой переменной может, как и раньше, означать высокую степень зависимости, но может быть обусловлено и другой причиной. Например, может существовать третья переменная, которая оказывает сильное влияние на две первые, что и является, в конечном счете, причиной их высокой коррелированности. Поэтому возникает естественная задача найти «чистую» корреляцию между двумя переменными, исключив (линейное) влияние других факторов. Это можно сделать с помощью коэффициента частной корреляции:
где
(2.19) (2.20) (2.21)Значения
вычисляются какЗначения коэффициента частной корреляции лежат в интервале [-1,1], как у обычного коэффициента корреляции. Равенство этого коэффициента нулю означает, говоря нестрого, отсутствие прямого (линейного) влияния переменной X1 на У.
Существует тесная связь между коэффициентом частной корреляции и коэффи-циентом детерминации, а именно
или
Влияние отдельных факторов в многофакторных моделях может быть охарактеризовано с помощью частных коэффициентов эластичности, которые в случае линейной двухфакторной модели рассчитываются по формулам:
Черта над символом, как и ранее, означает среднюю арифметическую. Частные коэффициенты эластичности показывают, насколько процентов изменится результативный признак, если значение одного из факторных признаков изменится на 1%, а значение другого факторного признака останется неизменным.
Для определения области возможных значений результативного показателя при известных значениях факторов, т.е. доверительного интервала прогноза, необходимо учитывать два возможных источника ошибок. Ошибки первого рода вызываются рассеиванием наблюдений относительно линии регрессии, и их можно учесть, в частности, величиной среднеквадратической ошибки аппроксимации изучаемого показателя с помощью регрессионной модели (Sy)
(2.23)Ошибки второго рода обусловлены тем, что в действительности жестко заданные в модели коэффициенты регрессии являются случайными величинами, распределенными по нормальному закону. Эти ошибки учитываются вводом поправочного коэффициента при расчете ширины доверительного интервала; формула для его расчета включает табличное значение t-статистики при заданном уровне значимости и зависит от вида регрессионной модели. Для линейной однофакторной модели величина отклонения от линии регрессии задается выражением (обозначим его R):
, (2.24)где п – число наблюдений,
L – количество шагов вперед,
а – уровень значимости прогноза,
X – наблюдаемое значение факторного признака в момент t,
– среднее значение наблюдаемого фактора, – прогнозное значение фактора на L шагов вперед.
Таким образом, для рассматриваемой модели формула расчета нижней и верхней границ доверительного интервала прогноза имеет вид:
где UL означает точечную прогнозную оценку изучаемого результативного показателя по модели на L шагов вперед.
2.3.Некоторые особенности применения многофакторных
регрессионных моделей в эконометрическом анализе
В предыдущих разделах были рассмотрены основные вопросы применения регрессионных моделей в эконометрическом анализе.
На практике исследователю нередко приходится сталкиваться с ситуацией, когда полученная им регрессия является «плохой», т.е. t-статистики большинства оценок малы, что свидетельствует о незначимости соответствующих независимых переменных. В то же время F-статистика может быть достаточно большой, что говорит о значимости регрессии в целом. Одна из возможных причин такого явления носит название мультиколлинеарности и возникает при наличии высокой корреляции между факторами.
Одним из условий классической регрессионной модели является предположение о линейной независимости объясняющих переменных. При нарушении этого условия, т.е. когда одна из переменных является линейной комбинацией их других, это называется полной коллинеарностью. В этой ситуации нельзя использовать метод наименьших квадратов (МНК). На практике полная коллинеарность встречается исключительно редко. Гораздо чаще приходится сталкиваться с ситуацией, когда между факторами имеется высокая степень корреляции. Тогда говорят о наличии мультиколлинеарности. В этом случае МНК-оценка (оценка методом наименьших квадратов) формально существует, но обладает «плохими» свойствами.
Мультиколлинеарность может возникать в силу разных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания. В частности, так может случиться, когда значения одной независимой переменной являются датированными значениями другой.
Выделим некоторые наиболее характерные признаки мультиколлинеарности.
1. Небольшое изменение исходных данных (например, добавление новых наблюдений) приводит к существенному изменению оценок коэффициентов модели.
2. Оценки имеют большие стандартные ошибки, малую значимость, в то время как модель в целом является значимой (высокое значение коэффициента детерминации R2 и соответствующей F-статистики).