Коэффициент корреляции обладает следующими свойствами:
1). Коэффициент не имеет размерности, следовательно, сопоставим для различных статистических показателей;
2). Величина коэффициента корреляции лежит в пределах от -1 до +1. Значение |ρx,y | = 1 свидетельствует о том, что между переменными существует функциональная зависимость, т. е. все наблюдения лежат на одной прямой (чем ближе |ρx,y| к 1, тем ближе эта связь к функциональной); если ρx,y равен или приближается к нулю, это указывает на отсутствие линейной связи между X и Y, хотя допустимо существование нелинейной зависимости;
3). Если значение ρx,y > 0 (коэффициент корреляции положителен), то взаимосвязь величин прямая: с ростом Х увеличивается Y. Отрицательный коэффициент корреляции говорит об обратной взаимосвязи.
Наличие связи между X и Y может быть обнаружено, если: а) Х есть причина Y; б) Y есть причина Х; в) если Х и Y совместно зависимые величины; г) если Х и Y являются следствием некоторой общей для них причины.
В практике статистического анализа имеют место случаи, когда корреляционный анализ обнаруживает существование достаточно сильной зависимости признаков, в действительности не имеющих причинно-следственной связи между собой, – такие корреляции называют ложными.
Оценка коэффициента корреляции, определенная по выборке, является случайной величиной, поэтому необходимо проверить гипотезу о значимости, т. е. проверить предположение, существенно ли коэффициент корреляции отличается от нуля, или это случайное отклонение, связанное с выборкой. Если ρx,y - коэффициент корреляции в генеральной совокупности, то нулевая гипотеза может быть как:
,
и альтернативная ей
.
В качестве критерия применяют статистику, которая для выборки (х, y) из нормальной генеральной совокупности будет иметь t-распределение. Ее вычисляют по формуле:
. (3)
Расчетное значение критерия сопоставляют с табличным значением распределения Стьюдента t α, ν, где ν - число степеней свободы, ν = n - 2, α - уровень значимости. Если получают t > t α, ν, то нулевая гипотеза отвергается и можно утверждать, что коэффициент корреляции значим. В случае t < t α, ν нет оснований отвергать нулевую гипотезу и следует сделать заключение о том, что коэффициент корреляции незначим[11].
Прикладные цели регрессионного анализа в области экономики заключаются в следующем:
1). Установить наличие статистически значимой регрессионной связи между зависимой и объясняющими переменными;
2). Определить конкретный аналитический вид связи;
3). Спрогнозировать и восстановить значения исследуемого результирующего показателя по известным значениям объясняющих переменных.
Таким образом, построение эконометрической модели является основой любого эконометрического исследования. Она выступает в качестве средства анализа и прогнозирования в различных сферах: финансовой, производственной, инвестиционной, и применяется для исследования объектов самого разного уровня – от отдельных предприятий, отраслей, регионов до страны в целом.
Регрессионная модель представляет собой один из основных типов эконометрических моделей. Она отражает зависимость случайного результирующего показателя y от одной или нескольких детерминированных объясняющих переменных Х = (x1, x2, …, xp).
Выявление регрессионной зависимости осуществляется на основе анализа данных о наблюдениях за экономическими процессами, которые образуют выборки из генеральной совокупности. При построении эконометрических моделей желательно, чтобы все выборочные распределения используемых показателей соответствовали нормальному закону распределения.
Математическую модель регрессионной зависимости можно записать следующим образом:
, (4)
где f(X) представляет собой детерминированную составляющую модели, в которой Х выступает как вектор объясняющих переменных Х=(х 1, х 2, ... , х p);
ε – остаточная компонента (возмущение модели).
Детерминированная составляющая модели f(X) выражает влияние существенных факторов на зависимый показатель y и описывает условное математическое ожидание:
. (5)
Случайная составляющая отражает суммарное влияние всех несущественных факторов.
В данном случае нас интересует множественная линейная регрессия стоимости ценных бумаг от различных экономических факторов.
Множественной регрессией называют модель, которая включает несколько предсказывающих или объясняющих переменных. Она полнее объясняет поведение зависимой переменной и позволяет сопоставить влияние включенных в уравнение регрессии факторов.
Если регрессия – линейная, то это означает, что факторные признаки линейно влияют на поведение исследуемого показателя.
В общем виде модель множественной линейной регрессии, включающая p объясняющих переменных х 1, ..., х p имеет вид:
, (6)
где β 0, β 1, ..., β p – неизвестные оцениваемые параметры регрессии;
х 1, х 2, …, х p - влияющие факторы; ε – остаточная компонента.
Задача оценивания в данном случае заключается в том, чтобы с помощью метода наименьших квадратов найти такие оценки b 0, b 1, …,b p, которые минимизировали бы квадраты отклонений наблюдаемых значений зависимой переменной yi от расчетных значений, вычисленных с помощью уравнения регрессии.
Функция, значение которой минимизируют с помощью МНК:
. (7)Оценки параметров регрессии, получаемые по методу наименьших квадратов, обладают статистическими свойствами несмещенности, состоятельности и эффективности.
Свойство несмещенности оценок заключается в том, что оценки параметров b j, найденные с помощью линейного МНК, не содержат систематических ошибок при оценивании. Свойство состоятельности означает, что при росте объема выборки до бесконечности с вероятностью, близкой к единице, можно утверждать, что оценки параметров b j сходятся к оцениваемому параметру β j. Наконец, МНК-оценки являются эффективными, если они характеризуются наименьшей дисперсией в классе линейных оценок.
Чтобы получаемые оценки параметров обладали данными свойствами, необходимо выполнение предпосылок (условий) регрессионного анализа Гаусса-Маркова[12]:
1. Е (ε) = 0, т. е. математическое ожидание остатков равно нулю. Невыполнение данного условия приводит к тому, что оценки параметров теряют свойство несмещенности.
2. Условие гетероскедастичности, или одинакового разброса:
D (ε) = σ2, т. е. дисперсия возмущений в модели распределена равномерно, ее величина постоянна (дисперсия не может увеличиваться с ростом числа наблюдений). Выполнение данного условия позволяет получать эффективные оценки параметров b j.
3. Условие отсутствия автокорреляции: cov (ε i, ε j ) = 0, i, j = 1, …, n, т. е. отдельные наблюдения остаточной компоненты некоррелированы. Оценки метода МНК модели с автокорреляцией случайной составляющей теряют эффективность. Применение МНК в данном случае приводит к существенной недооценке параметров, в связи с чем теряют свое значение процедуры проверки гипотез и обоснованность предсказаний.
4. cov (ε, x j ) = 0, j = 1, …, p, т. е. объясняющие переменные не коррелируют с возмущениями модели.
5. ε N (0, σ2), т. е. случайная составляющая в модели нормально распределена. Нормальность распределения остаточной компоненты гарантирует, что оценки метода МНК будут иметь нормальное распределение.
Качество построенного регрессионного уравнения, выступающего в качестве результата проведенного исследования, может быть оценено с помощью ряда показателей, которые можно отнести к группе абсолютных либо относительных.
Среди абсолютных показателей качества наиболее важную роль играют следующие:
1). Средняя ошибка аппроксимации:
(8)
Допустимый уровень ошибки – до 10 %.
2). Оценки дисперсий.
– Оценка общей дисперсии:
(9)
Общая дисперсия характеризует разброс значений зависимого признака относительно среднего уровня.
– Оценка объясненной дисперсии:
(10)
Объясненная дисперсия характеризует вариацию зависимого признака, объясненную построенным уравнением регрессии.
– Оценка остаточной дисперсии:
(11)
Остаточная дисперсия отражает разброс значений относительно линии регрессии (модельных значений) и может служить показателем точности воспроизведения значений зависимой переменной. В случае высокой остаточной дисперсии точность прогнозов результирующего показателя будет невелика и практическое использование построенного уравнения малоэффективным. Напротив, чем меньше остаточная дисперсия, тем больше уверенности в том, что уравнение регрессии подобрано верно.