1. Эконометрика как наука. Понятие взаимосвязи между случайными величинами. Ковариация и коэффициент корреляции. Эконометрическая модель
«Эконометрика позволяет проводить количественный анализ реальных экономических явлений, чтобы охарактеризовать их типичное поведение. Выделяют 2 вида статистического анализа зависимостей:
1. Корреляционный анализ – позволяет оценить значимость и силу взаимосвязи, без указания вида зависимости
2. Регрессионный анализ – позволяет оценить и проанализировать формулу зависимости одной переменной от других.
Коэффициент ковариации показывает направленность взаимосвязи между двумя переменными. Является состоятельной, смещенной оценкой.
Коэффициент корреляции показывает направленность и силу(!) взаимосвязи между двумя переменными. Значения коэффициента корреляции:
- Близкие к 0 – свидетельствуют об отсутствии линейной взаимосвязи
- Близкие к (+1) – о сильной прямой взаимосвязи
- Близкие к (–1) – о сильной обратной взаимосвязи
Эконометрическая модель – это математическое описание экономического явления, отражающее наиболее важные его черты. Модель упрощает, идеализирует изучаемое явление. О правильности построенной модели можно судить по близкому соответствию результатов моделирования и фактических данных.
Общим моментом для любых эконометрических моделей является разбиение зависимой переменной на две части: объясненную и случайную, и є – случайная составляющая. Y=f(x)+E
2. Понятие регрессии. Модель парной линейной регрессии. Диаграмма рассеяния и проблема выбора линии регрессии. Природа случайного члена регрессии
Регрессионный анализ – позволяет оценить и проанализировать формулу зависимости одной переменной от других.
Линейная парная модель
Уравнение регрессии:
y = β0 + β1x + ε
β1 – показывает, на сколько изменится значение зависимой переменной y при изменении объясняющей переменной x на единицу.
β0 – показывает среднее значение зависимой переменной y при нулевом значении объясняющей переменной x. Не всегда имеет экономический смысл. (компонент)
Проблема выбора линии заключаеться в том, что надо её максимально описать зависимость, чтобы по минимуму были отклонения.
Природа случайного члена регрессионной модели
1. Невключение объясняющих переменных
2. Неправильная функциональная спецификация модели
3. Случайность поведения рассматриваемых объектов
4. Ошибки измерения
3. Метод наименьших квадратов. Вывод формул метода наименьших квадратов для парного случая. Суть метода, графическое представление, условия применения
Метод наименьших квадратов — метод нахождения оптимальных параметров линейной регрессии, таких, что сумма квадратов ошибок (регрессионных остатков) минимальна.
Метод заключается в минимизации евклидова расстояния
между двумя векторами -- вектором восстановленных значений зависимой переменной и вектором фактических значений зависимой переменной.Применение. Задача метода наименьших квадратов состоит в выборе вектора
, минимизирующего ошибку .Метод наименьших квадратов имеет следующие преимущества:
- не требуется знания закона распределения случайного возмущения
- дает оценки по крайней мере состоятельные
- в случае нормального распределения случайного возмущения оценки параметров линейной модели несмещенные и эффективные
Formula:
4. Свойства оценок коэффициентов регрессии, полученных с помощью метода наименьших квадратов. Теорема Гаусса-Маркова - формулировка, смысл теоремы. Условия Гаусса-Маркова и последствия их нарушения
Теорема Гаусса—Маркова
оценки по обычному методу наименьших квадратов являются не только несмещенными оценками коэффициентов регрессии, но и наиболее эффективными в том случае, если выполнены условия Гаусса—Маркова. С другой стороны, если условия Гаусса—Маркова не выполнены, то, вообще говоря, можно найти оценки, которые будут более эффективными по сравнению с оценками, полученными обычным методом наименьших квадратов. В данной работе не приводится общее рассмотрение этих вопросов. Тем не менее в том случае, если условия Гаусса—Маркова для остаточного члена выполнены, коэффициенты регрессии, построенной обычным методом наименьших квадратов, будут наилучшими линейными несмещенными оценками (best linear unbiased estimators, или BLUE): несмещенными, как уже было показано; линейными, так как они являются линейными функциями значений у; наилучшими, так как они являются наиболее эффективными в классе всех несмещенных линейных оценок. Теорема Гаусса—Маркова доказывает это (краткое изложение, не использующее матричной алгебры, дано в работе Дж. Томаса
для того чтобы регрессионный анализ, основанный на обычном методе наименьших квадратов, давал наилучшие из всех возможных результаты, случайный член должен удовлетворять четырем условиям, известным как условия Гаусса—Маркова.
1-е условие Гаусса—Маркова: E(Ut) = 0 для всех наблюдений. Первое условие состоит в том, что математическое ожидание случайного члена в любом наблюдении должно быть равно нулю. Иногда случайный член будет положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в одном из двух возможных направлений. Vipolnjaetsjaavtomaticeski,esliuravasoderzitkonstantu
2-е условие Гаусса—Маркова: pop. var (u) постоянна для всех наблюдений. Второе условие состоит в том, что дисперсия случайного члена должна быть постоянна для всех наблюдений. Иногда случайный член будет больше, иногда меньше, однако не должно быть априорной причины для того, чтобы он порождал большую ошибку в одних наблюдениях, чем в других. Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициенты регрессии, найденные по обычному методу наименьших квадратов, будут неэффективны. Narushenieprivoditkgeteroskedasticnosti
3- е условие Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Например, если случайный член велик и положителен в одном наблюдении, это не должно обусловливать систематическую тенденцию к тому, что он будет большим и положительным в следующем наблюдении (или большим и отрицательным, или малым и положительным, или малым и отрицательным). Случайные члены должны быть абсолютно независимы друг от друга. Narushenieprivoditkavtokorreljacii
4-е условие случайный член должен быть распределен независимо от объясняющих переменных В большинстве глав книги мы будем в сущности использовать более сильное предположение о том, что объясняющие переменные не являются стохастическими, т. е. не имеют случайной составляющей. Значение любой независимой переменной в каждом наблюдении должно считаться экзогенным, полностью определяемым внешними причинами, не учитываемыми в уравнении регрессии. Если это условие выполнено, то теоретическая ковариация между независимой переменной и случайным членом равна нулю. Дело в том, что если случайный член и нормально распределен, то так же будут распределены и коэффициенты регрессии.
Предположение о нормальности основывается на центральной предельной теореме. В сущности, теорема утверждает, что если случайная величина является общим результатом взаимодействия большого числа других случайных величин, ни одна из которых не является доминирующей, то она будет иметь приблизительно нормальное распределение, даже если отдельные составляющие не имеют нормального распределения.
5. Понятие качества регрессии, коэффициент детерминации, скорректированный коэффициент детерминации
Коэффициент детерминации (R2) Это оценка качества - это квадрат множественного коэффициента корреляции. Он показывает, какая доля дисперсии результативного признака объясняется влиянием независимых переменных. Формула для вычисления коэффициента детерминации:
где yi — выборочные данные, а fi — соответствующие им значения модели.
Коэффициент принимает значения из интервала [0;1]. Чем ближе значение к 1 тем ближе модель к эмпирическим наблюдениям. R2<50% Построенные при таких условиях регрессионные модели имеют низкое практическое значение.
Значение R2 монотонно возрастает с ростом числа переменных (регрессоров) в регрессии, что зачастую не означает улучшения качества предсказания. Потому правильнее использовать скорректированный коэффициент детерминации, учитывающий число использованных регрессоров и корректировать коэффициент множественной детерминации на потерю степеней свободы вариации.
6. Модель множественной регрессии. Смысл коэффициентов множественной регрессии. Матричный вид регрессии, метода наименьших квадратов и теоремы Гаусса-Маркова. Вывод формул метода наименьших квадратов в матричном виде
Идея множественной регрессии состоит в том, что зависимая переменная определяется более чем одной объясняющей переменной. Общий вид множественной регрессии:
Коэф. Регрессии показывают насколько изменится значение зависимой переменной y , если значение соответствующей независимой переменной изменится на 1, при условии, что все остальные переменные останутся неизменными.
Матричная форма записи
Пусть имеется выборка из п наблюдений, а модель включает k peгреccopов и константу. Введем обозначения: