- количество включаемых в модель факторов не должно превышать одной трети числа наблюдений в выборке.
Отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы, исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют t - статистики для параметров регрессии.
Коэффициенты интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если .Из двух явно коллинеарных факторов, уравнения регрессии - рекомендуется исключить один. Предпочтение при этом отдается тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.
Рассмотрим пример. Для зависимости y = f(x1,x2,x3) задана матрица парных коэффициентов корреляции:
У | x1 | x2 | x3 | |
У | 1 | |||
x1 | 0,8 | 1 | ||
x2 | 0,7 | 0,8 | 1 | |
x3 | 0,6 | 0,5 | 0,2 | 1 |
Из таблицы, очевидно, что факторы x1 и x2 коррелированны друг с другом. В уравнение целесообразно включить фактор x2, а не x1, так как корреляция x2 с y - слабее, чем корреляция фактора x1 с y,но зато rx1x3 >rx2x3. Поэтому в уравнение множественной регрессии включаются факторы x2 и x3.
При отборе влияющих факторов используются статистические методы отбора. Так, существенного сокращения числа влияющих факторов можно достичь с помощью пошаговых процедур отбора переменных. Ни одна их этих процедур не гарантирует получения оптимального набора переменных. Однако при практическом применении они позволяют получить достаточно хорошие наборы существенно влияющих факторов.
Наиболее широкое применение получили следующие методы отбора факторов: метод исключения, метод включения, шаговый регрессионный анализ.
Метод исключения предполагает построение уравнения, включающего всю совокупность переменных, с последующим последовательным (пошаговым) сокращением числа переменных в модели до тех пор, пока не выполнится некоторое, наперед заданное, условие. Суть метода включения состоит – в последовательном включении переменных в модель до тех пор, пока регрессионная модель не будет отвечать заранее установленному критерию качества. Последовательность включения определяется с помощью частных коэффициентов корреляции: переменные, имеющие относительно исследуемого показателя большие значения частного коэффициента корреляции, первыми включаются в регрессионное уравнение.
Шаговый регрессионный анализ состоит в исключении ранее введенного фактора. Матрица частных коэффициентов корреляции наиболее широко используется в процедуре отсева факторов.
Уравнения множественной регрессии как парной регрессии могут быть: линейными и нелинейными.
Заключение.
Любой показатель практически зависит от бесконечного количества факторов. Однако лишь ограниченное количество факторов действительно существенно воздействуют на исследуемый показатель. Доля влияния остальных факторов столь незначительна, что их игнорирование не может привести к существенным отклонениям в поведении исследуемого объекта. Выделение и учет в модели лишь ограниченного числа реально доминирующих факторов является важной задачей качественного анализа, прогнозирования и управления ситуаций.
Если в естественных науках большей частью имеют дело со строгими (функциональными) зависимостями, при которых каждому значению одной переменной соответствует единственное значение другой, то между экономическими переменными, в большинстве случаев, таких зависимостей нет и дело имеют с корреляционными зависимостями.
В зависимости от количества факторов, включенных в уравнение регрессии, принято различать простую (парную) и множественную регрессии.
Решение задачи регрессионного анализа целесообразно разбить на следующие этапы:
- предварительная обработка ЭД;
- выбор вида уравнений регрессии;
- вычисление коэффициентов уравнения регрессии;
- проверка адекватности построенной функции результатам наблюдений.
Предварительная обработка включает расчет коэффициентов корреляции, проверку их значимости и исключение из рассмотрения незначимых параметров.
В парной регрессии выбор вида математической функции у= f(х) может быть осуществлен тремя методами:
- Графический метод – подбор вида уравнения регрессии достаточно нагляден. Он основан на поле корреляции;
- Аналитический метод – основан на изучении материальной природы связи исследуемых признаков;
- Экспериментальный.
Метод наименьших квадратов (МНК) – классический подход к оценке параметров линейной регрессии. МНК позволяет получить такие оценки параметров а и b при которых сумма квадратов отклонений фактических значений результативного признака (у) от расчетных (теоретических) ух минимальна
Σ(уi - yxi)2 min.Иными словами, из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояния по вертикали между точками и этой линией была минимальной.
Линейная регрессия описывается уравнением прямой.
Нелинейная регрессия выражается с помощью соответствующих нелинейных функций.
Различают два класса нелинейных регрессий:
- Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
- Регрессии, нелинейные по оцениваемым параметрам.
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
- Степенная;
- Показательная
- Экспоненциальная.
Список использованной литературы:
1. Пугачёв В.С., «Теория вероятностей и математическая статистика», –
М.: «Инфра–М», 2004.
2. Замков О.О., Толстопятенко А.В., Черемных Р.Н., «Математические
методы в экономике», – М.: «Дис», 2003;
3. «Эконометрика» под ред. И.И.Елисеевой, - М.: «Финансы и кредит»,
2002;
4. Магнус Я.Р., Катышев П.К., Пересецкий А.А., «Эконометрика начальный курс» - М.: «Дело» 2000;