5. Гіперболічна
.Основне значення мають лінійні моделі в силу простоти і логічності їхньої економічної інтерпретації. Нелінійні форми залежності приводяться до лінійних шляхом лінеаризації.
Узагальнена багатофакторна лінійна регресійна модель може бути записана у такому вигляді:
, (2.1.5)де y – залежна змінна;
- незалежні змінні (фактори); - параметри моделі (константи), які потрібно оцінити; - не спостережувана випадкова величина.Відомо, що узагальнена модель регресії – це модель, яка дійсна для всієї генеральної сукупності. Невідомі параметри узагальненої моделі є константами, а випадкова величина – неспостережувана, і можна зробити лише припущення відповідно закону її розподілу. На відміну від узагальненої регресійної моделі, вибіркова модель будується для певної вибірки, невідомі параметри вибіркової моделі є випадковими величинами, математичне сподівання яких дорівнює параметрам узагальненої моделі. Випадкові величини можна оцінити, виходячи з вибіркових даних.
Тому вибіркова регресійна лінійна багатофакторна модель має вигляд:
, (2.1.6)де y – залежна змінна;
- незалежні змінні (фактори); - оцінки невідомих параметрів узагальненої моделі; - випадкова величина.Система нормальних рівнянь для лінійної багатофакторної моделі має такий вигляд:
(2.1.7)Лінійною регресійною моделлю називають модель, що лінійна за своїми параметрами. За введеними позначеннями, багатофакторна лінійна регресійна модель має p незалежних змінних, або факторів, які впливають на залежну змінну y, та (p+1) невідомих параметрів, які потрібно оцінити.
Важливим етапом побудови вже обраного рівняння множинної регресії являються добір і наступне включення факторних ознак.
Проблема добору факторних ознак для побудови моделей взаємозв'язку може бути вирішена на основі евристичних (інтуїтивних-логічних) чи багатомірних статистичних методів аналізу.
Найбільш прийнятним способом добору факторних ознак являється крокова регресія. Сутність методу крокової регресії полягає в послідовному включенні факторів у рівняння регресії і наступній перевірці їхньої значимості. Фактори по черзі вводяться в рівняння так називаним «прямим» методом. При перевірці значимості введеного фактора обумовлюється, наскільки зменшується сума квадратів залишків і збільшується величина множинного коефіцієнта кореляції (
). Одночасно використовується і зворотний метод, тобто виключення факторів, що стали незначущими на основі t-критерію Стьюдента.Розглянемо основні припущення у багатофакторному регресійному аналізі. Для класичної багатофакторної регресивної моделі, яка є узагальненням простої лінійної регресійної моделі, всі основні класичні припущення зберігаються, але дещо модифікуються. Серед них такі:
1. Математичне сподівання випадкової величини
дорівнює 0. , для кожного і.2. Випадкові величини незалежні між собою.
; .3. Модель гомоскедастична, тобто має однакову дисперсію для будь-якого спостереження.
.4. Коваріація між випадковою величиною
та кожною незалежною змінною х дорівнює 0. Ця властивість виконується автоматично, якщо не стохастичні та перше припущення має силу.5. Модель повинна бути правильно специфікованою.
6. Випадкова величина
відповідає нормальному закону розподілу з нульовим математичним сподіванням і постійною дисперсією.7. Відсутність мультиколінеарності між факторами х, тобто фактори повинні бути незалежними між собою. Не повинно бути лінійного зв’язку між двома або більше факторами.
При побудові моделей регресії можна зіткнутися з проблемою мультиколінеарності, під якою розуміється тісна залежність між факторними ознаками, включеними в модель. Мультиколінеарність істотно змінює результати дослідження.
Одним з індикаторів визначення наявності мультиколінеарності між факторними ознаками є перевищення величини парного коефіцієнта кореляції 0,8 (
).Усунення мультиколінеарності може реалізовуватися через виключення з кореляційної моделі одного чи декількох лінійно зв'язаних факторних ознак у нові, укрупнені фактори [8, 19].
Розглянемо проблему мультиколінеарності детальніше. Припустимо, що є лінійна залежність
та . В такому випадку неможливо точно визначити окремий вплив кожного з цих факторів на залежні змінну у. Математично відсутність колінеарності між двома факторами визначається так, що не існує таких чисел та , які одночасно не дорівнюють 0, для яких би існувала тотожність: , (2.1.8)Отже приймаємо, що коли між двома змінними є лінійний зв‘язок, то йдеться не про дві, а про одну незалежну змінну, бо неможливо знайти окремий вплив кожної з цих змінних на у.
Розглянемо етапи побудови багатофакторної регресійної моделі. Процес побудови багатофакторної регресійної моделі більш складний, ніж процес побудови простої лінійної регресії та складається з багатьох етапів:
1. Вибір та аналіз усіх можливих факторів, які впливають на процес (або показник), що вивчається;
2. Вимір та аналіз знайдених факторів;
3. Математико-статистичний аналіз факторів.
4. Вибір методу побудови регресійної багатофакторної моделі;
5. Оцінка невідомих параметрів регресійної моделі;
6. Перевірка моделі на адекватність;
7. Розрахунок основних характеристик та побудова інтервалів довіри;
8. Аналіз отриманих результатів, висновки.
На першому етапі дослідник повинен глибоко зрозуміти сам економічний процес, розглянути його з мікроекономічних та макроекономічних позицій, виявити якомога більше факторів, які в конкретному випадку можуть справити суттєвий або несуттєвий вплив на його зміну.
На етапі кількісного аналізу необхідно оцінити можливість кількісного вираження відібраних факторів, провести вимірювання та зібрати статистику для кількісних факторів, підібрати або створити балову шкалу оцінок якісних даних. З подальшого розгляду вилучаються також фактори, за якими немає або недоступна статистика.
Етап математик-статистичного аналізу є найважливішим підготовчим етапом для побудови регресійної багатофакторної моделі. Це заключний етап формування необхідної інформаційної бази. При наявності у динамічних рядах недостатньої інформації саме на цьому етапі за допомогою спеціальних методів проводиться її відтворення. На цьому етапі проводиться перевірка основних припущень класичного регресійного аналізу, крім того, здійснюється найважливіша процедура багатофакторного аналізу – перевірка факторів на мультиколінеарність. Для цього будується матриця коефіцієнтів парної кореляції, яка є симетричною. Потім аналізуються коефіцієнти парної кореляції між факторами. Якщо значення деяких з них близьке до 1, то це вказує на щільний зв’язок між ними, або на мультиколінеарність. Тоді один з факторів треба залишити, а інший вилучається з подальшого розгляду. Найчастіше залишають той фактор, який з економічної точки зору біль вагомий для аналізу впливу на залежну змінну. Або можна залишити фактор, що має більший коефіцієнт із залежною змінною у. Такий аналіз проводиться для кожної пари залежних між собою факторів. Результатом етапу математико-статистичного аналізу є знаходження множини основних незалежних між собою факторів, які є базою для побудови регресійної моделі.
Метод побудови регресійної багатофакторної моделі неможливо відокремити від самої моделі, вони найщільнішим чином пов’язані між собою. Саме обраний метод впливає на остаточний вигляд регресійної моделі.
Далі розраховуються невідомі параметри багатофакторної регресії за методом найменших квадратів.Нехай існує ряд спостережень за залежною змінною
та за незалежними змінними, або факторами: