Міністерство освіти і науки України
Дніпропетровський національний університетімені Олеся Гончара
МАГІСТЕРСЬКА РОБОТА
Виконавець:
студентка групи МС-08-1м
Черемісіна В.О.
«__»________2009р.
Керівник роботи:
__________________ «__»________2009р.
Рецензент:
__________________ «__»________2009р.
Дніпропетровськ2009
Реферат
Магістерська робота містить 85 сторінок, 38 рисунків, 13 таблиць, 4 джерела.
Об’єктом дослідження є основні припущення лінійного регресійного аналізу.
Мета роботи – вивчення наслідків порушення основних припущень лінійного регресійного аналізу.
Методика дослідження – оцінювання параметрів лінійної регресії МНК-методом, перевірка статистичних гіпотез, побудова простої лінійної регресії та лінійної регресії з двома незалежними змінними.
Результати досліджень можуть бути використані при розв’язанні задач та при подальшому вивченні порушень припущень лінійного регресійного аналізу.
Перелік ключових слів: ПОРУШЕННЯ ПРИПУЩЕНЬ, ЛІНІЙНА РЕГРЕСІЯ, ЗАЛИШКИ, РОЗПОДІЛ, НЕКОРЕЛЬОВАНІСТЬ, ЗНАЧУЩІСТЬ, АДЕКВАТНІСТЬ.
ЗМІСТ
ВСТУП
РОЗДІЛ І Проста лінійна регресія
1.1 Постановка задачі
1.2 Метод найменших квадратів
1.3 Точність оцінки регресії
1.4
-критерій значущості регресії1.5 Геометрична інтерпретація коефіцієнтів регресії
1.6 Довірчий інтервал для
. Стандартне відхилення кутового коефіцієнта1.7 Довірчий інтервал для
. Стандартне відхилення вільного члена1.8 Довірча смуга для регресії
1.9 Повторні спостереження. Неадекватність і “чиста помилка”
1.10 Деякі відомості з математичної статистики
1.10.1 Критерій
(гіпотетичний розподіл визначений)1.10.2.Критерій
(гіпотетичний розподіл невизначений)1.10.3 Критерій Бартлетта
1.11 Аналіз залишків
1.12 Лінійна регресія з двома незалежними змінними
РОЗДІЛ ІІ Дослідження порушень основних припущень лінійного регресійного аналізу
2.1 „Ідеальна” модель лінійної регресії
2.2 Модель лінійної регресії, в якій дисперсія спостережень
величина змінна2.3 Модель лінійної регресії, в якій спостереження
величини залежні2.4 Модель лінійної регресії, в якій спостереження
рівномірно розподілені величини2.5 Модель лінійної регресії, в якій спостереження
показниково розподілені величиниВИСНОВКИ
СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ
ВСТУП
Нехай
– результат спостереження, який описується лінійною моделлю виду (1)де
– регресійна матриця розміру , , – вектор невідомих параметрів, – вектор похибок спостережень.Припущення відносно вектора спостережень
позначатимемо : .(2)Або, що те ж саме, припущення відносно вектора похибок
мають вигляд: (3)Вихідні припущення (2) або (3) регресійного аналізу виконуються далеко не завжди. Виникає низка питань: як виявити порушення цих припущень? В яких випадках і які порушення можна вважати припустимими? Що робити, якщо порушення виявляються неприпустимими?
Метою роботи є вивчення наслідків порушення основних припущень (3) лінійного регресійного аналізу, а саме:
1) припущення про незміщеність похибок
;2) припущення про однакову дисперсію і некорельованість похибок
;3) припущення про нормальний розподіл похибок
;4) припущення про незалежність спостережень
.РОЗДІЛ І ПРОСТА ЛІНІЙНА РЕГРЕСІЯ
1.1 Постановка задачі
Нехай
– вибірка, утворена незалежними нормально розподіленими випадковими величинами з однією і тією ж дисперсією і середніми, про які відомо, що вони лінійно залежать від параметрів, тобто мають вигляд ,(1.1.1)де
– відомі невипадкові величини; – невідомі параметри.Кожну з випадкових величин
можна подати у вигляді , (1.1.2)де
називають похибкою спостережень. Похибка змінюється від спостереження до спостереження, ( ) - незалежні випадкові величини. Відносно будемо припускати, що1)
2)
, некорельовані при(з незалежності
, випливає їх некорельованість)3)
розподілені нормально з параметрами .Отже, нехай
– результати спостережень, які описуються моделлю виду (1.1.3)Параметри
невідомі, і їх необхідно оцінити за вибіркою .Для оцінки невідомих параметрів
використовують метод максимальної правдоподібності або метод найменших квадратів.1.2 Метод найменших квадратів
Означення 1.2.1. МНК-оцінкою параметрів
будемо називати точку , в якій функція (1.2.1)досягає найменшого значення.
Здиференцюємо
по , а потім по