(II) (
= (
= (D
(III) Необхідно довести,
cov(
= cov((X'X)-1X'Y, Y - PY) = cov((X'X)-1X'Y, (I – P)Y) =
= (X'X)-1X'cov(Y, Y)(I – P)' = {(I – P)' = I – P} =
= (X'X)-1X'DY(I – P) = {DY = σ2} = (X'X)-1X'σ2I(I – P) =
= σ2(X'X)-1X'(I – P) =
Залишилось скористатись наступною теоремою:
Нехай Y ~ N(Xβ; σ2I), U = AY, V = BY, матриця А1 складена з лінійно незалежних рядків матриці А, U1 = A1Y. Якщо cov(U, V) = 0, то
1) випадковий вектор U1 не залежить від V'V;
2) випадкові величини U'U та V'V незалежні.
Позначимо
U1 =
U1 = (X'X)-1X'Y, V = Y - X
Оскільки cov(U1, V) = 0, тоді U1 =
(IV) Розглянемо
Q1 = (Y – Xβ)'(Y – Xβ) = (Y - X
= (Y – X
+ (
=
= (Y – X
Тут ми позначили
(Y - X
При цьому відношення
Q1/σ2 =
Отже, Q = Q1 + Q2, Q1 ~
Теорема доведена.
Нехай лінійна модель регресії має вигляд Y = Xβ + ε, X = X(n × p), rangX = p, ε ~ N(0; σ2I).
Необхідно оцінити параметр β, при лінійних обмеженнях H: Aβ = c,
де А = А(q ×p) – відома матриця, c = c(q×1) – відомий вектор. (1.1.16)
Обмеження (1.1.16) можна переписати у вигляді:
H: Aβ = c
H:
де a'i – i-тий рядок матриці А
H: a'i β = ci , i = 1, 2, …, q.
Використаємо метод множників Лагранжа для розв’язання цієї задачі.
В подальшому будемо використовувати такий вираз:
λ1(a'1β – с1) + λ2(a'2β – с2) + … + λq(a'qβ – сq) =
= (λ1, λ2, …, λq)
= (Aβ – c)'λ = (β'A' - c')λ (1.1.17)
Мінімізуємо суму квадратів залишків ε'ε при лінійних обмеженнях H:
Aβ = c.
r = ε'ε + λ1(a'1β – с1) + … + λq(a'qβ – сq) = ε'ε + (β'A' - c')λ = (Y – Xβ)'(Y – Xβ) + (β'A' - c')λ = (Y' – X'β') (Y – Xβ) + (β'A' - c')λ = Y'Y - Y'Xβ - β'X'Y + β'X'Xβ + (β'A' - c')λ = Y'Y - 2β'X'Y + β'X'Xβ + β'A'λ - c'λ
З (1.1.18) випливає, що
X'Xβ = X'Y -
Формулу (1.1.21) підставляємо в (1.1.19)
c = A
c - A
(A(X'X)-1A')-1(c - A