3. Оценки эффективны, они имеют наименьшую дисперсию по сравнению с любыми другими оценками данного параметра, линейными относительно величин уi . [1]
Перечисленные свойства не зависят от конкретного вида распределения величин єi, тем не менее обычно предполагается, что они распределены нормально N(0;y2). Эта предпосылка необходима для проверки статистической значимости сделанных оценок и определения для них доверительных интервалов. При ее выполнении оценки МНК имеют наименьшую дисперсию не только среди линейных, но среди всех несмещенных оценок.
Если предположения (3 - 4) нарушены, то есть дисперсия возмущений непостоянна и/или значения є. связаны друг с другом, то свойства несмещенности и состоятельности сохраняются, но свойство эффективности - нет.
Рассмотрим теперь процедуру оценивания параметров парной линейной регрессии а и b. Для того, чтобы функция СКО (3.5) достигала минимума, необходимо равенство нулю ее частных производных:
Откуда
(3.12)3.5 Расчёт коэффициентов МНК
Логистическую функцию, нелинейную по параметрам, нужно привести к линейному виду:
Т.к.
стоит в y(t), которое для метода МНК должно быть определно, возьмём первое приближение =16.6Преобразуем экспериментальные данные:
Из 3.13 и 3.14 находим
:Следовательно, аппроксимирующая функция будет иметь вид:
3.6. Итерационный расчёт коэффициентов функции
Рассмотрим метод наискорейшего спуска с шагом, длина которого зависит от свойств минимизируемой функции, или метод Ньютона. Он основан на квадратической аппроксимации минимизируемой функции в окрестности точки x(k), где (k) – номер итерации Минимум квадратической функции легко найти, приравнивая ее градиент нулю. Можно сразу же вычислить положение экстремума и выбрать его в качестве следующего приближения к точке минимума. Новая итерация вычисляется по формуле:
(3.15)Пусть f(x) - минимизируемая фукнция с векторным аргументом
. Алгоритм наискорейшего спуска реализует итерационную процедуру движения к минимуму из произвольно выбранной точки начального приближения в направлении наиболее сильного уменьшения функции, определенном в окрестности текущего значения аргумента минимизируемой функции. Такое направление противоположно направлению, задаваемому вектором градиента минимизируемой функции f(x): (3.16)Вычисляя точку нового приближения по формуле (3.15) и разлагая f(x(k+1)) в ряд Тейлора, получим формулу квадратической аппроксимации fкв(x(k+1)):
, где (3.16) - матрица вторых производных: (3.17)Условие минимума fкв(x(k+1)) по
. Вычислим градиент из (2.20): (3.18)Для учета фактических особенностей минимизируемой функции будем использовать в (3.19) значения градиента и матрицы вторых производных, вычисленных не по аппроксимирующей fкв(x), а непосредственно по минимизируемой функции f(x). Заменяя fкв(x) в (3.19), найдем длину шага
(3.20)Итак, последовательность вычислений для реализации алгоритма метода Ньютона:
За минимизируемую функцию возьмём сумму квадратов отклонений (СКО) между исходными точками и аппроксимированными аналитической функцией:
(3.21)За начальные приближения выберем:
Для случая с логистической функцией формулы (3.16) и (3.18) имеют следующий вид:
Программа в MathCAD в таком случае выглядит следующим образом:
Итерации:
Итерационный цикл закончен, т.к. результат вычисления коэффициентов совпал с рассчитанными на ПК (п.3.2).
3.7. Результаты
Коэффициенты аппроксимирующей степенной функции были рассчитаны тремя способами: на ПК, безытерационным методом наименьших квадратов (метод нормальных уравнений) и методом наискорейшего спуска (метод Ньютона). Все они дали одинаковые результаты с точностью
.4. Расчёт развития опухоли в условиях терапии