21. Аддитивная модель y=Tt+St+Ct+εt Мультипликативная модель y=Tt*St*Ct*εt Смешанная модель y=Tt*St*Ct+εt . Аддитивная модель примен. относит. пост. созенных колебаний. Мультип.-при возр или уб. амплитуды колебаний. Осн. э т а п ы анализа врем. рядов:
графич. представл. и опис. поведения врем. ряда; выделение и удаление закономерных (неслучайных) составляющих врем. ряа (тренда, сезонных и циклич.оставляющих); сглаживание и фильтрация (удаление низко- или высокочастотных составляющих врем.ряда); исслед.случ.составляющей врем. ряда, построение и проверка адекватности матем. модели для ее опис.; прогнозирование развития изуч. процесса на основе имеющ. врем. ряда; исследование взаимосвязи между разл. врем. рядами.
Ф-ию r(τ) назыв. выборочн. автокорреляц.
ф-ей, а ее график — коррелограммой.
При расч. r(τ) следует помнить, что с увелич. τ число n- τ пар наблюдений yt, yt+τуменьш., поэтому лаг τ должен быть таким, чтобы число п- τ было достат. для опред. r(τ). Обычно ориентируются на соотн. τ<п/4. Для временных рядов как правило имеет место автокрреляция остатка.Положит. автокорр. означ.,что положит и отриц. отклон. не разбросаны случ. образом вокруг линии регр.,а образ. группы:положит. сосед. с положит.,а отриц. с отриц.Отриц автокор. означ.,что за положит. отклон. след. отриц и наоборот. Осн. причины автокорр: 1)ошибки спецификации – неучет составл. фактора или неправ. выбор ур-я регр. 2)цикличность экономич. развит. 3)эффект запаздывания – многие экономич. показат. реагируют на измен. условий с запаздыванием. 4)сглаживание данных. Последсвтия автокор. остатков: 1)оценки параметров по МНК, оставаясь несмещ. и состоят. перестают быть эффект. 2)дисперсии оценок явл. смещенными и несостоят. 3)выводы по t и F статистикам, опред. значимость коэфф. регр. и детерминации могут быть неверными.
24. В лин. регр. модели наиболее целесообр методом устран. автокорр. явл. авторегр. схема 1 порядка, суть кот. сост. в след: рассм модель парной лин. регр. yt=α+βxt+εt. Тогда для наблюд. в моменты времени tи t-1 знач. завис. переем. равны : yt=α+βxt+εtyt-1=α+βxt-1+εt-1. Пусть εt подверж. воздействию авторегр. 1 порядка εt=ρ* εt+νt , где νt (t=1,2,...n) – случ. отклон.,удовлет. всем предпосылкам КЛРМ,а ρ-известен. Вычтем из yρ*yt-1yt=α+βxt+εtρ*yt-1=ρα+ρβ(t-1)+ρεt-1. Обозначим yt*=yt-ρyt-1xt=t-ρ(t-1) α*=α(1-ρ) β*=βyt*=α*+β*xt+νt. а* и b* теоретич. параметров α* и β* сделанные по МНК согласно теореме Гаусса-Маркова будут несмещ. уt*=a*+b*xtyHT=aH+bHt
bH=b* aH=a*/1-ρ. Оценка ρ на основе статистики Дарбина-Уотсона. d-статистика Д.-У. тесно связана с коэфф. коррел. соседних остатков. В кач-ве оценки ρ м.б. взят выбор. коэфф. а/к retet-1
rчерез d2(1-r)=dr=d/2-1. Таким образом в опис. выше алгоритме устран. а/к вместо неизв. теоретич. параметра ρ в расч. можно исп. его выбор. оценку r=1-d/2
25. На любой экономич. показат. чаще всего оказ. влияние не один,а неск. факторов. В этом случае вместо ф-ии парной регрессии рассм. ф-ия множеств. регр. M(Y|X1=x1;X2=x2;…Xm=xm)=f(x1;x2;…xm). Теоретич. модель множеств. лин. регр. имеет вид Y=β0+βX1+β2X2+….βmXm+ε .Для индивид. наблюд. yi= β0+βx1+β2x2+….βmxm+ε . Коэфф. βj назыв j-ым теоретич. частным коэфф. регрессии.Параметр β0 опред. знач. Yв случае, когда все факторы xj=0. Пусть имеется n-наблюд. вектора объясн. переменных Х=(Х1,Х2….Хn) (хj1….xjm) Если n=m+1 βjрассчит. едиснтв. образом путем решения сис-мы
может проявл. в функциональной (явной) и стохастической
(скрытой) формах. При функц. формемультиколл. по крайней мере одна из парных связей между объясн. переменными является лин. функц. зависимостью.
Стохастической форме, когда между хотя бы двумя объясняющ. переменными сущ. тесная корреляц. связь. Термин «гетероскедастичность» в широком смысле означ.
предполож. о дисперсии случ. ошибок регресс. модели.Наличие гетероскед. в регресс. модели может привести к негат. последствиям
26. Самым распростран. методом оценки параметров ур-я множеств. лин. регр. явл. метод наим. квадратов. Его суть состоит в минимизации суммы квадратов отклон. наблюд. знач. в завис. перем. Yот ее знач. Ϋ, получ. по ур-ю регр.При выполн. предпосылок множеств. регресс.
Приравн. их к нулю получ сис-му m+1 лин. уравнений (далее система): Σ(yi-(b0+Σbjxij)=0
Σ(yi-(b0+Σbjxij))xij=0. Эта сис-ма назыв. сис-мой норм. ур-ий. Существует единственное решение этой сис-мы. Представ. данные наблюд. и соотв. коэфф. в матричной форме. Y-вектор столбец размерности nнаблюдений зависимой переменной.X- матрица размерности n(m+1) в которой i-я строка представ. наблюд. вектора значений переменных.В- вектор столбец параметров ур-я регрессии.
Здесь XTYTBTeTвекторы матрицы,транспонир. к XYBeсоотв. Необх. условием экстремума ф-ии Qeявл. равенство нулю производной dQe/dB. dQe/dB= -2X-TY+2XTXB. Приравняв dQe/dB к нулевой матрице получим общую формулу оценок параметров модели -2XTY+2XTXB=0
(XTX)B=XTY (XTX)B=XTY B=(XTX)-1XTY
Как и в случае множественной регрессии, статистическая значимость коэффициентов множественной регрессии с m объясняющими переменными проверяется на основе t-статистики: