АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов

Читайте также:
  1. ABC-аналіз як метод оптимізації абсолютної величини затрат підприємства
  2. Exercises for Lesson 3. Requests and offers / Просьбы и предложения. Способы выражения, лексика, примеры.
  3. Exercises for Lesson 3. Requests and offers / Просьбы и предложения. Способы выражения, лексика, примеры.
  4. Exercises for Lesson 3. Requests and offers / Просьбы и предложения. Способы выражения, лексика, примеры.
  5. I. ПРЕДМЕТ И МЕТОД
  6. I.ЗАГАЛЬНІ МЕТОДИЧНІ ВКАЗІВКИ
  7. II. Документация как элемент метода бухгалтерского учета
  8. II. МЕТОДИЧЕСКИЕ РЕКОМЕНДАЦИИ ДЛЯ СТУДЕНТОВ
  9. II. Методична робота.
  10. II. МЕТОДЫ, ПОДХОДЫ И ПРОЦЕДУРЫ ДИАГНОСТИКИ И ЛЕЧЕНИЯ
  11. II. МЕТОДЫ, ПОДХОДЫ И ПРОЦЕДУРЫ ДИАГНОСТИКИ И ЛЕЧЕНИЯ
  12. II. Способы изменения обязательств (цессия, суброгация, делегация)

Запишем спецификацию множественной регрессионной модели в виде:

Yt1Xt12Xt2+…+β jXtj+…+βkXtktkj=1 βjXtjt

Пусть случайное возмущение гетероскедастично.

Этап преобразования переменных

1)Одним из основных способов корректировки гетероскедастичности является использование метода взвешенных наименьших квадратов. Метод Взвешенных наименьших квадратов применяется в том случае, когда известны диагональные элементы автоковариационной матрицы Cεεвектора возмущений ε(σt2, t=1, …,n). В этом случае уравнение наблюдений можно преобразовать следующим образом. Поделим каждый член на ско возмущения: Yttkj=1βj(Xtjt)+εtt, t=1,…,n

В результате преобразования спецификация принимает вид спецификации классической регрессионной модели:

Y ̽tkj=1βjX ̽t+ε ̽t

Определим количественные характеристики случайного возмущения ε ̽t:

· Математическое ожидание:

E{ ε ̽t }=E{εtt}=(1/σt)E{εt}=0

· Дисперсия случайного члена:

Var{ ε ̽t }=Var{εtt}=(1/σt2)Var{εt}= σt2/ σt2=1,

Таким образом, ε ̽t ̴ N(0,1), и при помощи данного преобразования случайное возмущение приобрело свойство гомоскедастичности.

Остатки регрессии для данной модели определяются по правилу: e ̽t=(Ytt)-Σkj=1β͠j (Xtjt)=1/ σt(Yt- Σkj=1β͠j Xtj)=1/ σt(Yt-Y͠t), поэтому в критерий отбора Σe ̽t2 каждое слагаемое входит со своим весом 1/ σt.

Способы корректировки гетероскедастичности. Доступный метод взвешенных наименьших квадратов.

Запишем спецификацию множественной регрессионной модели в виде:

Yt1Xt12Xt2+…+β jXtj+…+βkXtktkj=1 βjXtjt

Пусть случайное возмущение гетероскедастично.

Этап преобразования переменных

В случае, если значения σt, t=1,…, n неизвестны, используется доступный обобщенный МНК. В этом методе выполняется оценка неизвестных дисперсий, но при условии, что на структуру автоковариационной матрицы накладываются дополнительные ограничения (предпосылки). Наиболее часто используется следующая предпосылка: ско возмущения пропорционально одному из регрессоров, например, σt=μXti, или Xti=λσt, где λ=1/μ, t=1,…,n, тогда после деления на Xtiлевой и правой частей исходной спецификации, получим: Yt/ Xtikj=1βj(Xtj/Xti)+ εt/Xti, и, если ввести новые переменные вида: Xtj̽ = Xtj/Xti; Yt̽ = Yt/ Xti; ε̽tt/Xti, t=1,…n; j=1,…k, то можно перейти к оценке классической регрессионной модели со спецификацией: Yt̽= Σkj=1 βjX ̽tj+ ε̽t. В этом случае дисперсия случайного возмущения будет постоянной для всех наблюдений: E{ εt/Xtk}=E{ε t/ λσt }2 =(1/λ 2)(σ 2t / σ 2t)= 1/λ 2,где λ=1/μ. Таким образом, проблема гетероскедастичности устранима.

Обобщенная регрессионная модель. Обобщенный метод наименьших квадратов.

Обобщенная регрессионная модель имеет следующую спецификацию: Y=Xβ+ε –(1), здесь Y=(Y1,Y2,…,Yn)T-(n×1) вектор-столбец значений эндогенной переменной,

Xn×k – детерминированная матрица регрессоров полного ранга,

β k,1 = (β12,…,βk)T- вектор-столбец параметров модели,

ε n,1 = (ε12,…,εn) – вектор-столбец случайных возмущений.

Относительно случайных возмущений регрессии принимаются следующие предпосылки:

1) E(ε)=0;

1212 … Ω1n)

2) Cεε=Ω= (Ω21 σ22 … Ω1n)

(………………)

(Ωn1n2 … σn2)

- автоковариационная матрица вектора возмущений,

ts=Ωst=Cov(εts) не равно 0.


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.006 сек.)