|
|||||||||||||||||||||||||||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Различные формы уравнения регрессии
Основная модель линейной регрессии относится к классу простых регрессий, в левой части уравнения которых находится одна переменная: объясняемая, моде- лируемая, эндогенная, а в правой — несколько переменных: объясняющих, фак- торных, независимых, экзогенных. Объясняющие переменные называют также факторами, регрессорами. Для объясняемой переменной сохраняется прежнее обозначение — x. А век- тор-строка размерности n объясняющих переменных будет теперь обозначаться через z, поскольку свойства этих переменных в основной модели регрессии суще- ственно отличаются от свойств объясняемой переменной. Через X и Z обозна- чаются, соответственно, вектор-столбец размерности N наблюдений за объясня- емой переменной и матрица размерности N × n наблюдений за объясняющими переменными. Обозначения параметров регрессии и остатков по наблюдениям со- храняются прежними (отличие в том, что теперь вектор-столбцы α и a имеют размерность n). Уравнения регрессии в исходной форме имеют следующий вид:
X = Z α + 1 N β + ε, (7.1)
В сокращенной форме:
X ˆ = Z ˆα + ε, (7.3)
или
X ˆ = Z ˆ a + e. (7.4)
Оператор МНК-оценивания ((6.11, 6.13) в п. 6.2) принимает теперь вид: a = M −1 m, b = x ¯ − z ¯ a, (7.5)
N ˆ ˆ где M = 1 Z t Z — ковариационная матрица переменных z между собой, N ˆ ˆ m = 1 Z t X — вектор ковариаций переменных z с переменной x. Первую часть оператора (7.5) часто записывают в форме: a = ˆ Z ˆ−1 Z ˆ X. (7.6) Z t t ˆ
МНК-оценки e обладают следующими свойствами ((6.6, 6.12) в предыдущей главе):
e ¯ =
N 1 Z ˆt e = 0. (7.7) N
Коэффициент детерминации рассчитывается следующим образом (см. (6.20)):
s 2 e, (7.8)
x x
— дисперсия объясняемой переменной, s 2 — остаточная дисперсия,
q = a t Ma = a t m = m t a = m t M −1 m (7.9)
— объясненная дисперсия. Уравнение регрессии часто записывают в форме со скрытым свободным членом: X = Z ˜α˜ + ε, (7.10) X = Z ˜ a ˜ + e, (7.11)
224 Глава 7. Основная модель линейной регрессии
α a где Z ˜ = [ Z 1 N ], α˜ = , a ˜ = . β b При таком представлении уравнения регрессии оператор МНК-оценивания записывается следующим, более компактным, чем (7.5), образом:
a = M ˜−1 m, (7.12)
a ˜ = Z ˜t Z ˜ −1 Z ˜t X. (7.13)
M ˜ и m ˜ также, как M и m, являются матрицей и вектором вторых моментов, но не центральных, а начальных. Кроме того, их размерность на единицу больше. Оператор (7.12) дает, естественно, такой же результат, что и оператор (7.5). Этот факт доказывался в п. 4.2 для случая одной переменной в правой части урав- нения.
В общем случае этот факт доказывается следующим образом. Учитывая, что X = X ˆ + 1 Nx ¯, (7.14) . Z ˜ = Z ˆ + 1 Nz ¯ . 1 N, (7.15)
можно установить, что
M + z ¯r z ¯ z ¯ m + z ¯r x ¯
z ¯r
m = ˜ , x ¯
и записать систему нормальных уравнений, решением которой является (7.12) в сле- дующей форме:
M + z ¯r z ¯
z ¯r a m + z ¯r x ¯ = z ¯ 1 . b x ¯
7.1. Различные формы уравнения регрессии 225
Вторая (нижняя) часть этой матричной системы уравнений эквивалентна второй части оператора (7.5). После подстановки b, выраженного через a, в первую (верх- нюю) часть данной матричной системы уравнений она приобретает следующий вид: Ma + z ¯r z ¯ a + z ¯r x ¯ − z ¯r z ¯ a = m + z ¯r x ¯, и после приведения подобных становится очевидной ее эквивалентность первой ча- сти оператора (7.5). Что и требовалось доказать.
Кроме того, можно доказать, что
M −1 − M −1 z ¯t − z ¯ M −1 1 + z ¯ M −1 z ¯t
Этот факт потребуется ниже. (Правило обращения блочных матриц см. в Прило- жении A.1.2.) Справедливость этого утверждения проверяется умножением M ˜−1 из (7.17) на M ˜из (7.16). В результате получается единичная матрица.
МНК-оценки вектора e ортогональны столбцам матрицы Z ˜: Z ˜t e = 0. (7.18) Доказательство наличия этого свойства получается как побочный результат при вы- воде оператора оценивания (7.12) путем приравнивания нулю производных оста- точной дисперсии по параметрам регрессии, как это делалось в п. 6.2.
что Поскольку последним столбцом матрицы Z ˜ является 1 N, из (7.18) следует,
т.е. e ¯ = 0. Из остальной части (7.18): Z t e = 0, (7.20)
что в данном случае означает, что cov (Z, e) = 0.
Действительно, раскрывая (7.20):
Z r e (7. 15) = Z ˆr e + z ¯r1r e = Z ˆr e = 0.
226 Глава 7. Основная модель линейной регрессии
Таким образом, (7.18) эквивалентно (7.7). Однако уравнения (7.10) допускают и иную интерпретацию. Если последним в Z ˜ является не 1 N, а столбец «обычной» переменной, то это — регрессия без свободного члена. В таком случае из (7.18) не следует (7.19), и свойства (7.7) не вы- полняются. Кроме того, для такой регрессии, очевидно, не возможна сокращенная запись уравнения. Этот случай в дальнейшем не рассматривается. В дальнейшем будет применяться в основном форма записи уравнения со скры- тым свободным членом, но чтобы не загромождать изложение материала, символ «∼» будет опускаться, т.е. соотношения (7.10, 7.11, 7.12, 7.13, 7.18) будут исполь- зоваться в форме
Случаи, когда a, Z, m, M означают не a ˜, Z ˜, m ˜, M ˜, а собственно a, Z, m, M, будут оговариваться специально.
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.014 сек.) |