|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Методы устранения мультиколлинеарностиВ общем случае вся совокупность методов устранения мультиколлинеарности делится на две большие группы. Первую составляют специальные методы оценивания параметров модели, гарантирующие недопущение мультиколлинеарности в процессе ее построения. К ним относят, прежде всего ридж-регрессию, методы факторного анализа, метод главных компонент. Вторая представляет собой совокупность эвристических методов и процедур «очистки» от эффекта мультиколлинеарности в рамках уже выбранного метода, например МНК. Смещенные методы оценивания. Одним из методов устранения мультиколлинеарности является переход к смещенным методам оценивания. Этот подход оправдывается тем, что в условиях мультиколлинеарности оценки дисперсии даже лучших несмещенных оценок оказываются достаточно большими, и в расширенном классе оценок (без требования несмещенности) могут найтись более точные оценки с точки зрения минимизации среднеквадратической ошибки. Одним из таких смещенных методов оценивания является так называемая «ридж-регрессия», или «гребневая регрессия». Этот метод предлагает рассматривать оценки вида: â = (XTX + τ E m +1)-1XT Y, где τ – некоторое небольшое положительное число (как правило, это величина находится в диапазоне от 0.1 до 0.4). Его добавление к диагональным элементам матрицы XTX делает оценки смещенными, но с другой стороны, благодаря ему, определитель матрицы XTX перестает быть близким к нулю. При этом доказана теорема, утверждающая, что найдется такое значение τ 0, при котором средние квадраты ошибок смещенных оценок окажутся меньше соответствующих характеристик для МНК-оценок [3].
Метод главных компонент. С помощью метода главных компонент осуществляется переход к ортогонализированным объясняющим переменным. Эти новые объясняющие переменные представляют собой некоторые линейные комбинации исходных регрессоров, выбранные так, чтобы корреляции между ними были малы или вообще отсутствовали [3]. Обозначим В терминах центрированных переменных Y’ и X’ = X – Y’ =
Метод построения регрессии Y на главные компоненты вектора X заключается в выполнении следующих операций: 1) Определяются и упорядочиваются собственные числа λi и соответствующие им собственные векторы li = (li 1, li 2, …, lim) матрицы X ’ ТX ’. 2) Из собственных векторов матрицы X ’ ТX ’ составляется матрица коэффициентов преобразования (матрица перехода):
которая по построению является ортогональной: LT = L–1. 3) С помощью матрицы L переходят к вектору главных компонент: Z = (z (1), z (2), …, z ( m ))T = L X’. Соответственно j -е наблюдение вектора главных компонент определится соотношением: Z = (zj (1), zj (2), …, zj ( m ))T = L Xcj, а матрица наблюдений главных компонент: Z = X ’ LT. Уравнение регрессии Y’ по Z имеет вид: Y’ = c 1 z (1) + c 2 z (2) + … + cmz ( m ) + ε. МНК-оценки регрессионных коэффициентов определяются, исходя из соотношения:
Из построения следует, что матрица ZTZ (матрица XTX в ортогональном базисе) имеет следующую структуру:
соответственно оценки: взаимно некоррелированы, что делает их независимыми от числа и состава включенных в модель главных компонент. Так как преобразование от исходных признаков к главным компонентам является ортогональным, то имеют место соотношения:
det(ZTZ) = det(X ’ ТX ’). Если удается дать содержательную интерпретацию включенным в модель главным компонентам, то оценка функции регрессии Y на главные компоненты может быть записана в виде:
где δj = 1, если j -я главная компонента включена в модель (в случае ее статистической значимости); δj = 0, если j -я главная компонента не включена в модель. В противном случае необходимо вернуться к исходным переменным. Оценки исходной модели регрессии определяются по формулам
Эвристические методы отбора наиболее существенных объясняющих переменных Процедуру отбора существенных переменных можно рассматривать как процедуру выбора размерности линейной модели. Обусловленность матрицы ZTZ или XTX улучшается с уменьшением числа объясняющих переменных. Если две объясняющие переменные сильно коррелированы с объясняемой переменной Y и друг с другом, бывает достаточно включить в модель лишь одну из них. Решение задачи отбора наиболее существенных объясняющих переменных возможно несколькими способами. Один из наиболее распространенных и эффективных – подход последовательного наращивания числа предикторов, который реализован в двух вариантах: 1) «Все возможные регрессии». Решается задача: путем полного перебора всех возможных комбинаций (сочетаний) из k (k = 1, 2, …, m –1) объясняющих переменных, отобранных из исходного (заданного) набора X 1, X 2, …, Xm, определить такие переменные, для которых коэффициент детерминации с результирующим показателем y был бы максимальным. Таким образом, на k -м шаге процедуры определяется k объясняющих переменных, наиболее информативных в классе моделей зависимости y от k предикторов. Строгих правил выбора оптимального числа предикторов нет. Один из способов, однако, предлагает воспользоваться формулой:
Далее, в качестве оптимального числа предикторов предлагается выбрать такое k, при котором величина 2) Пошаговый отбор переменных. Пошаговый отбор переменных является модификацией метода «всех возможных регрессий» и отличается от него тем, что на каждом следующем шаге учитываются результаты предыдущего: на k -м перебираются не все возможные сочетания предикторов, а комбинации k –1 наиболее информативных предикторов предыдущего шага с оставшимися (m – k +1)объясняющими переменными. В большинстве ситуаций получаемые с помощью пошаговой процедуры наборы переменных оказываются оптимальными или близкими к оптимальным. Другой подход к обоснованию состава и размерности решаемой задачи построения ЛММР с целью минимизации эффекта мультиколлинеарности состоит в исключении из модели одной или нескольких коррелированных переменных. Ясно, что основанием для исключения может служить высокое значение парного коэффициента корреляции в матрице коэффициентов корреляции экзогенных переменных модели (31.а). Критерием его эффективности является соответствующее изменение множественного коэффициента корреляции (34), а также соответствующих коэффициентов парной корреляции в векторе корреляции эндогенной и экзогенных переменных модели (31.б). Однако при такого рода «очистке» данных следует помнить о возможности существенного искажения содержательного смысла эконометрической модели и пытаться избежать его. Следует также заметить, что некоторый положительный эффект на снижение мультиколлинеарности может оказывать расширение объемов выборки, изменение спецификации модели в части изменения ее формы, добавления значимого фактора в число объясняющих переменных, а также специальные методы преобразования исходных данных модели [14]. Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.007 сек.) |