|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Оценка параметров наиболее употребляемых трендов1. Полином m-го порядка: f(t)= Уравнение модели имеет вид: где , - оцениваемые параметры тренда. Если осуществить в модели нелинейного тренда подстановку tj = xj, т.е. подать на вход модели вместо вектора времени матрицу экзогенных переменных Х вида: После чего исходная нелинейная модель приобретает вид линейной зависимости от х. 2. Гиперболическая функция m-го порядка: Способ сведения к линейной регрессии аналогичный: матрица Х имеет вид: 3. Линейно-логарифмическая функция m-го порядка: Способ сведения к линейной регрессии аналогичный: матрица Х имеет вид: 4. Линейно-гиперболическая функция: Эта модель сводится к линейной регрессии от двух независимых переменных. Способ сведения аналогичный; матрица Х имеет вид: 5. Модифицированная экспонента: . Эта модель сводится к линейной регрессии от 1 независимой переменной. Способ сведения аналогичный; матрица Х имеет вид: Для следующих трендов к моделям будут применяться преобразования, нарушающие предположения о случайных отклонениях (п.3.3.2). Поэтому полученные оценки окажутся смещенными. Результаты п.п. 3.3.2 - 3.3.4 здесь также могут быть сильно искажены. Покажем это на примере следующего тренда. 6. Первая функция Торнквиста: Уравнение модели имеет вид: Оно легко трансформируется в следующий вид: Затем можно сделаем подстановку: х1 = t, x2 = t yt. Коэффициенты линейной регрессии обозначим: Получим следующую модель: где Коэффициенты модели оценивают при помощи МНК. После этого получают оценки a и b параметров исходной модели (a и b соответственно): Проверим, выполняется ли ансамбль предположений о характере распределения случайных отклонений оцененной модели. 1). Математическое ожидание случайной составляющей: Предположение выполняется. 2). Оценим Mht1 ht2, t1¹t2, т.е. ковариацию случайных: Предположение выполняется. 3). Дадим оценку дисперсии случайной, т.е. Dht: Очевидно, что, предположение не выполняется, поскольку Dht1 ¹ Dht2. Таким образом, оценки полученной модели являются смещенными. Предполагается, что для следующих трендов подобный анализ читатель в состоянии провести самостоятельно. Для упрощения продолжим преобразования трендов, не учитывая случайных воздействий. 7. Степенная функция . Имеем уравнение , логарифмируя его, имеем: Получилось уравнение линейной регрессии, где зависимой переменной является , а независимой - lnt, свободным членом - . Параметр получаем, зная оценку . 8. Показательная функция . Имеем уравнение , логарифмируя которое, получим: . Имеем уравнение линейной регрессии, где зависимой переменной является , независимой - t. Параметры a и b получаем, зная оценки и . 9. Обобщенная экспонента . Имеем уравнение где может быть линейной, параболической или другой функцией. Пусть это линейная функция: . Имеем: . Логарифмируя последнее уравнение, получаем: . Это уравнение линейной регрессии, где зависимой переменной является , а независимыми - t и t2. Применяя МНК, получаем оценки , b и , откуда находим оценки исходных параметров. 10. Кривая Гомперца: . Имеем уравнение , логарифмируя которое получаем: . Это еще не линейная регрессия. Но если бы было известно значение g, зависимой переменной можно было бы принять , а независимой - , т.е. получилась бы линейная регрессия. На этом основан алгоритм нахождения параметров. Изменяя значения g (остальные параметры находят при помощи МНК), добиваются минимизации суммы квадратов отклонений от регрессии. 11. Логистическая кривая: . Имеем уравнение , откуда путем очевидного преобразования получаем: . Аналогично предыдущему тренду, фиксируя g, получаем линейную регрессию, где зависимая переменная – 1/yt, а независимая - . Изменяя параметр g (остальные параметры находят при помощи МНК), добиваются минимизации суммы квадратов отклонений от регрессии. Таким образом, имея эффективное программное обеспечение МНК для линейной регрессии, можно построить любой выбранный тренд.
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.004 сек.) |