АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Общие основания построения прогнозов циклических процессов в рядах динамики

Читайте также:
  1. A. Общие.
  2. AutoCAD 2005. Общие сведения
  3. CAC/RCP 1-1969, Rev. 4-2003 «Общие принципы гигиены пищевых продуктов»
  4. H.1 Общие требования
  5. I. ОБЩИЕ ПОЛОЖЕНИЯ
  6. I. ОБЩИЕ ПОЛОЖЕНИЯ
  7. I. ОБЩИЕ ПОЛОЖЕНИЯ
  8. I. ОБЩИЕ ПОЛОЖЕНИЯ
  9. I. ОБЩИЕ ПОЛОЖЕНИЯ
  10. I. ОБЩИЕ ПОЛОЖЕНИЯ
  11. I. Общие правила
  12. I. ОБЩИЕ ПРОБЛЕМЫ КАТАЛИЗА

Определим исходную информационную выборку, имеющуюся в распоряжении исследователя за ретроспективный период длительности Т, как WТ. Исходя из существа повседневной социально-экономической практики, естественно воспринимать массив исходных данных как выборку, содержащую имеющиеся в наличии прошлые значения ряда динамики исследуемого показателя yt, т.е.

WТ = {… уt yt-1, yt-2,… },

где в теоретических целях мы представляем, что ряд имеет начало в бесконечном прошлом.

Как уже ранее было рассмотрено, верным является и утверждение о том, что если уt является стационарным рядом, то исходный ряд WТ можно представить в виде прошлых и настоящих значений его возмущений, т.е.

WТ = {… et, et-1, et-2,… }.

Предположим, например, что процесс, для которого мы собрались строить прогноз, стационарный процесс вида АР(1), т.е.

yt = jyt-1 + et.

Тогда

eТ = уТ - jyТ-1 ,

eТ-1 = уТ-1 - jyТ-2,

eТ-2 = уТ-2 - jyТ-3

и так далее. Другими словами, мы можем вычислить настоящие и прошлые значения случайной составляющей, зная настоящие и прошлые значения исследуемой выборки. Таким образом, даже если исследуемый ряд наилучшим образом с точки зрения выбранных оценочных критериев качества описывается моделями СС или АРСС, если ряд представлен в обратимом виде, то мы можем записать его как АР модель исходного ряда. То есть, возможно выразить e через у.

Таким образом, верно утверждение о том, что исходная информационная выборка без потери своих информационных свойств может быть эквивалентно представлена выборкой, содержащей настоящие и прошлые значения компонент e и у, т.е. WТ = { …уt,… … …,et,… } или привязываясь к текущему значению временного ряда

WТ = {уТ, yТ-1, yТ-2,…,eТ, eТ-1, eТ-2,… }.

Предположим, что основываясь на такой выборке, мы хотим найти оптимальный прогноз значения ряда уt на период Т+l. Оптимальный прогноз – это прогноз с наименьшими потерями в среднем, то есть, который минимизирует ожидаемые потери. В широком смысле оптимальный прогноз – это условное среднее, E (yТ+l | WT), т.е. ожидаемая оценка будущего значения ряда, которое прогнозируется, основываясь на имеющейся информации. Т.е. предполагается существование влияния предшествующих членов ряда на значения их последующих уровней.

В общем, условное среднее не обязательно должно быть линейной функцией от элементов, содержащихся в информационной выборке. Из-за того, что линейные функции легко поддаются обработке, мы предпочитаем работать с линейными прогнозами, т.е. с прогнозами, являющимися линейной функцией от элементов информационной выборки, путем поиска лучшей линейной аппроксимации к условному среднему, называется линейным отображением (проекцией) и записывается Р (yТ+l | WT).Это объясняет общее понятие “прогноз с взвешенными наименьшими квадратами ошибки”. Линейное отображение очень часто бывает пригодным и точным, потому что условное среднее часто близко к линейному. В случае гауссовского распределения случайной составляющей временного ряда условное математическое ожидание всегда линейное, поэтому верно утверждение M(yТ+l | WT) = Р(yТ+l | WT).

Прогнозирование процессов скользящего среднего

Построение точечного прогноза для процесса скользящего среднего конечного порядка

Метод получения точечного прогноза всегда механистичен. Исходный ряд проецируется в будущее в виде соответствующих значений, без каких бы то ни было изменений в выявленной динамике, на интересующий нас период T + l. Приведем пример. Пусть в ходе исследования ряда динамики выявлен процесс типа СС(2), его можно записать следующим образом

yt = et + q1et-1 + q2et-2, где et ~ WN (0, s2) (2.3.11).

Предположим, что мы находимся в момент времени Т и хотим спрогнозировать значение уТ+1. Сначала преобразуем базовую формулу (3.10) для момента времени Т+1

yТ+1 = eТ+1 + q1eТ + q2eТ-1. (2.3.12).

Отобразим полученную форму на исходную информационную выборку WT, имея в виду, что информация о будущем ряда нам не доступна, т.е. все будущие значения инноваций ряда заменяются нулями. Таким образом, верно следующее утверждение

yТ+1,Т = Р(yТ+1| WT) = q1eТ + q2eТ-1 (2.3.13).

Тогда, для того чтобы сделать прогноз на два шага вперед, запишем

yТ+2 = eТ+2 + q1eТ+1 + q2eТ (2.3.14),

и делая проекцию на исходные данные, получим

yТ+2,Т = Р(yТ+2| WT) = q2eТ (2.3.15).

Очевидно, продолжая в этом направлении, мы уже со следующей итерации убеждаемся в том, что yТ+l,T = 0 для всех l > 2.

Теперь рассчитаем соответствующие ошибки прогноза. Исходя из определения, ошибка прогноза – это разница между спрогнозированным значением показателя и его действительным значением. Это можно записать так еТ+l,Т = yT+l – yT+l,T.

С учетом последнего утверждения и принимая в рассмотрение выражения (3.12) - (3.15), обобщая, можем записать следующее

еТ+1,Т = eТ+1 (модель типа «белый шум»),

еТ+2,Т = eТ+2 + q1eТ+1 (модель типа СС(1)),

…..

еТ+l,Т = eТ+l + q1eТ+l-1 + q2eТ+l-2 ( модель типа СС(2) для всех l > 2 ).

Как не трудно убедиться, в этом случае дисперсии ошибок прогноза определяются соответственно следующим образом

s12 = s2,

s22 = s2(1 + q12),

….

sl2 = s2(1 + q12 + q22) для всех l>2.

Кроме того, дисперсия ошибки прогноза для l>2 это просто безусловная дисперсия yt.

Попытаемся обобщить наши рассуждения относительно возможностей построения прогноза в представлении СС(q)-процессов. Модель выглядит следующим образом

yt = et + q1et-1 +…+ qqet-q

Если l£q, прогноз будет иметь вид

yТ+l,Т = 0 + “поправка”

Если l>q, прогноз будет выглядеть как

yТ+l,Т = 0

Таким образом, процесс СС(q) не прогнозируется (не говоря уже об условном среднем) больше, чем на q шагов вперед. Вся динамика процесса СС(q), которую используют для прогнозирования, гасится к тому времени, когда мы близки к порядку величины q модели скользящего среднего.

Рассмотрим, как в обобщенном случае ведут себя соответствующие ошибки прогноза. Они представляют собой СС(l-1)- в случае, если l £ q, и СС(q) – процесс, если l > q.

Ошибка прогноза на период упреждения l в случае, когда l > q – это значение ряда минус его среднее значение.

Наконец, рассмотрим закономерности в дисперсиях ошибок прогноза.

При l £ q дисперсия sl2 £ D (yt), в то время, как для l > q она выражается через соотношение sl2 = D (yt).

Рассмотренные типы моделей, оказывается, являются достаточно общими в прогностических исследованиях.

Построение точечный прогноз для процесса скользящего среднего бесконечного порядка

Рассмотрим общий случай процессов СС бесконечного порядка. Любой стационарный процесс может быть записан как процесс СС бесконечного порядка. Данные процессы легче понимаются и управляются, потому что они записываются в виде возмущений белого шума, имеющего очень простые статистические свойства.

Имея в виду, что общий линейный процесс выглядит как

yt = B(L)et = ,

где et ~ WN (0, s2), b0 = 1, и как ранее было показано s2 . С учетом этого определим динамику СС процесса на будущий период l

yT+l= eT+l+ b1eT+l1 +…+ bleT + bl+1eT-1+…

Затем мы проецируем yT+l на исходную информационную выборку. Такое отображение приводит к тому, что все будущие значения e равны нулю (в силу того, что они подчинены распределению типа «белый шум», а потому непрогнозируемы), следовательно, остается

yT+l= blT + bl+1eT-1+…

Это приводит к тому, что ошибка прогноза на l шагов вперед серийно коррелируется, а последнее замечание позволяет перейти к процессу СС(l-1) вида

еТ+l,T = (yT+l – yT+l,T) =

с нулевым средним и дисперсией

sl2 = s2 (2.3.16).

Сделаем несколько замечаний, относящихся к оптимальному прогнозу общего линейного процесса и соответственных ошибок прогноза, а также дисперсий этих ошибок.

Во-первых, ошибка прогноза на один период вперед – случайная составляющая ряда et. При этом et является несистематической составляющей ряда, она является той частью yt+1, которая не может быть линейно спрогнозирована и именуется в данном изложении инновацией.

Во-вторых, ошибка прогноза получается серийно коррелированной, как использована в случае, когда l > 1. Серийная коррелированность не может быть для улучшения процесса прогнозирования, потому что автокорреляционная функция процесса СС(l-1) обрывается как раз перед началом периода нашей информационной выборки. Это общее и предельно важное свойство ошибок, связанных с оптимальным прогнозом: ошибки оптимального прогноза не могут быть предсказаны на основе имеющейся информации, когда прогноз был уже сделан. Если возможно спрогнозировать ошибки прогноза, тогда возможно улучшить прогноз, что означает, что данный прогноз не был оптимальным. И наконец, заметим, когда l стремится к бесконечности, yТ+l стремится к нулю, т.е. к безусловному среднему процесса, а sl2 стремится к s2 , т.е. к безусловной дисперсии. Это отражает тот факт, что когда l стремится к бесконечности, полезность условной информации, на которой базируется прогноз, прогрессивно убывает. Другими словами, далекое будущее труднее прогнозировать, чем ближайшее будущее.

Интервальный прогноз и плотность прогноза

Оценим способ построения интервала и плотности прогноза. Независимо, является ли скользящее среднее конечной или бесконечной величиной, мы будем использовать в своих рассуждениях ранее полученные результаты. Ошибка прогноза на l шагов вперед определяется как

еТ+l,T = yT+l – yT+l,T.

Ожидаемое значение динамического ряда через l шагов, т.е. yT+l, можно представить как

yT+l = yT+l,T + еТ+l,T.

Если инновации распределены нормально, тогда значение наблюдаемого ряда будущего периода тоже распределено нормально и обусловлено нашей информационной выборкой в момент, когда был сделан прогноз. Таким образом, мы можем построить с (100-a)%-й вероятностью интервальный прогноз на l шагов вперед вида yT+l,T ± ta/2sl, где ta/2 – t-статистика Стьюдента заданного уровня значимости a и с учетом соотношения (2.3.16).

По этой же схеме мы строим плотность прогноза N (yT+l,T, s2l). Среднее условного распределения yT+l равно yT+l,T,,которое в этом случае должно быть, потому что мы строили точечный прогноз как условное среднее. Дисперсия условного распределения прогнозных значений равна s2l, т.е. дисперсии ошибки прогноза.

Проиллюстрируем интервальное представление прогноза и плотность его распределения на примере модели СС(2)-процесса динамического ряда, пусть модель ряда имеет вид

yt = et + q1et-1 + q2et-2 с et ~ WN (0, s2).

Предполагая нормальность в распределении остатков динамического ряда с (100-a)%-й вероятностью интервальный прогноз на один период вперед будет иметь вид yT+1,T = (q1eТ + q2eТ-1) ± ta/2sl, а плотность прогноза будет N (q1eТ + q2eТ-1, sl2).

Построение конкретных прогнозных значений

До сих пор мы предполагали, что параметры процесса, для которого мы строили прогноз, известны. На практике, конечно, они должны быть оценены. Чтобы построить конкретное значение прогноза, мы просто заменяем неизвестные оценки параметров в наших формулах на оценки, а инновации – на остатки.

Рассмотрим, например, процесс СС(2)

yt = et + q1et-1 + q2et-2.

Как можно проверить, используя методы, с которые приводились ранее, оптимальный прогноз на 2 периода вперед при предположении, что параметры известны, будет иметь вид

yT+2,T = q2eТ

с соответствующей ошибкой прогноза

еТ+2,T = eТ+2 + q1eТ+1,

а, следовательно, дисперсией ошибки прогноза

s22 = s2(1 + q12).

Чтобы сделать конкретный прогноз, мы заменяем неизвестные параметры оценками, а инновации заменяем остатками, получаем

и дисперсию ошибки прогноза

.

Затем, мы можем построить конкретный интервальный прогноз и плотность прогноза, которые соответственно равны и .

Стратегия выбора формулы прогноза, выведенной исходя из предположения о том, что нам известны параметры, и замены неизвестных параметров оценками – это естественный путь конкретизации построения точечных прогнозов. Тем не менее, использование подобной стратегии построения плотности конкретногопрогноза имеет некоторую тонкость, которая заслуживает дополнительного обсуждения.

На примере вспомните ещё раз, что фактическое будущее значение ряда есть

yT+2 = eТ+2 + q1eТ+1 + q2eТ,

тогда конкретный точечный прогноз примет вид

.

Таким образом, ошибка прогноза может быть оценена, как

,

дисперсию которой очень трудно рассчитать. В такой ситуации можно попытаться сделать подходящее приближение: можно пренебречь неопределенностью оценок параметров и допустить, что оценки параметров равны настоящим значениям параметров. Следовательно, полагая, что , получим

с дисперсией

s22 = s2 (1 + q12),

оценить которую возможно следующим образом .

Цепное правило прогнозирования

Точечные прогнозы авторегрессионных процессов

Поскольку любой стационарный процесс АР(р) может быть записан в виде процесса СС бесконечного порядка, нет необходимости в какой-нибудь специальной технике для прогнозирования авторегрессионных процессов. Вместо этого, мы можем просто преобразовать процесс авторегрессии в процесс скользящего среднего, а затем применять технику, которая разработана для СС процессов. Оказывается, однако, что простой рекурсивный метод для расчета оптимального прогноза применим в случае авторегрессии.

Рекурсивный метод, называемый цепным правилом прогнозирования, лучше изучать на примере. Рассмотрим процесс АР(1), т.е.

yt = jyt-1 + et , где

et ~ WN (0, s2)

Сначала мы строим оптимальный прогноз на 1 шаг вперед, затем мы строим оптимальный прогноз на 2 шага вперед, который зависит от оптимального прогноза на 1 период, который мы уже строили. Далее мы строим прогноз на 3 периода вперед, который, в свою очередь, зависит от уже вычисленного прогноза на 2 периода и т.д.

Чтобы построить прогноз на 1 период, запишем процесс АР(1) на период Т+1

yТ+1 = jyТ + eТ+1.

Затем, проецируя правую часть уравнения на информационную выборку размером Т, мы получим

yТ+1,Т = jyТ.

Теперь построим прогноз на 2 периода вперед. Запишем процесс в период Т+2

yТ+2 = jyТ+1 + eТ+2.

Проекция на исходный ряд размерности N позволяет получить

yТ+2,Т = jyТ+1,Т.

Обратите внимание на то, что инновация будущего периода заменена нулем, и что прямо осуществляется замена значения уt в момент времени Т+1 его предшествующим оптимальным прогнозным значением. Построим теперь прогноз на 3 шага вперед. Запишем наш процесс в момент времени Т+3

yТ+3 = jyТ+2 + eТ+3.

Затем опять проецируем на Т-размерную информационную выборку

yТ+3,Т = jyТ+2,Т,

где требуемое значение прогноза на 2 периода уже получено.

Продолжая процесс далее, мы можем рекурсивно построить прогнозы на любые будущие периоды. Отсюда и название – цепное правило прогнозирования. Заметьте, что в случае процесса АР(1) для построения прогноза требуется только совсем недавнее значение уt, а для общего процесса АР(р), требуются только р последних недавних значений уt.

Точечные прогнозы для процессов АРСС

Теперь рассмотрим прогнозирование стационарных процессов АРСС. Как и в случае авторегрессионных процессов, мы всегда можем представить АРСС процесс в виде СС бесконечного порядка, а потом использовать вышеуказанные методы для прогнозирования процессов СС. Но так же, как и в случае с АР-моделями, существует простой метод для прогнозирования процессов АРСС напрямую, комбинированием уже изученных подходов к моделированию СС и АР-процессов.

Как и прежде, мы переписываем процесс АРСС в интересующий нас момент будущего

yT+l = j1yT+l-1 +…+ jp yT+l-p + eT+l + q1 eT+l-1 +…+ qq eT+l-q.

В правой части уравнения у нас различные будущие значения уt и et. Заменяем всю правую часть равенства на ее проекцию в Т-размерную информационную выборку. То есть, заменяем все будущие значения уt прогнозными значениями, полученными рекурсивно согласно цепному правилу, а все будущие значения et заменяем на 0, получим

yT+l = j1yT+l-1,Т +…+ jp yT+l-p + eT+l + q1 eT+l-1,Т +…+ qq eT+l-q,Т.

При использовании этой формулы, следует обратить внимание, что оптимальный “прогноз” времени Т любого значения уt или et в момент времени Т или раньше – это просто сами значения уt или e.

В качестве примера, рассмотрим прогнозирование процесса АРСС(1,1). Его можно записать следующим образом

yt = jyt-1 + et + qet-1 с et ~ WN (0, s2).

Найдем yT+1,Т. Процесс в момент времени Т+1 имеет вид

yТ+1 = jyТ + eТ+1 + qeТ.

Проецируя правую часть уравнения на WТ, получим

yТ+1,Т = jyТ + qeТ

Найдем теперь yT+2,Т. Процесс в момент времени Т+2 имеет вид

yТ+2 = jyТ+1 + eТ+2 + qeТ+1

Проецируя правую часть уравнения на WТ, получим

yТ+2,Т = jyТ+1,Т

Подставляя полученное ранее прогнозное значение на 1 период вперед, получим

yТ+2,Т = j(jyТ + qeТ) = j2 yТ + jqeТ.

Если продолжить подстановку, то совершенно ясно, что

yТ+l = jyТ+l-1,T

для всех l > 1.

Интервальные прогнозы и плотность прогноза

Цепное правило, независимо, от того применяется ли оно для чистых АР - моделей или для АРСС - моделей, является хорошим способом упростить расчет точечных прогнозов. Для построения интервального прогноза и плотности прогноза необходима дисперсия ошибки прогноза на l периодов, которую мы можем взять из СС-представления, как это обсуждалось ранее. Она будет иметь вид

sl2 = s2 .

Заметим, что мы в действительности не оцениваем представление СС; скорее мы решаем обратную задачу для стольких параметров b, сколько нам нужно в виде реальных параметров модели, которые мы заменяем на оценки.

Проиллюстрируем построение (100-a)%-го доверительного интервального прогноза на 2 периода вперед для АРСС(1,1)-процесса. Мы уже построили точечный прогноз yT+2,Т; нам осталось только рассчитать дисперсию ошибки этого прогноза. Процесс представлен уравнением

yt = jyt-1 + et + qet-1.

Делая подстановку значения yt-1 и проводя соответствующие преобразования, получаем

yt = j (jyt-2 + et-1 + qet-2) + et + qet-1 = et + (j+q)et-1 +…

Нет необходимости делать обратную подстановку далее, потому что дисперсия ошибки прогноза здесь s22 = s2(1 + b12), где b1 – коэффициент при et-1 в представлении процесса АРСС(1,1) в виде СС-процесса, и рассчитывается как (j+q). Таким образом, интервальный прогноз на 2 периода вперед будет следующим yТ+2,Т ± ta/2s2, или

(j2yТ + jqeТ)± ta/2s

Оцененное значение интервального прогноза окончательно примет следующий вид .


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.023 сек.)