<< Предыдущая

стр. 50
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>

оценку yt?1, которая получается в результате регрессии переменной Y
на независимые переменные Xj, входящие в первоначальную авторе-
грессионную модель. Такая замена, однако, может привести к появле-
нию мультиколлинеарности.

12.6. Проблема автокорреляции остатков.
Обнаружение и устранение
Как отмечалось в разделе 9.3.3, автокорреляцию в авторегресси-
онных моделях практически невозможно определить с помощью ста-
тистики DW Дарбина?Уотсона, т. к. для этих моделей значение DW
даже при наличии автокорреляции близко к 2, что по критерию Дар-
бина?Уотсона равносильно отсутствию автокорреляции.
Для обнаружения автокорреляции в авторегрессионных моделях
Дарбин предложил использовать h-статистику, имеющую вид:
n
)
h=с , (12.36)
1 ? nD(g)
где n ? объем выборки; D(g) ? дисперсия оценки коэффициента ? при
)
лаговой переменной yt?1; с ? оценка коэффициента автокорреляции
первого порядка, которую можно определить на основе формулы
DW
)
(9.2): с ? 1 ? . В разделе 9.3.3 приведена схема использования
2
данной статистики для анализа автокорреляции. Отметим лишь сле-
дующие особенности ее использования:
• вне зависимости от того, сколько лагов переменной Y включено в
модель, значение h необходимо вычислять с использованием дис-
персии коэффициента при уt?1;
• статистика h не вычисляется, если nD(g) > 1. Но на практике такие
ситуации практически не встречаются.
• применение h целесообразно лишь при достаточно большом объе-
ме выборки n.
Как отмечалось ранее, автокорреляция остатков приводит к по-
лучению смещенных и несостоятельных оценок. Автокорреляция мо-
жет указывать либо на неверную спецификацию уравнения, либо на
наличие важных неучтенных факторов. Но зачастую автокорреляция

290
вызывается наличием регрессионной зависимости между отклонения-
ми, т. е. внутренними свойствами ряда {?t}. Существует несколько
способов устранения данной проблемы. В частности, для авторегрес-
сионных моделей предлагается авторегрессионное преобразование,
преобразование методом скользящих средних, модели ARMA и
ARIMA.
12.6.1. Авторегрессионное преобразование (AR)
Пусть Y ? исследуемая величина, и ее изменение можно описать
с помощью модели
(yt – m) = ?1(yt–1 – m) + ut, (12.37)
где m – среднее значение Y, ut – некоррелированные случайные от-
клонения с нулевым математическим ожиданием и постоянной дис-
персией ?2 (такие отклонения при рассмотрении временных рядов
иногда называют белым шумом). Преобразование (12.37) в этом слу-
чае называют авторегрессионным преобразованием первого порядка
AR(1). При этом значение yt переменной Y в момент времени t про-
порционально ее же значению yt–1 в момент времени (t – 1) плюс неко-
торое случайное отклонение.
По аналогии
(yt – m) = ?1(yt–1 – m) + ?2(yt–2 – m) + ut (12.38)
авторегрессионным преобразованием второго порядка
называется
AR(2).
(yt – m) = ?1(yt–1 – m) + ?2(yt–2 – m) + ... + ?р(yt?р – m) + ut (12.39)
называется авторегрессионным преобразованием порядка Р AR(Р).
Во всех этих преобразованиях текущее значение yt переменной Y
выражается только через ее предыдущие значения и случайную со-
ставляющую (белый шум) ut.
12.6.2. Преобразование методом скользящих средних
Пусть поведение моделируется формулой:
yt = ? + ?0ut + ?1ut–1, (12.40)
где ? = const, ut и ut–1 – белый шум в текущий и предыдущий моменты
времени. В этом случае значение переменной Y в момент времени t
равно сумме константы и скользящей средней между текущим и пре-
дыдущим значениями случайного отклонения (белого шума). Соот-

291
ношение (12.40) называют преобразованием методом скользящих
средних первого порядка МА(1).
Соотношение
yt = ? + ?0ut + ?1ut–1 + ?2ut–2 + ... + ?qut–q (12.41)
называют преобразованием методом скользящих средних порядка q
МА(q).
12.6.3. Преобразование ARMA
Сочетание преобразований AR и MA называется авторегресси-
онным преобразованием со скользящей средней ARMA. Например, для
переменной Y преобразование ARMA(1,1) будет иметь вид:
yt = ? + ?1?yt–1 + ?0?ut + ?1?ut–1. (12.42)
В общем случае преобразование ARMA(p,q) включает в себя p
авторегрессионных членов и q скользящих средних.
12.6.4. Преобразование ARIMA
Преобразование ARMA в сочетании с переходом от объемных
величин к приростным называется преобразованием ARIMA. В неко-
торых случаях такой переход позволяет получить более точную и яв-
ную модель зависимости. Здесь приращением (конечной разностью)
первого порядка переменной Y называется разность yt – yt–1.
Приращением порядка d переменной Y называют разность yt – yt–1 –
yt–2 – ... – yt–d.
В общем виде преобразование ARIMA(p,d,q) выражается форму-
лой:
yt? = ?1 y*?1 + ... + ?p y*?p + ?0?ut + ?1?ut–1 + ... + ?q?ut–q, (12.43)
t t

где ?i, i = 1, 2, ..., p; ?i, i = 0, 1, 2, ..., q – неизвестные параметры. Ве-
личины y*?i , i = 0, 1, ... , p представляют собой конечные разности
t
порядка d переменной Y. ut–i , i = 0, 1, ... , q – независимые друг от дру-
га нормально распределенные случайные величины с нулевым мате-
матическим ожиданием и постоянной дисперсией.
Отметим, что преобразования AR, MA и ARIMA целесообразно
использовать тогда, когда достаточно ясен набор объясняющих пере-
менных и общий вид уравнения регрессии, но в то же время сохраня-
ется автокорреляция остатков.


292
12.7. Прогнозирование с помощью временных рядов
12.7.1. Предсказание и прогнозирование
Конечной целью статистического анализа временных рядов явля-
ется прогнозирование будущих значений исследуемого показателя.
Такое прогнозирование позволяет, во-первых, предвидеть будущие
экономические реалии, во-вторых, проанализировать построенную
регрессионную модель на устойчивость (т.е. ее применимость в изме-
няющихся условиях). Прогнозирование можно осуществлять либо на
основе выявленных закономерностей изменения самого исследуемого
показателя во времени и экстраполяции его прошлого поведения на
будущее; либо на основе выявленной зависимости исследуемого пока-
зателя от других экономических факторов, будущие значения кото-
рых контролируемы, известны или легко предсказуемы.
Кстати, некоторые авторы различают такие понятия, как прогно-
зирование и предсказание.
Пусть, например, оценивается модель
yt = ?0 + ?1xt + ?t, (12.44)
)
по которой предвидится будущее значение y t + p переменной Y:
)
y t + p = b0 + b1xt+p. (12.45)

В этом случае, если будущее значение xt+p известно, то такое оце-
нивание Y называется предсказанием. Если же действительное значе-
ние xt+p неизвестно, то говорят, что делается прогноз значения Y. Оче-
видно, точность прогноза ниже точности предсказания, так как в этом
случае точное значение xt+p неизвестно.
Кроме того, различают долгосрочное и краткосрочное прогнози-
рование. В первом анализируется долговременная динамика анализи-
руемого показателя, и в этом случае главным представляется выделе-
ние общего направления его изменения ? тренда. При этом считается
возможным пренебречь краткосрочными колебаниями значений ис-
следуемого показателя относительно этого тренда. Тренд обычно
строится методами регрессионного анализа.
После выделения долгосрочного тренда обычно пытаются опре-
делить факторы, вызывающие отклонения значений исследуемой ве-
личины от тренда. Для предсказания краткосрочных колебаний про-
водится более детальный регрессионный анализ с целью выявления
большого числа показателей, определяющих поведение исследуемой

293
величины. Кроме этого, проводят более детальное исследование свя-
зей текущих значений исследуемых показателей с их прошлыми зна-
чениями или с прошлыми значениями других факторов.
При анализе динамических моделей обычно на базе статистиче-
ских методов пытаются определить вероятную ошибку предсказаний.
Схема проводимых расчетов достаточно подробно расписана в пара-
графе 5.5.
Пусть yt+p ? истинное значение исследуемого показателя Y в мо-
)
мент времени (t + p). y t + p ? это же значение по уравнению регрессии
(построенному по МНК). Тогда ошибка предсказания определяется
как
)
?t+p = y t + p ? y t + p . (12.46)

Если случайные отклонения уравнения регрессии удовлетворяют
предпосылкам МНК, то ошибка предсказания ?t+p будет иметь нуле-
вое математическое ожидание и минимальную дисперсию. При этом в
случае парной регрессии (12.44) выборочная дисперсия определяется
по формуле:
? 1 (x t + p ? x) 2 ? 2 ? 1 (x t + p ? x) 2 ? 2
D B ( ? t + p ) = ?1 + + ?у = ? 1 + + ?у . (12.47)
? n ? (x ? x) 2 ? е ? n n ? D B (x) ? е
? ? ? ?
i


Из формулы (12.47) видно, что чем больше отклоняется прогно-
зируемое значение случайной величины Х от выборочного среднего,
тем больше дисперсия ошибки предсказания. С другой стороны, дис-
персия ошибки тем меньше, чем больше объем выборки n.
2
С ростом объема выборки D B (? t + p ) ?n >? > у е . Действительно,
? ?
a ?n >? > б , b ?n >? > в , и единственным источником ошибки пред-
? ? ? ?
сказания будет случайный член ?t+p , который имеет дисперсию ??2.
Заменим в формуле (12.47) ??2 на ее оценку Se2. Тогда величина

? 1 (x t + p ? x) 2 ? 2
S( ? t + p ) = ?1 + + ? ? Se (12.48)
?n n ? Sx ?
2
? ?

называется стандартной ошибкой предсказания.



294
)
y t +p ? y t +p
В этом случае отношение имеет распределение Стью-
S( ? t +p )
дента с числом степеней свободы ? = n ? 1. Следовательно, довери-
тельный интервал для действительного значения yt+p имеет вид:
) )
y t + p ? t б S( ? t + p ) < y t + p < y t + p + t б S( ? t + p ) . (12.49)
, n ?1 , n ?1
2 2

В развернутом виде это соотношение представлено в (5.35).
Общая схема соотношения между значением объясняющей пере-
менной X и доверительным интервалом для предсказания значения Y
наглядно представлена на рис. 5.4.
2
Для уравнения множественной регрессии значение Sдt + p рассчи-
тывается по формулам алгебры матриц. Интервальная оценка для
среднего значения предсказания приведена в (6.31).
Стандартные ошибки предсказания могут быть рассчитаны с по-
мощью добавления в модель фиктивных переменных по методу Сал-
кевера. Пусть имеется возможность получения статистических дан-
ных за p моментов на прогнозном периоде. Тогда строится такая же
регрессия для совокупного набора данных выборки и прогнозного пе-
риода, но с добавлением фиктивных переменных Dt+1, Dt+2, …, Dt+p.
При этом Dt+i = 1 только для момента наблюдения (t + i). Для всех
других моментов Dt+i = 0. Доказано, что оценки коэффициентов и их
стандартные ошибки для всех количественных переменных Xj в точ-
ности совпадают со значениями, полученными по регрессии, постро-
енной только по данным выборки. Коэффициент при фиктивной пе-
ременной Dt+i будет равен ошибке предсказания в момент (t + i). А
стандартная ошибка коэффициента равна стандартной ошибке пред-
сказания.
12.7.2. Тест Чоу на устойчивость регрессионной модели
Тесты на устойчивость предназначены для оценки того, насколь-
ко модель, полученная по выборке, будет соответствовать поведению
исследуемой величины на прогнозном (послевыборочном) периоде.
При этом либо оцениваются прогнозные качества модели, либо опре-
деляется, происходят ли изменения параметров в период прогноза.
Одним из таких тестов является тест Чоу.



295
Пусть для совокупного набора данных выборки и прогнозного
периода построены два уравнения регрессии. Первое ? с теми же объ-
ясняющими переменными, что и в первоначальном (построенном по
выборке) уравнении. Второе ? с добавлением фиктивных переменных
по методу Салкевера.
Пусть суммы квадратов отклонений ? e i2 точек наблюдений от
этих уравнений регрессии равны S, Sd соответственно. Тогда разность
(S ? Sd) может рассматриваться как улучшение качества уравнения
при добавлении p новых (фиктивных) объясняющих переменных. Для
анализа, насколько существенно улучшение качества уравнения, мож-
но воспользоваться соответствующей F-статистикой:
(S ? Sd )/p
F= , (12.50)
Sd /(T ? m ? 1)
где T ? объем первоначальной выборки, m ? количество объясняющих
переменных в первоначальном уравнении регрессии. Формально (T ?
m ? 1) определено как количество (T + p) наблюдений в объединенной
совокупности за вычетом числа (m + p + 1) оцениваемых параметров в

<< Предыдущая

стр. 50
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>