<< Предыдущая

стр. 41
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>


232
При небольшом числе наблюдений (n1 < 20, n2 < 20) Свед и Эй-
зенхарт разработали таблицы критических значений количества рядов
при n наблюдениях (приложение 7). Суть таблиц в следующем.
На пересечении строки n1 и столбца n2 определяются нижнее k1 и
верхнее k2 значения при уровне значимости ? = 0.05.
Если k1 < k < k2 , то говорят об отсутствии автокорреляции.
Если k ? k1, то говорят о положительной автокорреляции остат-
ков.
Если k ? k2 , то говорят об отрицательной автокорреляция остат-
ков.
В нашем примере n = 20, n1 = 11, n2 = 9, k = 5. По таблицам (при-
ложение 7) определяем k1 = 6, k2 = 16. Поскольку k = 5 < 6 = k1 , то
принимается предположение о наличии положительной автокорреля-
ции при уровне значимости ? = 0.05.
9.3.3. Критерий Дарбина–Уотсона
Наиболее известным критерием обнаружения автокорреляции
первого порядка является критерий Дарбина–Уотсона. Статистика
DW Дарбина–Уотсона приводится во всех эконометрических пакетах
как важнейшая характеристика качества регрессионной модели. Ме-
тод определения автокорреляции на основе статистики DW подробно
рассмотрен в параграфе 6.7. Суть его состоит в вычислении статистики
DW Дарбина–Уотсона и на основе ее величины ? осуществлении вы-
водов об автокорреляции.
T
2
? ( e t ? e t ?1 )
t =2
DW = . (9.1)
T
2
? et
t =1
Согласно формуле (6.46) статистика Дарбина–Уотсона тесно свя-
зана с выборочным коэффициентом корреляции re t e t ?1 :

DW ? 2(1 ? re t e t ?1 ). (9.2)
Таким образом, 0 ? DW ? 4 и его значения могут указать на нали-
чие либо отсутствие автокорреляции. Действительно, если re t e t ?1 ? 0
(автокорреляция отсутствует), то DW ? 2. Если re t e t ?1 ? 1 (положи-
тельная автокорреляция), то DW ? 0. Если re t e t ?1 ? (отрицательная
?1

автокорреляция), то DW ? 4.
233
Для более точного определения, какое значение DW свидетельст-
вует об отсутствии автокорреляции, а какое об ее наличии, была по-
строена таблица критических точек распределения Дарбина–Уотсона.
По ней для заданного уровня значимости ?, числа наблюдений n и ко-
личества объясняющих переменных m определяются два значения:
dl ? нижняя граница и du ? верхняя граница.
Общая схема критерия Дарбина–Уотсона будет следующей:
1. По построенному эмпирическому уравнению регрессии
)
y t = b 0 + b1x t1 + ... + b m x tm определяются значения отклонений
)
еt = уt ? y t для каждого наблюдения t, t = 1, 2, …, T.
2. По формуле (9.1) рассчитывается статистика DW.
3. По таблице критических точек Дарбина–Уотсона определяются
два числа dl и du и осуществляют выводы по следующей схеме:
0 ? DW < dl ? существует положительная автокорреляция,
dl ? DW < du ? вывод о наличии автокорреляции не определен,
du ? DW < 4 ? du ? автокорреляция отсутствует,
4 ? du ? DW < 4 ? dl ? вывод о наличии автокорреляции не определен,
4 ? dl ? DW ? 4 ? существует отрицательная автокорреляция.
Отметим, что при использовании критерия Дарбина–Уотсона не-
обходимо учитывать следующие ограничения.
1. Критерий DW применяется лишь для тех моделей, которые содер-
жат свободный член.
2. Предполагается, что случайные отклонения ?t определяются по сле-
дующей итерационной схеме ?t = ??t?1 + vt, называемой авторегрес-
сионной схемой первого порядка AR(1). Здесь vt ? случайный член.
3. Статистические данные должны иметь одинаковую периодичность
(т. е. не должно быть пропусков в наблюдениях).
4. Критерий Дарбина–Уотсона не применим для регрессионных моде-
лей, содержащих в составе объясняющих переменных зависимую
переменную с временным лагом в один период, т. е. для так назы-
ваемых авторегрессионных моделей вида:
yt = ?0 + ?1xt1 + ... + ?mxtm + ?Yt?1 + ?t. (9.3)
Причину четвертого ограничения поясним следующим приме-
ром. Пусть уравнение регрессии имеет вид:
yt = ?0 + ?1xt + ?yt?1 + ?t . (9.4)


234
Пусть случайное отклонение ?t подвержено воздействию авторег-
рессии первого порядка:
?t = ??t?1 + vt. (9.5)
Тогда уравнение регрессии (9.4) можно представить в следующем
виде:
yt = ?0 + ?1xt + ?yt?1 +??t?1 + vt. (9.6)
Но yt?1 зависит от ?t?1, т. к. если (9.4) верно для t, то оно верно и
для t ? 1. Следовательно, имеется систематическая связь между одной
из объясняющих переменных и одним из компонентов случайного
члена. То есть не выполняется одна из основных предпосылок МНК
(предпосылка 40) ? объясняющие переменные не должны быть слу-
чайными (т. е. не иметь случайной составляющей). Значение любой
объясняющей переменной должно быть экзогенным, полностью опре-
деленным. В противном случае оценки будут смещенными даже при
больших объемах выборок.
Для авторегрессионных моделей разработаны специальные тесты
обнаружения автокорреляции, в частности h-статистика Дарбина, ко-
торая определяется по формуле
n
)
h= с , (9.7)
1 ? nD(g)
)
где с ? оценка ? автокорреляции первого порядка (9.5), D(g) ? выбо-
рочная дисперсия коэффициента при лаговой переменной yt?1 , n ?
число наблюдений.
При большом объеме выборки n и справедливости нулевой гипо-
тезы H0: ? = 0 статистика h имеет стандартизированное нормальное
распределение (h ? N(0, 1)). Поэтому по заданному уровню значимости
? определяется критическая точка u?/2 из условия Ф(u?/2) = (1 ? ?) / 2 и
сравнивается h с u?/2. Если ?h ?> u?/2 , то нулевая гипотеза об отсутст-
вии автокорреляции должна быть отклонена. В противном случае она
не отклоняется.
)
Отметим, что обычно значение с рассчитывается по формуле
)
с = 1 ? 0.5?DW, а D(g) равна квадрату стандартной ошибки Sg оценки g
коэффициента ?. Поэтому h легко вычисляется на основе данных оце-
ненной регрессии.
Основная проблема с использованием этого теста заключается в
невозможности вычисления h при n?D(g) > 1.

235
9.4. Методы устранения автокорреляции
Основной причиной наличия случайного члена в модели являют-
ся несовершенные знания о причинах и взаимосвязях, определяющих
то или иное значение зависимой переменной. Поэтому свойства слу-
чайных отклонений, в том числе и автокорреляция, в первую очередь
зависят от выбора формулы зависимости и состава объясняющих пе-
ременных. Так как автокорреляция чаще всего вызывается неправиль-
ной спецификацией модели, то для ее устранения необходимо, прежде
всего, попытаться скорректировать саму модель. Возможно, автокор-
реляция вызвана отсутствием в модели некоторой важной объясняю-
щей переменной. Необходимо попытаться определить данный фактор
и учесть его в уравнении регрессии (см. пример из параграфа 6.7).
Также можно попробовать изменить формулу зависимости (например,
линейную на лог-линейную, линейную на гиперболическую и т. д.).
Однако если все разумные процедуры изменения спецификации моде-
ли, на ваш взгляд, исчерпаны, а автокорреляция имеет место, то мож-
но предположить, что она обусловлена какими-то внутренними свой-
ствами ряда {et}. В этом случае можно воспользоваться авторегресси-
онным преобразованием. В линейной регрессионной модели либо в
моделях, сводящихся к линейной, наиболее целесообразным и про-
стым преобразованием является авторегрессионная схема первого по-
рядка AR(1).
Для простоты изложения AR(1) рассмотрим модель парной ли-
нейной регрессии
Y = ?0 + ?1X + ?. (9.8)
Тогда наблюдениям t и (t?1) соответствуют формулы

yt = ?0 + ?1xt + ?t , (9.9)
yt?1 = ?0 + ?1xt?1 + ?t?1. (9.10)
Пусть случайные отклонения подвержены воздействию авторег-
рессии первого порядка (9.5):
?t = ??t?1 + ?t,
где ?t , t = 2, 3, ... , T ? случайные отклонения, удовлетворяющие всем
предпосылкам МНК, а коэффициент ? известен.
Вычтем из (9.9) соотношение (9.10), умноженное на ?:
yt ? ?yt?1 = ?0(1 ? ?) + ?1(xt ? ?xt?1) + (?t ? ??t?1). (9.11)

236
Положив yt* = yt ? ?yt?1, xt* = xt ? ?xt?1, ?0* = ?0(1 ? ?) и с учетом
(9.5), получим:
yt* = ?0* + ?1xt* + ?t. (9.12)
Так как по предположению коэффициент ? известен, то очевид-
но, yt*, xt*, ?t вычисляются достаточно просто. В силу того, что слу-
чайные отклонения ?t удовлетворяют предпосылкам МНК, то оценки
?0* и ?1 будут обладать свойствами наилучших линейных несме-
щенных оценок.
Однако способ вычисления yt*, xt* приводит к потере первого на-
блюдения (если мы не обладаем предшествующим ему наблюдением).
Число степеней свободы уменьшится на единицу, что при больших
выборках не так существенно, но при малых выборках может привес-
ти к потере эффективности. Эта проблема обычно преодолевается с
помощью поправки Прайса–Винстена:
?
x1 = 1 ? с 2 ? x1 ,
(9.13)
?
y1 = 1 ? с 2 ? y1.
Отметим, что авторегрессионное преобразование может быть
обобщено на произвольное число объясняющих переменных, т. е. ис-
пользовано для уравнения множественной регрессии.
Авторегрессионное преобразование первого порядка AR(1) мо-
жет быть обобщено на преобразования более высоких порядков
AR(2), AR(3) и т. д.:
?t = ?1?t?1 + ?2 ?t?2 + ?t ,
(9.14)
?t = ?1?t?1 + ?2 ?t?2 + ?3 ?t?3 + ?t.
Однако на практике значение коэффициента ? обычно неизвест-
но и его необходимо оценивать. Существует несколько методов оце-
нивания. Приведем наиболее употребляемые.
9.4.1. Определение ? на основе статистики Дарбина–Уотсона
Напомним, что статистика Дарбина–Уотсона тесно связана с ко-
эффициентом корреляции между соседними отклонениями через со-
отношение (9.2):
DW ? 2(1 ? re t e t ?1 ).
Тогда в качестве оценки коэффициента ? может быть взят ко-
эффициент r = re t e t ?1 . Из (9.2) имеем:

237
DW
r? 1?
. (9.15)
2
Этот метод оценивания весьма неплох при большом числе на-
блюдений. В этом случае оценка r параметра ? будет достаточно
точной.
9.4.2. Метод Кохрана–Оркатта
Другим возможным методом оценивания ? является итератив-
ный процесс, называемый методом Кохрана–Оркатта. Опишем дан-
ный метод на примере парной регрессии (9.8):
Y = ?0 + ?1X + ?
и авторегрессионной схемы (9.5) первого порядка AR(1)
?t = ? ?t?1 + ?t .

1. Оценивается по МНК регрессия (9.8) и для нее определяются оцен-
ки et отклонений ?t, t = 1, 2, ..., n.
2. Используя схему AR(1), оценивается регрессионная зависимость
)
et = с et?1 + ?t, (9.16)
)
где с ? оценка коэффициента ?.
3. На основе данной оценки строится уравнение:
) ) ) )
(y t ? с y t ?1 ) = б(1 ? с ) + в(x t ? с x t ?1 ) + (е t ? с е t ?1 ) , (9.17)

с помощью которого оцениваются коэффициенты ? и ? (в этом
)
случае значение с известно).
)
4. Значения ?0 = б(1 ? с ) и ?1 = ? подставляются в (9.8). Вновь вычис-
ляются оценки et отклонений и процесс возвращается к этапу 2.
Чередование этапов осуществляется до тех пор, пока не будет
достигнута требуемая точность. То есть пока разность между преды-
дущей и последующей оценками ? не станет меньше любого наперед
заданного числа.
9.4.3. Метод Хилдрета–Лу
По данному методу регрессия (9.11) оценивается для каждого
возможного значения ? из интервала [?1, 1] с любым шагом (напри-
)
мер, 0.001; 0.01 и т. д.). Величина с , дающая наименьшую стандарт-
ную ошибку регрессии, принимается в качестве оценки коэффициента

238
?. И значения ?0* и ?1 оцениваются из уравнения регрессии (9.11)
)
именно с данным значением с .
Этот итерационный метод широко используется в эконометриче-
ских пакетах.
9.4.4. Метод первых разностей
В случае, когда есть основания считать, что автокорреляция от-
клонений очень велика, можно использовать метод первых разностей.
Для временных рядов характерна положительная автокорреляция
остатков. Поэтому при высокой автокорреляции полагают ? = 1, и,
следовательно, уравнение (9.11) принимает вид:
yt ? yt?1 = ?1( xt ? xt?1) + ( ?t ? ?t?1 )
или (9.18)
yt ? yt?1 = ?1( xt ? xt?1) + ?t.
Обозначив ?yt = yt ? yt?1 , ?xt = xt ? xt?1 , из (9.18) получим
?yt = ?1?xt + ?t. (9.19)
Из уравнения (9.19) по МНК оценивается коэффициент ?1. За-
метим, что коэффициент ?0 в данном случае не определяется непо-
средственно. Однако из МНК известно, что ?0 = y ? в 1x .

<< Предыдущая

стр. 41
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>