<< Предыдущая

стр. 44
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>

ны и последствия мультиколлинеарности неоднозначны и во многом
зависят от результатов выборки.
10.4.1. Исключение переменной(ых) из модели
Простейшим методом устранения мультиколлинеарности являет-
ся исключение из модели одной или ряда коррелированных перемен-
ных.

251
Однако необходима определенная осмотрительность при приме-
нении данного метода. В этой ситуации возможны ошибки специфи-
кации. Например, при исследовании спроса на некоторое благо в каче-
стве объясняющих переменных можно использовать цену данного
блага и цены заменителей данного блага, которые зачастую коррели-
руют друг с другом. Исключив из модели цены заменителей, мы, ско-
рее всего, допустим ошибку спецификации. Вследствие этого воз-
можно получение смещенных оценок и осуществление необоснован-
ных выводов. Таким образом, в прикладных эконометрических моде-
лях желательно не исключать объясняющие переменные до тех пор,
пока коллинеарность не станет серьезной проблемой.
10.4.2. Получение дополнительных данных или новой выборки
Поскольку мультиколлинеарность напрямую зависит от выборки,
то, возможно, при другой выборке мультиколлинеарности не будет
либо она не будет столь серьезной.
Иногда для уменьшения мультиколлинеарности достаточно уве-
личить объем выборки. Например, при использовании ежегодных
данных можно перейти к поквартальным данным. Увеличение коли-
чества данных сокращает дисперсии коэффициентов регрессии и тем
самым увеличивает их статистическую значимость. Однако получение
новой выборки или расширение старой не всегда возможно или связа-
но с серьезными издержками. Кроме того, данный подход может уси-
лить автокорреляцию. Эти проблемы ограничивают возможность ис-
пользования данного метода.
10.4.3. Изменение спецификации модели
В ряде случаев проблема мультиколлинеарности может быть ре-
шена изменением спецификации модели: либо изменением формы
модели, либо добавлением объясняющих переменных, которые не уч-
тены в первоначальной модели, но существенно влияющие на зависи-
мую переменную. Если данный метод имеет основания, то его исполь-
зование уменьшает сумму квадратов отклонений, тем самым сокращая
стандартную ошибку регрессии. Это приводит к уменьшению стан-
дартных ошибок коэффициентов.
10.4.4. Использование предварительной информации
о некоторых параметрах
Иногда при построении модели множественной регрессии можно
воспользоваться некоторой предварительной информацией, в частно-

252
сти, известными значениями некоторых коэффициентов регрессии.
Вполне вероятно, что значения коэффициентов, полученные для ка-
ких-либо предварительных (обычно более простых) моделей, либо для
аналогичной модели по ранее полученной выборке, могут быть ис-
пользованы для разрабатываемой в данный момент модели.
Для иллюстрации приведем следующий пример. Строится ре-
грессия вида (10.1). Предположим, что переменные X1 и X2 коррели-
рованны. Для ранее построенной модели парной регрессии Y = ?0 +
+ ?1X1+? был определен статистически значимый коэффициент ?1 (для
определенности пусть ?1 = 0.8), связывающий Y с X1. Если есть осно-
вания думать, что связь между Y и X1 останется неизменной, то мож-
но положить ?1 = ?1 = 0.8. Тогда (10.1) примет вид:
Y = ?0 + 0.8X1 + ?2X2 + ?. ?
Y – 0.8X1 = ?0 + ?2X2 + ?. (10.9)
Уравнение (10.9) фактически является уравнением парной ре-
грессии, для которого проблема мультиколлинеарности не существу-
ет.
Ограниченность использования данного метода обусловлена тем,
что, во-первых, получение предварительной информации зачастую за-
труднительно, а во-вторых, вероятность того, что выделенный коэф-
фициент регрессии будет одним и тем же для различных моделей, не-
высока.
10.4.5. Преобразование переменных
В ряде случаев минимизировать либо вообще устранить пробле-
му мультиколлинеарности можно с помощью преобразования пере-
менных.
Например, пусть эмпирическое уравнение регрессии имеет вид
)
Y = b0 + b1X1 + b2X2, (10.10)
причем X1 и X2 ? коррелированные переменные. В этой ситуации
можно попытаться определять регрессионные зависимости относи-
тельных величин
)
X
Y
= b 0 + b1 2 ,
X1 X1
(10.11)
)
X
Y
= b 0 + b1 1 .
X2 X2
253
Вполне вероятно, что в моделях, аналогичных (10.11), проблема
мультиколлинеарности будет отсутствовать.
Возможны и другие преобразования, близкие по своей сути к
вышеописанным. Например, если в уравнении рассматриваются взаи-
мосвязи номинальных экономических показателей, то для снижения
мультиколлинеарности можно попытаться перейти к реальным пока-
зателям и т. п.
Вопросы для самопроверки
1. Объясните значение терминов “коллинеарность” и “мультиколлинеарность”.
2. В чем различие между совершенной и несовершенной мультиколлинеарно-
стью?
3. Каковы основные последствия мультиколлинеарности?
4. Как можно обнаружить мультиколлинеарность?
5. Как оценивается коррелированность между двумя объясняющими перемен-
ными?
6. Перечислите основные методы устранения мультиколлинеарности.
7. Какие из следующих утверждений истинны, ложны или не определены? От-
вет поясните.
а) При наличии высокой мультиколлинеарности невозможно оценить стати-
стическую значимость коэффициентов регрессии при коррелированных пере-
менных.
б) Наличие мультиколлинеарности не является препятствием для получения
по МНК BLUE-оценок.
в) Мультиколлинеарность не является существенной проблемой, если основ-
ная задача построенной регрессионной модели состоит в прогнозировании
будущих значений зависимой переменной.
г) Высокие значения коэффициентов парной корреляции между объясняю-
щими переменными не всегда являются признаками мультиколлинеарности.
2
д) Так как Х является строгой функцией от Х, то при использовании обеих
переменных в качестве объясняющих возникает проблема мультиколлинеар-
ности.
е) При наличии мультиколлинеарности оценки коэффициентов остаются не-
смещенными, но их t-статистики будут слишком низкими.
2
ж) Коэффициент детерминации R не может быть статистически значимым,
если все коэффициенты регрессии статистически незначимы (имеют низкие t-
статистики).
з) Мультиколлинеарность не приводит к получению смещенных оценок ко-
эффициентов, но ведет к получению смещенных оценок для дисперсий коэф-
фициентов.
и) В регрессионной модели Y = ?0 + ?1X1 + ?2X2 + ? наличие мультиколлине-
арности можно обнаружить, если вычислить коэффициент корреляции меж-
ду Х1 и Х2.

254
Пусть по МНК оценивается уравнение регрессии Y = ?0 + ?1X1 + ?2X2 + ?.
8.
Для большинства выборок наблюдается высокая коррелированность между
X1 и X2. Пусть коррелированности между этими переменными не наблюдает-
ся. Коэффициенты регрессии оцениваются по данной выборке. Будут ли в
этом случае оценки несмещенными? Будут ли несмещенными оценки диспер-
сий найденных эмпирических коэффициентов регрессии?
9. Объясните логику отбрасывания объясняющей переменной с целью устране-
ния проблемы мультиколлинеарности.
10. Пусть в уравнении регрессии Y = ?0 + ?1X1 + ?2X2 + ? переменные X1 и X2
сильно коррелированны. Строится уравнение регрессии X2 на X1, случайные
отклонения от которой обозначим через ?. Строится новое уравнение регрес-
сии с зависимой переменной Y и двумя объясняющими переменными ? Х2 и
?. Будет ли решена таким образом проблема мультиколлинеарности?

Упражнения и задачи
1. Имеется выборка из 10 наблюдений за переменными X1, X2, Y:
X1 1 2 3 4 5 6 7 8 9 10
X2 1 1.6 2.2 2.8 3.4 4 4.6 5.2 5.6 6.2
Y 0 3 6 9 12 15 18 21 24 27
а) Можно ли по этим данным по МНК оценить коэффициенты регрессии с
двумя объясняющими переменными. Ответ поясните.
б) В случае отрицательного ответа на вопрос а) предложите преобразования,
которые позволят оценить коэффициенты регрессии.

2. По выборке n = 50 для X1, Х2, X3 построена следующая корреляционная
матрица
? 1.0 0.45 ? 0.35?
R = ? 0.45 1.0 0.52 ? .
? ?
? 0.35 0.52 1 .0 ?
?
а) Найдите и оцените статистическую значимость следующих частных ко-
эффициентов корреляции r12.3, r23.1, r13.2.
б) При рассмотрении какой регрессии будет иметь место мультиколлинеар-
ность?

3. После оценки уравнения регрессии Y = b0 + b1X1 + b2X2 + e был рассчитан
коэффициент корреляции rx 1 x 2 = 0. Были рассчитаны уравнения парной
Y = с0 + с1X1 + ?; Y = d0 + d2X2 + ?.
регрессии:
Можно ли ожидать, что будут выполняться следующие соотношения:
а) b1 = с1; b2 = d2;
б) b0 равен либо с0, либо d0, либо некоторой их комбинации;
в) S(b1) = S(с1); S(b2) = S(d2) .


255
4. В следующей таблице приведены данные по реальному валовому нацио-
нальному продукту (GNP), реальному объему потребления (CONS) и объему
инвестиций (INV) для некоторой вымышленной страны.
GNP 240 248 261 274 273 269 283 296 312 319
CONS 149 154 162 169 167 171 180 188 196 200
INV 38.2 41.9 46.5 52.1 48.1 38.3 45.4 52.1 56.8 57.5
GNP 318 325 317 327 350 361 372 385 402 412
CONS 200 202 205 215 225 235 245 252 261 266
INV 50.9 54.5 44.7 50.4 65.8 63.7 64.0 76.4 71.6 71.8

а) Постройте уравнение регрессии INV = b0 + b1GNP + b2 CONS + e.
б) Оцените качество построенного уравнения.
в) Можно ли было ожидать при построении данного уравнения наличия
мультиколлинеарности? Ответ поясните.
г) Имеет ли место мультиколлинеарность для построенного вами уравне-
ния? Как вы это определили?
д) Постройте уравнения регрессии INV на GNP и INV на CONS. Какие вы-
воды можно сделать по построенным моделям?
е) Постройте уравнение регрессии CONS на GNP. Что обнаруживает по-
строенная модель?
ж) Как можно решить проблему мультиколлинеарности для первоначальной
модели?

5. Пусть исследуется вопрос о среднем спросе на кофе AQ (в граммах на одно-
го человека). В качестве объясняющих переменных предполагается исполь-
зовать следующие переменные: PC ? индекс цен на кофе, lnYD ? логарифм
от реального среднедушевого дохода, POP ? численность населения, PT ?
индекс цен на чай. Можно ли априори предвидеть, будут ли в этом случае
значимыми все t-статистики и будет ли высоким коэффициент детермина-
2
ции R ? Какими будут ваши предложения по уточнению состава объясняю-
щих переменных.

6. Пусть рассматривается следующая модель:
CONSt = ?0 + ?1GNPt + ?2GNPt?1 +?3(GNPt ? GNPt?1) + ?,
где CONSt ? объем потребления в момент времени t; GNPt, GNPt?1 ? объемы
ВНП в моменты времени t и t?1 соответственно.
а) Что утверждается в данной модели?
б) Можно ли по МНК оценить все коэффициенты указанного уравнения рег-
рессии?
в) Какой из коэффициентов и вследствие чего нельзя оценить?
г) Решит ли проблему оценки исключение из модели переменной GNPt или
переменной GNPt?1? Ответ поясните.


256
11. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ
В РЕГРЕССИОННЫХ МОДЕЛЯХ
11.1. Необходимость использования фиктивных переменных
Зачастую в регрессионных моделях в качестве объясняющих пе-
ременных приходится использовать не только количественные (опре-
деляемые численно), но и качественные переменные. Например, спрос
на некоторое благо может определяться ценой данного блага, ценой
на заменители данного блага, ценой дополняющих благ, доходом по-
требителей и т. д. (эти показатели определяются количественно). Но
спрос может также зависеть от вкусов потребителей, их ожиданий,
национальных и религиозных особенностей и т. д. А эти показатели
представить в численном виде нельзя. Возникает проблема отражения
в модели влияния таких переменных на исследуемую величину. Это
достаточно сложная задача. Обычно в моделях влияние качественного
фактора выражается в виде фиктивной (искусственной) переменной,
которая отражает два противоположных состояния качественного
фактора. Например, “фактор действует” – “фактор не действует”,
“курс валюты фиксированный” – “курс валюты плавающий”, “сезон
летний” – “сезон зимний” и т. д. В этом случае фиктивная переменная
может выражаться в двоичной форме:

D=?
0, фактор не действует,
? 1, фактор действует.
?
Например, D = 0, если потребитель не имеет высшего образова-
ния, D = 1, если потребитель имеет высшее образование; D = 0, если в
обществе имеются инфляционные ожидания, D = 1, если инфляцион-
ных ожиданий нет.
Переменная D называется фиктивной (искусственной, двоичной)
переменной (индикатором).
Таким образом, кроме моделей, содержащих только количест-
венные объясняющие переменные (обозначаемые X i ), в регрессион-
ном анализе рассматриваются также модели, содержащие лишь каче-
ственные переменные (обозначаемые Di), либо и те и другие одновре-
менно.
Регрессионные модели, содержащие лишь качественные объяс-
няющие переменные, называются ANOVA-моделями (моделями дис-
персионного анализа).

<< Предыдущая

стр. 44
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>