<< Предыдущая

стр. 63
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>

линейно-логарифмическая (lin-log), 185
лог-линейная (log-linear), 184
logit, 270?272
LPM (linear probability model), 268?270
обратная (reciprocal), 185?186
показательная (exponential), 187?188
полулогарифмическая (semilog), 183

351
регрессионная (см. регрессионная модель)
рекурсивная (recursive), 326
степенная (polinomial), 186?187
с распределенными лагами (distributed-lag model), 277
частичной корректировки (partial adjustment model), 285?287
Мультиколлинеарность (multicollinearity), 245?256
определение (detection), 248?251
последствия (consequences), 247?248
суть (nature), 245?247
устранение (смягчение) (remedies), 251?254
Мультипликатор (multiplier), 278
Наилучшие линейные несмещенные оценки (BLUE)
(the best linear unbiased estimators), 115
Отклонение (остаток, возмущение) (residual), 99
Оценки (estimators)
интервальные (interval), 64?66
линейные (linear), 63
несмещенные (unbiased), 61
смещенные (biased), 61
состоятельные (consistent), 62
точечные (point), 60
эффективные (efficient), 61
Параметры (parameters), 98, 141
Параметризация (parameterization), 11, 97
Переменная (variable)
зависимая (объясняемая) (dependent; explained), 94
инструментальная (instrumental), 317?319
независимая; объясняющая (independent; explanatory; regressor), 94
предопределенная (predetermined), 312
фиктивная (см. фиктивная переменная), 257
экзогенная (exogenous), 311
эндогенная (endogenous), 311
Поправка Прайса?Винстена (Prais?Winsten transformation), 237
Плотность вероятности (probability density function (PDF)), 19?20
совместная (multivariate probability density function), 34
Предпосылки МНК (классической линейной регрессионной модели)
(см. Гаусса?Маркова условия), 113?114, 143?144
Предсказание (prediction), 293?295
Преобразование (process), 279?282, 292?293
авторегрессионное AR (autoregressive process), 236?237, 291
ARIMA (autoregressive integrated moving process), 292
ARMA (autoregressive and moving average process), 292
методом скользящих средних (MA) (moving average process), 292
Койка (Koyck transformation), 279?282
Прогнозирование (forecasting), 293?295

352
Распределение СВ (distribution), 22
нормальное (normal), 23?26
Стьюдента; t-распределение (Student), 27?28
Фишера; F-распределение (Fisher), 28?29
Хи-квадрат; ?2-распределение (chi-square), 26?27
Регрессионная модель (regression model), 94
классическая линейная (classical linear (CLRM)), 112?115
линейная (linear), 99
множественная линейная (multiple linear), 141
нелинейная (nonlinear), 180
парная (two-variable), 98
функциональная форма (functional form), 189
Системы одновременных уравнений, 308
Случайная величина (СВ) (random variable), 16
дискретная (discrete), 17
непрерывная (continuous), 17
Спецификация (specification), 11
Спецификации ошибки (specification errors), 192
типы, виды (tapes of), 192?195
корректировка (adjustment), 195?197
обнаружение (detection), 195?197
Среднее (mean value)
генеральное (population), 52
выборочное (sample), 52
Среднее квадратическое отклонение (standard deviation), 22
выборочное (sample standard deviation), 53
генеральное (population standard deviation), 52
Стандартная ошибка коэффициента регрессии
(standard error of regression coefficient), 118, 149?151
Стандартная ошибка уравнения регрессии
(standard error of regression equation), 117, 151
Статистика (statistic)
Дарбина?Уостона DW (Durbin?Watson statistic), 163?168
h-статистика Дарбина (Durbin h-statistic), 235, 290
F-статистика (F-statistic), 157?161
Статистическая оценка (statistical estimator), 59
Степени свободы (degrees of freedom), 26
Сумма квадратов отклонений (residual sum of squares), 101
остаточная (необъясненная) (residual sum of squares), 132
общая (total sum of squares), 132
объясненная (explained), 132
Таблицы распределений (distribution tables), 29?33
Тренд (trend), 266, 294
Тест на устойчивость Чоу (Chow stability test), 264, 296?297
Уравнение регрессии (regression equation), 98?99

353
идентифицируемое (identified), 319, 323?324
неидентифицируемое (underidentified), 319?322
приведенное (reduced), 312
сверхидентифицируемое (overidentified), 322?323
структурное (structural), 312
теоретическое (population), 98, 141
эмпирическое (sample), 99, 144
Уровень значимости ? (significance level), 72
Фиктивные переменные (dummy variable), 257
зависимая переменная фиктивна (dependent variable as dummy), 267?272
сезонные (seasonal), 266?267
сравнение двух регрессий (comparing two regressions), 263?266
тест Чоу (test Chow), 264
Функция распределения случайной величины
(comulative distribution function), 17?18
Хилдрета?Лу метод (Hildret?Lu procedure), 238?239
Центральная предельная теорема (central limit theorem), 123
Эконометрика (Econometrics), 10
Эмпирический стандарт (Standard deviation), 64




354
глава 1

“ ” двух т. е. - -- - , , 1.14

глава 2

“” +
глава 3

( x ? m) 2
?
1
e (стр.60), ? (с.65), , (с.73) ?xy ?xy ?xy rxy (с. 86)
2

2р у

1. , (с.87) , (с.90)

глава 4
)
Если, кроме уравнения регрессии Y на X (Y = b 0 + b x X) , для тех
же эмпирических данных найдено уравнение регрессии X на Y
(с.103)
, , (с.108)

глава 5

? 0, если i ? j;
= cov(еi , е j ) = ? 2
у еiе j
?у , если i = j.
у еi x i (с.114)
?0 ?1 ?i b0 b1 ?0 ?i ?j ?0 (с.115)

?1 у е ?2 (c. 116) ?2 (c. 117)
2
?i (c. 118) ?1 ?1 t б (c. 118)
,n ?2
2
где ? ? требуемый уровень значимости. При невыполнении (5.15)
(c. 121)
е i ? N(0, у 2 ) M(е i ) = 0 , у 2 (е i ) = у 2 . (c. 123)

?1 ?2 ?2 ?2 ?2 ?2 (c. 126) ?2 (c. 128)

,n ? 2
2
(c. 129)
tб tб tб
,n ? 2 ,n ? 2 ,n ? 2
2 2 2
с.131 т. е.

глава 6
? 0, если i ? j;
= cov(еi , е j ) = ? 2 у еi x i = 0
с. 143 у еiе j
?у , если i = j.

с. 153 tб tб tб tб tб tб
, n ? m ?1 , n ? m ?1 , n ? m ?1 , n ? m ?1 , n ? m ?1 , n ? m ?1
2 2 2 2 2 2
с. 154 tб tб tб
, n ? m ?1 , n ? m ?1
, n ? m ?1
2 2 2


?1 = m,
с. 157

с. 162 Fб; н1 ; н2
Некоторые причины необходимости использования различных
уравнений регрессии для описания изменения одной и той же зависи-
мой

c. 165 : . ei?1

c. 168 c. 171 c. 175 4.
Таблица 6.1 tб
, n ? m ?1
2
c. 178 (t) = c. 179
(1.9) (2.3) (3) 179

глава 7
c. 190 “ ”
с. 194 ?2 ?0 ?1 ?0 ?1 ?2

с. 195
S2 S2
S21 S 21
= =
; .
b g
? (x i ? x ) ? (x i1 ? x1 ) ?(1? r12 )
2 2 2



Y = в 0 + в 1X 1 + в 2 X 2 + е
с. 196
Y = б + в ? X + е, в < 0;
ln Y = б + в?lnX + е, в < 0;
1
Y = б + в? + е, в > 0;
X+г
Y = б + a вx + е, в < 0



с.198
1. Тест Рамсея RESET (Regression specification error test).
2. Тест (критерий) максимального правдоподобия (The Likelihood
Ratio test).
3. Тест Валда (The Wald test).
4. Тест множителя Лагранжа (The Lagrange multiplier test).
5. Тест Хаусмана (The Hausman test).
6. Box–Cox преобразование (Box?Cox trasformation).

с.201
До сих пор достаточно спорным является вопрос, как строить мо-
дели:

1
с.203 Y= +е
в 0 + в 1X

с.205 ен :

c. 206
Годы 81 82 83 84 85 86 87 88 89 90
Y 65 68 72.5 77.5 82 85.5 88.5 91 95 100
X 110 125 132 137 160 177 192 215 235 240
Годы 91 92 93 94 95 96 97
Y 106.5 112 115.5 118.5 120 120.5 121
X 245 250 275 285 295 320 344


с.208
Используя эти данные, оцените производственную функцию Кобба–Дугласа
б в

<< Предыдущая

стр. 63
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>