<< Предыдущая

стр. 6
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>

значимости) ? попадания рассматриваемой величины в “правый
хвост” распределения ?2 (рис. 1.12, а). Критическая точка ч 2б, н оты-
скивается на пересечении столбца с заданной вероятностью ? и стро-
ки, соответствующей числу степеней свободы ?. Например, ч 0.25; 10 =
2


2
20.48. Другими словами, P( ч10 > 20.48) = 0.025. Отметим, что часто
таблицы ?2-распределения приводятся для двусторонних критических
точек ч 2 ? и ч 2? . В этом случае предполагается, что вероятности
1? ,н ,н
2 2
попадания рассматриваемой СВ ?2 в оба “хвоста” распределения оди-
б
наковы и равны половине уровня значимости ?, т. е. (рис. 1.12, б).
2
f(?2,?) f(?2,?)




б б
?
2 2


?2 ?2
ч 2б, н ч 2?
0 0 ч2 ?

1? ,н
2
а 2
б
Рис. 1.12
32
1.5.4. Работа с таблицами F-распределения Фишера
Таблицы критических точек распределения Фишера обычно при-
водятся для различных значений вероятности (уровня значимости) ?
попадания в “хвост” распределения (в приложении 4 ? = 0.10; ? =
= 0.05; ? = 0.01). Например, для ? = 0.05 таблица имеет вид:
Таблица 1.4
?
?1 1 … 10 … 100 …
?2

161 … 242 … 253 … 254
1
… … … … … … … …
4.96 … 2.98 … 2.59 … 2.54
10
… … …… …… … …
3.94 … 1.92 … 1.39 … 1.28
100
… … … … …… … …
? 3.84 … 1.83 … 1.24 … 1.00


На пересечении столбца и строки, соответствующих требуемым
числам степеней свободы ?1 = m и ?2 = n, находится критическая точ-
ка F?,m,n. Например, F0.05; 10; 10 = 2.98 (P(F10,10 > 2.98) = 0.05).
f(F,m,n)




?


0 F?,m,n F
Рис. 1.13


1.6. Взаимосвязь случайных величин
Многие экономические показатели определяются несколькими
числами, являясь, по сути, многомерными СВ. Например, издержки
предприятия включают в себя фиксированную и переменную состав-
ляющие; уровень жизни населения подразумевает использование
большого числа показателей ВНП на душу населения, распределение
доходов, наличие товаров и услуг, продолжительность жизни и т. д.


33
Значения ряда экономических показателей предопределяют вели-
чины других показателей. Поэтому одной из центральных задач эко-
номического анализа является задача установления наличия и силы
взаимосвязи между различными экономическими показателями (фак-
тически, между СВ). Например, между доходом и потреблением; ме-
жду спросом на товар и его ценой; между уровнем инфляции и уров-
нем безработицы; ВНП и уровнем жизни. Вследствие этого при про-
ведении эконометрического анализа одно из главных мест занимает
рассмотрение взаимосвязей СВ, при которых реализация одной из них
влияет на вероятность определенной реализации другой СВ.
Для описания совокупности n CB X1,X2, ... ,Xn (n-мерной СВ Х =
= (X1,X2, ... ,Xn)) вводятся следующие понятия:
совместная вероятность
PX1 ... X n (x1 , ..., x n ) = P(X1 = x1 , ..., X n = x n ); (1.20)
совместная функция распределения
F(x1 , ..., x n ) = P(X1 < x1 , ..., X n < x n ); (1.21)
совместная плотность вероятностей
? n F(x1 ,..., x n )
f(x1 ,..., x n ) = . (1.22)
?x1 ? ? ? ?x n
В частности, для установления зависимостей между двумя СВ
рассматривают двумерные вероятности, функции распределения и
плотности вероятностей:
? 2 F(x1 , x 2 )
P(X1 = x1, X2 = x2); F(x1,x2)=P(X1 < x1, X2 < x2); f(x1 , x 2 ) = .
?x1?x 2
Если при рассмотрении описанных выше функций интересуются
их значениями при фиксированных величинах одной или нескольких
СВ, то эти функции обычно усредняются (суммируются или интегри-
руются) по лишним переменным. В результате получаются так назы-
ваемые маргинальные (предельные) вероятности, функции распреде-
ления и плотности вероятности. Например:

P1 (X1 = x1 ) = ? ? ? ?? PX1X 2 ...X n (x1 ,..., x n ) ; (1.23)
x2 xn
x1 +? +?

? ? ? ? ? ? f X ...X
F1 (x1 ) = F(x1 , ?, ..., ?) = (t, x 2 ,..., x n )dtdx 2 ? ? ? dx n ; (1.24)
1 n
-? ? ? ??


34
+? +?

? ? ? ? ? f X ...X
f1 (x1 ) = (x1 , x 2 ,..., x n )dx 2 ? ? ? dx n . (1.25)
1 n
?? ??

Эти условия обычно называют условиями согласованности.
Для n-мерных СВ могут быть определены условные вероятности.
Например, вероятность того, что значения СВ Х1, … , Хn?1 будут рав-
ны соответственно х1, … , хn?1 при условии, что Хn = хn определяется
по формуле:
P(X1 = x1 ,..., X n = x n )
P(X1 = x1 ,..., X n ?1 = x n ?1 X n = x n ) = . (1.26)
P( X n = x n )

В частности, для двух СВ Х и Y условной вероятностью (услов-
ной плотностью вероятностей) СВ Х при условии, что СВ Y примет
значение y (Y = y), называется величина, равная
P(x, y) f(x, y)
P(x y) = ( f( x y) =
; ). (1.27)
P(y) f(y)
По данной формуле можно определить совместную вероятность
(совместную плотность вероятности) этих СВ:
P(x, y) = P(X = x, Y = y) = P(x y) ? P(y) = P(y x) ? P(x) (1.28)
( f(x, y) = f( x y) ? f(y) = f( y x) ? f(x) ) .
Как мы отмечали ранее, одной из важных задач экономического
анализа является обоснование того, что какой-либо фактор влияет ли-
бо не влияет на исследуемый экономический показатель. На уровне
теоретического анализа эти показатели можно рассматривать как СВ.
Для независимых СВ X и Y выполняется любое из следующих соот-
ношений:
P(x,y) = P(x) ? P(y); f(x,y) = f(x) ? f(y); F(x,y) = F(x) ? F(y). (1.29)
Совместная вероятность, совместная функция распределения, со-
вместная плотность вероятности не дают ясного представления о по-
ведении каждой из компонент рассматриваемой СВ и их взаимосвязи
друг с другом. В этом случае могут быть построены законы распреде-
лений каждой из составляющих многомерной СВ. При этом каждая из
них принимает те же значения, но с соответствующими маргинальны-
ми вероятностями либо маргинальными функциями распределения,
рассчитываемыми по формулам (1.23), (1.24). Например, двумерная
дискретная СВ (X, Y) может быть задана в табличной форме:

35
Таблица 1.5
Y y1 y2 … yj … yn P(X = xi)
X

x1 p11 p12 … p1j … p1n P(X = x1)
x2 p21 p22 … p2j … p2n P(X = x2)
… … … … … … … …
xi pi1 pi2 … pij … pin P(X = xi)
… … … … … … … …
xm pm1 pm2 … pmj … pmn P(X = xm)

P(Y = yj) P(Y = y1) P(Y = y2) … P(Y = yj) … P(Y = yn)

Здесь pij = P(X = xi, Y = yj).
n m
Тогда P(X = xi) = ? pij , i = 1, 2, …, m; P(Y = yj) = ? pij , j = 1, 2, …, n.
j =1 i =1
Часто построение закона распределения многомерной СВ являет-
ся задачей достаточно громоздкой и в ряде случаев излишней. Кроме
того, информация о каждой из составляющих СВ и о их взаимосвязи в
этом случае не является очевидной. Для анализа степени взаимосвязи
СВ обычно используют числовые характеристики: смешанные мо-
менты распределения, ковариацию и коэффициент корреляции.
Смешанным моментом порядка k, l называется величина
? ? ? x k ? y l ? P(x, y) ? для дискретных СВ;
? xy
k l
m k,l = M(X ? Y ) = ?+ ? + ? (1.30)
? ? ? x ? y ? f(x, y)dxdy ? для непрерывных СВ.
k l

?? ? ? ?

Например, M(X) = m1,0, M(Y) = m0,1.
Центральным моментом порядка k, l называется величина

µk,l = M((X ? M(X)) k ? (Y ? M(Y))l ). (1.31)

Например, D(X) = µ2,0; D(Y) = µ0,2.
Для описания связи между СВ X и Y применяют центральный
момент порядка 1,1 (µ1,1), который называется ковариацией СВ Х и Y:

?xy = COV (X, Y) = M((X ? M(X)) ? (Y ? M(Y)) =
= M(X ? Y) ? M(X) ? M(Y). (1.32)
36
Ковариация является абсолютной (зависящей от размерностей)
мерой взаимосвязи (совместного изменения (co-vary)) переменных.

? ? ? x i ? y j ? P(x i , y j ) ? M(X) ? M(Y) ? для дискретных СВ,
? xy
= ?+ ? + ?
у xy (1.33)
? ? ? x ? y ? f(x, y)dxd ? M(X) ? M(Y) ? для непрерывных СВ.
?? ? ? ?

Свойства ковариации
1. ?хy = ?yx;
2. ?xx = D(X) = у 2 ;
x
3. Если Х и Y ? независимые СВ, то ?xy = 0;
4. ??xy ?? ?x?? y ;
5. COV (a + b?X, c + d?Y) = b?d?COV (X, Y), где a, b, c, d ?
константы.
В принципе ковариация может служить индикатором наличия
положительной (переменные изменяются в одном направлении) либо
отрицательной (переменные изменяются в разных направлениях) свя-
зи между СВ ? ковариация в этом случае положительна либо отрица-
тельна. Однако существенным недостатком ковариации является ее
зависимость от размерностей рассматриваемых СВ. Поэтому при раз-
личных единицах измерения СВ одна и та же зависимость может вы-
ражаться различными значениями ковариаций. Кроме того, ковариа-
ция не позволяет определить силы (строгости) зависимости между
рассматриваемыми СВ. Для устранения данных недостатков вводится
относительная мера взаимосвязи (безразмерная величина) ? коэффи-
циент корреляции.
Коэффициентом корреляции СВ Х и Y называют величину
у xy у xy
с xy = = . (1.34)
уx ?уy D(X) ? D(Y)

Зависимость между СВ Х и Y, характеризуемая коэффициентом
корреляции, называется корреляцией. СВ Х и Y называются некор-
релированными, если ?xy = 0, что равносильно равенству ?xy = 0. Если
же ?xy ? 0, то СВ X и Y называют коррелированными.



37
Свойства коэффициента корреляции
1. ?xx = 1;
2. ?xy = ?yx;
3. –1 ? ?xy ? 1;
4. Если СВ Х и Y независимы, то ?xy = 0;
5. ??xy? = 1 тогда и только тогда, когда Y = a + b?x (т.е. между СВ
Х и Y существует линейная функциональная зависимость).
Заметим, что если Х и Y ? независимые СВ, то Х и Y ? некорре-
лированные СВ. Обратное утверждение неверно. Достоинства коэф-

<< Предыдущая

стр. 6
(из 65 стр.)

ОГЛАВЛЕНИЕ

Следующая >>