<< Предыдущая

стр. 159
(из 163 стр.)

ОГЛАВЛЕНИЕ

Следующая >>

P{Bj | A} = m = P{A}
¤k= 1P{Bk }P{A | Bk}
В этой формуле P{Bj} — вероятность события Bj, P{Bj | A} — вероятность события Bj
при условии, что произошло событие A, P{A} — вероятность события A, P{A | Bj} —
682
683
вероятность события A при условии, что произошло событие Bj. В знаменателе первой
дроби стоит формула полной вероятности для P{A}. Чтобы можно было применить пра-
вило Байеса, нужно чтобы знаменатель не был равен нулю (P{A} ? 0).
В применении к рассматриваемой проблеме можно считать, что событие Bj означает, что
процесс игры привел в определенную вершину, а событие — A, что процесс игры привел
в данное информационное множество. Если брать только такие вершины, которые содер-
жатся в рассматриваемом информационном множестве, то P{A | Bj} = 1 и формула упро-
щается:
P{Bj }
P{Bj | A} = P{A} ,

где P{A} = ¤m 1P{Bk }.
k=

Поясним сказанное на примере игры, изображенной на Рис. 175. Если 3-й игрок считает,
что 1-й игрок выбирает левую сторону с вероятностью 0.4, и что 2-й игрок выбирает ле-
вую и правую сторону с равными вероятностями, то он должен считать, что вершина C
будет достигаться в процессе игры с вероятностью 0.4 ? 0.5 = 0.2, а вершина E — с вероят-
ностью 0.6. Таким образом, он должен сопоставить вершине C вероятность
0.2/(0.2 + 0.6) = 0.25,
а вершине E — вероятность
0.6/(0.2 + 0.6) = 0.75.
1-й 1-й
а) б)
[0] [1]
[0] [1]
[0]
2-й
[0.1] [0.9] 2-й
3-й




?enoiie 176
Это только одно из требований. Даже если при наборе страте-
e
гий (si, s–i) процесс игры никогда не может привести в некото- 1-й
[0.4] B
рое информационное множество, ожидания игрока в данном [0.6]
2-й
информационном множестве должны соответствовать (si, s–i). [0.5] D [0.5]
e

Так в игре изображенной на Рис. 176 (а), при указанных ожи- C 3-й E
даниях относительно стратегий 1-го и 2-го игроков 3-й игрок
должен ожидать, что может оказаться в левой вершине с веро-
ятностью 0.1, а в правой вершине с вероятностью 0.9, хотя ве- ?enoiie 175
роятность достижения информационного множества равна
нулю. Ограничимся только этими пояснениями и не станем
давать более точного определения. Заметим, что не всегда можно по данному набору
стратегий сформировать ожидания. Например, в игре изображенной на Рис. 176 (б), при
указанных ожиданиях о стратегии 1-го игрока 2-й игрок не может сформировать ожида-
ний в своем информационном множестве. Второй игрок может получить ход только в ре-
зультате ошибки первого игрока и трудно судить, какая из ошибок более вероятна. В та-




683
684
ких случаях мы будем только требовать, чтобы у игрока были некоторые ожидания, и он
выбирал стратегию на основе этих ожиданий.261
Отличительной особенностью совершенного байесовского равновесия является то, что
для его поиска в общем случае невозможно использовать обратную индукцию, кроме слу-
чая игр с почти совершенной информацией. Если в игре нет подыгр, то совершенное байе-
совское равновесие приходится находить как решение системы уравнений: ожидаемые
распределения на вершинах информационных множеств находятся в соответствии с рав-
новесным набором стратегий, а равновесная стратегия выбирается каждым игроком на
основе предположений об ожидаемых распределениях на вершинах информационных
множеств.
Для иллюстрации использования совершенного байесовского равновесия рассмотрим мо-
дификацию Игры 13 (стр. 680) с двумя типами террористов, в которой террорист предва-
рительно решает, хочет ли он проводить операцию. Если он не станет осуществлять заду-
манную акцию, то вне зависимости от типа выигрыш террориста составит 0, и выигрыш
пилота составит 0. Дерево игры показано на Рис. 177. Как и прежде, первый элемент век-
тора — выигрыш пилота. Поскольку выбор террориста в Нью-Йорке можно предсказать
однозначно, то будем рассматривать «частично свернутую» игру. Совершенное байесов-
ское равновесие должно состоять из следующих величин:
1) вероятность, с которой сумасшедший террорист проводит операцию, µ1 ? [0, 1];
2) вероятность, с которой нормальный террорист проводит операцию, µ2 ? [0, 1];
3) вероятность, с которой пилот ожидает встретить сумасшедшего террориста, ? ? [0, 1];
4) вероятность, с которой пилот летит в Нью-Йорк, µ3 ? [0, 1].
Природа

нормальный
сумасшедший
[?] [1–?]


[µ1 ] [µ2 ]
?0? ?0?
?0? ?0?
[?] [1–?]
Пилот

Нью-Йорк Куба Нью-Йорк
Куба
[µ3 ] [µ3 ]
? –1 ? ? –100 ? ?1?
? –1 ?
?1? ?0? ? –1 ?
?1?

?enoiie 177.
Этого достаточно для описания равновесия. Все остальные вероятности очевидным обра-
зом рассчитываются как функции указанных.
Рассмотрим сначала поведение пилота при ожиданиях, заданных параметром ?. Ожидае-
мые выигрыши пилота от двух возможных действий равны:




261
Для таких случаев в теории игр к настоящему времени разработано насколько различных концепций
решений. Однако все они являются в той или иной степени спорными. Интересующийся читатель, владею-
щий английским языком, может обратиться к соответствующей литературе.

684
685
Куба: –1
??(–100) + (1 –
Нью-
Йорк: ?)?1
Таким образом, если –1 < ??(–100) + (1 – ?)?1, т.е. ? < 2/101, то пилот предпочтет полететь
в Нью-Йорк (µ3 = 1), если ? > 2/101, то на Кубу (µ3 = 0), а в случае, когда ? = 2/101, ему все
равно, куда лететь (µ3 любое). Т.е. зависимость стратегии от ожидания имеет вид:
если ? < 2/101,
? 1,
?
µ3(?) = ? [0, 1], если ? = 2/101,
? 0, если ? > 2/101.
?
Далее рассмотрим, какими должны быть ожидания пилота, ?, в зависимости от вероятно-
стей µ1 и µ2. Если µ1 ? 0 или µ2 ? 0, то можно использовать формулу Байеса. В рассматри-
ваемой игре можно считать, что события следующие: B1 — террорист сумасшедший, B2
— террорист нормальный, A — в процессе игры пилот получил ход и должен выбирать,
куда ему лететь. (Проверьте, что эти события удовлетворяют требованиям, необходимым
для использования правила Байеса). При этом, используя введенные обозначения,
P{B1 } = ?, P{B2 } = 1 – ?, P{B1 | A} = ?,
P{A | B1} = µ1, P{A | B2} = µ2.
Получаем по формуле Байеса, что
? µ1
?(µ1, µ2) = .
? µ1 + (1 – ?) µ2
при µ1 ? 0 или µ2 ? 0. Если µ1 = 0 и µ2 = 0, то, согласно принятому нами определению байе-
совского равновесия, ожидания пилота ? могут быть любыми: ?(µ1, µ2) = [0, 1].
Рассмотрим теперь выбор каждого из типов террориста. Если террорист сумасшедший, то
его ожидаемый выигрыш от задуманной акции при стратегии пилота, заданной вероятно-
стью µ3, равен
(1 – µ3)?1 + µ3?0 = 1 – µ3.
Он сравнивает этот выигрыш с 0. Таким образом,
если µ3 < 1,
?
? 1,
µ1(µ3) = ?
? [0, 1], если µ3 = 1.
?

Если террорист нормальный, то его ожидаемый выигрыш от задуманной акции равен 1 –
2µ3. Он тоже сравнивает этот выигрыш с 0, т.е.
если µ3 < 1/2,
? 1,
?
µ2(µ3) = ? [0, 1], если µ3 = 1/2,
? 0, если µ3 > 1/2.
?
Набор вероятностей (µ?, µ?, µ?, ??), задает совершенное байесовское равновесие, если вы-
1 2 3
полнены четыре условия:
µ? ? µ3(??), ?? ? ?(µ?, µ?),
3 1 2

µ? ? µ1(µ?), µ? ? µ2(µ?).
1 3 2 3

Для того, чтобы найти решения этой системы, следует разобрать несколько случаев. По-
видимому, проще всего проанализировать по отдельности следующие три возможности:

685
686
(1) нормальный террорист не проводит операцию (µ2 = 0);
(2) нормальный террорист проводит операцию (µ2 = 1);
(3) у нормального террориста невырожденная смешанная стратегия (µ2 ? (0, 1)).
(1) Рассмотрим случай, когда µ2 = 0. Предположим, что при этом µ1 ? 0. Тогда пилот навер-
няка будет знать, что он может иметь дело только с сумасшедшим террористом (? = 1).
Зная это, пилот выберет Кубу (µ3 = 0). Но в таком случае нормальному террористу тоже
выгодно проводить операцию. Мы пришли к противоречию. Значит, единственная воз-
можность состоит в том, что сумасшедший террорист не проводит операцию (µ1 = 0). Но
такое может быть только если он знает, что пилот полетит в Нью-Йорк (µ3 = 1). Однако,
такое поведение пилота возможно только в том случае, если вероятность того, что он име-
ет дело с сумасшедшим террористом мала (? < 2/101).
Мы нашли в рассматриваемой игре одно из равновесий (точнее, множество равновесий
определенного вида):
µ? = 1, ?? ? [0, 2/101],
3

µ? = 0, µ? = 0.
1 2

Это равновесие поддерживается уверенностью пилота, что вероятность встречи с сума-
сшедшим террористом мала. Заметим, что эти ожидания ни на чем не основаны, ведь в
рассматриваемом равновесии пилот не может сформировать свои ожидания на основе
правила Байеса.
(2) Рассмотрим теперь случай, когда µ2 = 1. Такое поведение нормального террориста воз-
можно только, если пилот с достаточно большой вероятностью полетит на Кубу, а имен-
но, если µ3 < 1/2. При такой стратегии пилота сумасшедшему террористу выгодно прово-
дить операцию (µ1 = 1). Но если оба террориста проводят операцию, то для пилота вероят-
ность встретить сумасшедшего террориста совпадает с вероятностью, с которой такие
террористы встречаются вообще, т.е. ? = ?. Пилот может выбрать µ3 < 1/2 только если ? >
2/101. Таким образом, равновесие может достигаться только при ? > 2/101. При ? > 2/101,
имеем µ3 = 0. Таким образом, если сумасшедшие террористы встречаются на свете доста-
точно часто, т.е. если ? > 2/101, то в рассматриваемой игре может иметь место следующее
равновесие:
µ? = 0, ?? = ?,
3

µ? = 1, µ? = 1.
1 2

В вырожденном случае, когда ? = 2/101, получаем, следующее множество равновесий:
µ? = 1, µ? = 1,
1 2

µ? ? [0, 1/2], ?? = ? = 2/101.
3

(3) И, наконец, рассмотрим случай, когда нормальный террорист использует невырожден-
ную смешанную стратегию (µ2 ? (0, 1)). Условием использования такой стратегии являет-
ся то, что обе альтернативы дают ему одинаковую полезность, то есть то, что пилот летит
в Нью-Йорк с вероятностью 1/2 (µ3 = 1/2). Такая стратегия пилота может поддерживаться
только ожиданиями ? = 2/101. Учитывая, что сумасшедшему террористу выгодно участво-
вать в акции (µ1 = 1), из формулы Байеса получим следующее уравнение:
2 ?
?= = .
101 ? + (1 – ?) µ2

686
687
Значит, пилот может сформировать такие ожидания только если
99?
µ2 = .
2 (1 – ?)
Поскольку вероятность µ2 должна быть меньше единицы, то вероятность, с которой при-
рода порождает сумасшедших террористов должна быть достаточно мала: ? < 2/101.
Таким образом, при ? < 2/101 следующая точка является равновесием:
1 2
µ? = , ?? = ,
2 101
3


99?
µ? = 1, µ? = .
2 (1 – ?)
1 2


Поскольку проанализированы все три возможных случая, то мы нашли все возможные
равновесия игры.

Задачи


<< Предыдущая

стр. 159
(из 163 стр.)

ОГЛАВЛЕНИЕ

Следующая >>