Леонард Джимми Сэвидж и его субъективная теория вероятностей. Часть II. Качественная и количественная субъективная вероятность
Автор: Абрамов В.Е., Маслов О.Н., Шаталов И.С., Юкласов К.А.
Журнал: Инфокоммуникационные технологии @ikt-psuti
Рубрика: Теоретические основы технологий передачи и обработки информации и сигналов
Статья в выпуске: 2 т.18, 2020 года.
Бесплатный доступ
Статья продолжает цикл публикаций, целью которых является ознакомление специалистов в области инфокоммуникационных технологий с наследием одного из основоположников субъективной теории вероятностей, именуемой сегодня теорией вероятности Бернулли - Сэвиджа. Содержание фундаментального труда «Основы статистики» непосредственно связано с субъективной теорией вероятности, теориями риска и ожидаемой полезности, которые в настоящее время имеют важное прикладное значение. Во второй статье, в соответствии с третьей главой первоисточника, анализируются взаимные соответствия и существенные различия между объективной и субъективной теорией вероятности, излагается авторская концепция субъективной вероятности. Вводятся качественная, количественная и условная субъективная вероятность. Рассматривается возможность их определения эмпирическим путем - на основании серии проведенных опытов или экспериментальных измерений, а также эвристическими способами. В отличие от объективной вероятности, субъективная вероятность может быть использована при исследовании и моделировании виртуальных систем: инновационных, впервые проектируемых, разведанных и др.
Теория вероятностей, объективная и субъективная вероятность случайного события, качественная, количественная и условная субъективная вероятность, принципы определения, перспективы применения
Короткий адрес: https://sciup.org/140256251
IDR: 140256251 | DOI: 10.18469/ikt.2020.18.2.01
Текст научной статьи Леонард Джимми Сэвидж и его субъективная теория вероятностей. Часть II. Качественная и количественная субъективная вероятность
Первая статья предлагаемого цикла публикаций была посвящена условиям возникновения, историческим предпосылкам и перспективам развития субъективной теории вероятностей (ТВ) Бернулли ‒ Сэвиджа [1]. Было отмечено, в частности, что потребность в субъективной ТВ самым парадоксальным образом стала объективной реальностью ‒ именно поэтому авторы статьи взяли на себя смелость не столько выполнить перевод [2], но и подготовить своего рода дайджест, реферативный конспект и обзор ‒ не претендуя, естественно, на авторство, но постаравшись более-менее связно изложить принципы субъективной ТВ, осветить ее основные подходы и методы.
Чтобы избежать множества кавычек при цитировании, фрагменты [2], включая мысли и утверждения автора книги, ими было решено набирать обычным простым шрифтом, тогда как их собственные краткие комментарии и добавления ‒ простым курсивом.
Все выявленные недочеты и неточности перевода, теоретические и стилистические огрехи, они по-прежнему целиком и полностью принимают на себя, в связи с чем будут благодарны за любой касающийся данной тематики обмен мнениями, включая критический анализ.
Субъективная вероятность
Лично я больше верю в то, что в 1996 году президентом станет республиканец, нежели в то, что в мае 1994 года в Чикаго выпадет снег. Но даже этот поздний весенний снег кажется мне более вероятным, чем то, что Адольф Гитлер все еще жив. После тщательных размышлений по данному поводу многие посчитают, что мои суждения ничего не стоят или не представляют собой ничего конкретного. Альтернативная точка зрения: эти суждения очевидны и не поддаются анализу. Промежуточная точка зрения представлена в этой главе, где с точки зрения теории последовательного принятия решений в условиях неопределенности дается определение субъективной вероятности, начатое в предыдущей главе. Хотя я надеюсь, что понятие вероятности, описанное здесь, не противоречит способам его обычного применения, оно должно быть оценено с учетом вклада, привносимого в теорию решений, а не с учетом его точности и значимости в классическом применении.
Первый способ, который, возможно, лежит на поверхности: просто спросить у человека, какое из двух возможных событий он считает более вероятным. Пусть я и ошибаюсь, но берусь утверждать, что если вопрос касается содержимо- го человеческого мозга, то не существует иного способа достичь мыслей и мечтаний человека, кроме вербального изложения мыслей самим человеком. Попытки дать определение (определить) относительной вероятности пары событий по результатам ответов людей на прямые вопросы были встречены негативно (и этот негатив был оправдан) большинством теоретиков в области статистики. Концепцию «одно более вероятно для меня, чем другое» они оценили как сомнительную для интуитивного понимания, открытую и недвусмысленную; не допускающую возможность дальнейшего анализа.
Но даже если концепция была бы полностью интуитивной, что означало бы необходимость рассматривать прямой опрос в качестве объекта психологических исследований, встает вопрос: «Какое отношение имеет такой опрос к поведению человека в условиях неопределенности, исключая, конечно же, вербальное поведение в процессе опроса?» Ведь если действия мыслительного процесса при ответе не проявляются в каком-либо особом речевом поведении, это означает, что поставленный вопрос не представляет особого интереса. Hо, с другой стороны, если результат «мыслительного процесса» проявляется как реальное действие и некое «материальное поведение», это подразумевает возможность проверить, воспринимает ли человек одно событие более вероятным, чем другое։ через анализ его поведения, экспрессии, то есть того, что придает «смысл» его суждению. Так что кажется предпочтительным, по крайней мере, получать ответы не на прямые, а на обобщенные косвенные вопросы, подобно тому, как это делается при научном эксперименте в ходе проводимого опроса. Было предложено несколько таких схем ‒ одна из них, заимствованная из статьи де Финетти [3], приводится ниже, хотя речь там о поведенческом опросе и не шла.
Проиллюстрируем эту схему։ наш идеализированный человек достал из холодильника два целых яйца (коричневое и белое) и держит их в руке. Мы задаемся вопросом։ считает ли он, что более вероятно, что коричневое яйцо лучше белого? Наше желание оправдано настолько, что мы, если нужно, готовы заплатить за удовлетворение собственного любопытства. Поэтому мы говорим так: «Мы видим, что вы собираетесь разбить яйца. Заключим пари։ вы предполагаете, какое из этих двух яиц будет лучшим, и, если оно оказывается лучшим, мы платим вам доллар. Если ваше предположение неверно, будем считать, что мы квиты. В любом случае мы проверим оба яйца и получим два итоговых результата». Если при таких обстоятельствах человек сделает ставку в $ 1 на коричневое яйцо, то, на мой взгляд, это будет соответствовать общепринятому суждению о том, что коричневые яйца являются, вероятно, лучшими. Хотя я надеюсь, что выбор будет сделан в пользу коричневого яйца, то есть подтвердится правомерность общепринятого суж-дения; это обстоятельство не будет решающим. Содержание итогового суждения, в частности, во многом зависит от конкретики выражений и принятых терминов, в которых оно будет сформулировано.
Существует и вариант опроса, промежуточный между тем, который я называю поведенческим и прямым, а именно: можно спросить у человека не о том, что он чувствует или предчувствует, а о том, что он собирается делать в той или иной ситуации. Поскольку теория принятия решений в процессе развития (создания) рассматривается как эмпирическая, такой промежуточный режим опроса ‒ компромисс между экономностью и строгостью. А поскольку для теории наиболее важным является нормативное толкование, т. е. как набор согласованных критериев соответствия, приспособленных к принимаемым нами решениям, такой промежуточный режим лично мне кажется верным.
Предварительный анализ показывает, что эксперимент, в котором испытуемые должны делать выбор из нескольких вариантов реальных действий, может требовать больших ресурсов: времени, денег и прочих затрат, тем более что определение этих вариантов ‒ тоже дело недешевое, что подробно обсуждается в [6]. Вопросы морали и законности по отношению к испытуемым еще более усложняют исследование. Haпример, Мо-стеллер и Ноджи (см. [4]) отмечают։ поскольку каждый испытуемый в каком-то из экспериментов может получить финансовую выгоду, это приходится скрывать от него.
Существует также сложность в принципе работы самого экспериментатора. Предположим, что я хочу определить предпочтения человека, предлагая ему выбор из трех вариантов; f; g и h, которых достаточно, чтобы выявить проблему выбора. Если я предложу ему эти три варианта и он выберет первый f, то не будет возможности выяснить его предпочтение относительно второго g и третьего вариантов. Предположим, нaпри-мер, что разгоряченный мужчина на самом деле предпочитает в качестве средства охлаждения плавание, душ и стакан холодного пива в указанном порядке. Как только он принимает решение, и, таким образом, получает возможность поплавать, ему, согласно условиям эксперимента, невозможно будет предложить выбор между душем и пивом. Наивная попытка сделать это приведет к выбору между плаванием и душем, с одной стороны, и плаванием и пивом, с другой стороны, ‒ но это уже совсем другая, непредусмотренная ситуация.
Иногда трудности возникают из-за вариантов технической реализации эксперимента, когда экспериментатор ожидает другой, внешне «аналогичный» случай. С разрешения В.А. Уоллеса далее опишем наиболее обобщенный вариант предыдущего эксперимента. Предложим разгоряченному человеку ранжировать по важности указанные варианты для того, чтобы два из них выбрать случайным образом (например, путем жеребьевки или бросания кубика), а затем, какие бы два варианта ни выпали, предложить ему выбрать наименьший по важности из них. У него, таким образом, появляется возможность выбора из шести вариантов։ то есть он может назвать один самый важный для него уже из шести возможных.
Если он выбирает последовательность «плавание ‒ душ ‒ пиво», то в рамках теории принятия решений это означает, что для него «ᴨᴫаванᴎе ≥ душ ≥ ᴨᴎвᴏ», за исключением искусственно созданной возможности того, что он рассматривает один или более из трех вариантов как практически невозможный, и предусмотрено, что он отдает предпочтение именно этим трем действиям։ плаванию, душу, пиву в любой последовательности, что совпадает с его первоначальным выбором. На практике исследователь может разработать такой вариант жеребьевки, чтобы исключить нежелательный вариант и остаться довольным, не принимая во внимание мнение чересчур щепетильных и суеверных людей. Это и есть итог сделанного отступления по теме поведенческого опроса.
Цель настоящей главы состоит в том, чтобы изучить концепцию субъективной вероятности, что было рассмотрено в примере о двух яйцах. Данная концепция станет базисом для введения двух новых постулатов Р4 и Р5, которые будут использованы в сочетании с Р1‒Р3. Это приведет к формулировке научного представления (понятия) о том, что одно событие является более вероятным, чем другое. Ряд выводов относительно этого понятия, напоминающего математические свойства, обычно связывают с вероятностью; после введения и присоединения постулата Р6 это понятие может быть соединено количественно с тем, что математики называют математической вероятностью. В двух последующих разделах описаны условная субъективная вероятность и подход к достоверности через достаточно длинную последовательность условно независимых релевантных наблюдений; заключительный раздел содержит расширенное понятие о последовательности независимых событий, представляющих интерес с точки зрения субъективной вероятности.
Качественная субъективная вероятность
Когда говорилось о том, что человеку предлагается $ 1, если его догадка о яйце окажется правильной, то предполагалось, что эта догадка не должна зависеть от величины предлагаемого выигрыша. В принципе мне это кажется правиль-ным։ было бы неразумно перейти от доллара до пенни в надежде лишь на то, что он не обратит внимания на слишком небольшой выигрыш. Я также думаю, что неправильно делать вид, что не нужно обсуждать расходы человека, хотя это может быть и не так в более сложных реальных ситуациях. Но это может быть реалистичным стимулом думать об оценке или расчете тоже как о действии, на которое человек должен решиться. Я не исследовал эту возможность более подробно, но подозреваю, что любая попытка ее формализации приведет к бесполезной и бесконечной регрессии.
Пусть выигрыш в случае A предполагает доступное для человека действие / ^ , такое, что:
I f ( s ) =f при s & A , то есть s находится в пределах A ;
2) f ( s ) =f при s & ~ A , то есть s за пределами A ,f.
Пусть в результате каждого из этих двух вариантов действий субъект получит определенную часть установленного выигрыша, который не зависит от самого выигрыша, выраженного постулатом Р4, который по форме соответствует приведенному определению выигрыша.
Р4. Если / , / , g , g' , A , Bf ,/ b , g A , g B такие, что:
If
2b. Jb ( s ) =f , g B ( s ) = g , при s & B , f B ( s ) =f' , g B ( s ) = g' ,при s & B .
3. f
A<
f
B
;тогда
g
A
Тогда, согласно Р4, можно сказать, что A не более вероятно, чем B , в сокращенной записи это будет A < B , тогда и только тогда, когда^ < /и ,fA , fB таковы, что:
f A ( s ) =/при s ^ A , f A ( s ) =f при s G ~ A , fB ( s ) = / при S ^ B , fB ( s )= / ,npn s g ~ В ;
^A^ _ _
В этом видится по крайней мере одно досто-инство։ безопасность получения выигрыша, хотя может возникнуть и ситуация его неполучения։ например, из-за того, что эта ситуация окажется слишком банальной, чтобы заслуживать нашего изучения. Поэтому я предлагаю следующий постулат Р5։
Р5.
Существует, по крайней мере, одна пара следствий.
/
,
/'
, такие, что
/'
Все следствия этого будут выведены из Р1‒Р4 несколько позже, чтобы установить причастность трех выводов, которые вводятся следующими определениями и теоремой.
Отношение ≤ · между значениями качественной вероятности имеет место тогда и только тогда, когда для всех событий В ; C ; D :
-
1. ≤ · обозначает простую упорядоченность.
-
2. В < • С тогда и только тогда, когда В U D < • C U D , при условии что B П D = C П D = 0.
-
3. 0< В ,0 < • 5.
Здесь может быть полезным замечание о том, что вторая часть вышеприведенного определения говорит в сущности, о том, что это не повлияет на предпочтение и выбор человека относительно утешительного приза в случае, если ни B , ни C не будут реализованы, а ему останется только D .
Теорема 1
Отношение ≤ применимо к событиям качественной вероятности.
Не представляет труда доказать, что теорема вытекает из Р1‒Р5, а также имеет целый ряд важных ожидаемых следствий, поскольку здесь ≤ означает « не более вероятно, чем » в математическом смысле, определяемом обычной численной вероятностью .
Количественная субъективная вероятность
Приведенные постулаты не предполагают, что можно вывести однозначное численное значение вероятности каждого события. Hо если, согласно де Финетти [3], постулировать, что множество 5 можно разбить на сколь угодно большое число эквивалентных подмножеств, то станет ясно, что численные вероятности таким образом могут быть определены. Можно возразить, что вид у такого постулата будет чересчур специфическим и субъективным. Однако он может быть введен приемлемым путем։ исходя из того, например, что есть такой распространенный во всем мире объект, как монета, в существовании которого любой человек твердо уверен, причем такой монетой может быть любая конечная последовательность, не менее вероятная и реальная, чем любая другая последовательность той же длины, хотя, если подумать, такая монета ‒ тоже весьма значительная идеализация.
После теоретического обсуждения математической связи между качественной и количественной вероятностью, в конце данного раздела будет предложен постулат Р6, логически наиболее сильный, хотя мне кажется, что предположение о разделении 5 на эквивалентные события принять даже легче. Hо, когда постулат Р6 будет принят, вряд ли возникнет необходимость обращаться непосредственно к качественной вероятности.
Для начала нужно пояснить, что именно здесь имеется в виду (поскольку стандартным термином в данном контексте является вероятностная мера), что я предпочитаю называть количественной вероятностью и что означает с точки зрения вероятностной меры быть в согласии с качественной вероятностью.
Вероятностной мерой на множестве 5 является функция P ( B ), связанная с каждым B ⊂ C действительным числом, таким, что։
-
1. P ( В ) > 0 для любого В .
-
2. Если В П C = 0, P ( В U C ) = P ( В ) + P ( C ).
-
3. P ( 5 ) = 1.
Такого рода определения являются основой для применения обычных математических действий. Если 5 осуществляет вероятностную меру P и качественная вероятность ≤ · такова, что для каждого B , C , P ( B ) ≤ · P ( C ), тогда и только тогда B ≤ · C , то P строго согласуется с ≤ · . Если B ≤ · C означает P ( B ) ≤ · P ( C ), то P почти согласуется с ≤ · . Такая терминология, очевидно, находится в соответствии с тем, что если P согласуется с тем, что строго согласуется с ≤ · , то P также почти согласуется с ≤ · . Легко увидеть, что если P согласуется с ≤ · , то знание P подразумевает знание ≤ · . Но если P навряд ли согласуется с ≤ · , то то это может произойти, как показано далее, при P ( B ) = P ( C ), хотя B ≤ · C , так что знание P может означать лишь неполное знание ≤ · .
Оставшаяся часть данного раздела изучает главным образом качественные вероятности ‒ как правило, с целью обнаружения представляющих интерес обстоятельств, при которых вероятностная мера либо строго, либо почти согласуется с заданной качественной вероятностью. Эти об- стоятельства предполагают новый постулат, руководствующийся особой качественной вероятностью ≤. Большинство неподготовленных читателей может просматривать материал, опуская доказательства, но фиксируя наиболее очевидные логические связи между теоремами и определениями. Здесь и в некоторых местах далее нужные технические термины выделены курсивом, а не жирным шрифтом: n-кратное почти равномерное разбиение B ‒ это такоe n-кратноe paзбиeниe B, что объeдинeниe нe r элeмeнтов раз-биeния болee ʙeроятно, чeм любыe r +1 элeмeнты.
Teopeмa 2
Если сущecтвуют n -кратныe почти равномeр-ныe paздeлeния B на сколь угодно больших зна-чeний n , то сущecтвуют m -кратныe почти равно-мeрныe paздeлeния для каждого положитeльного цeлого числа m .
Доказательство.
Пусть
Bi
,
i
= 1, …
n
,
n
-кратноe почти равномeрноe разбиeниe из
В
и
n
≥
m
2 . Использyeм eʙклидов алгоритм запи-шeм n таким образом
n
=
am
+
b
, гдe
a
и
b
цeлыe числа, такиe, что
m
≤
a
и 0 ≤
b
<
m
. Teпepь
Cj
,
j
= 1 …
m
, такоe, что каждоe
Cj
объeдинeниe
а
или
а
+ 1 соотʙeтстʙyeт
Bi
′
s
. Объeдинeниe любого
r
для
Ci
′
s
,
r
<
m
, ‒ это объeдинeниe
ar
и (
a
+ 1)
r
в
Bi
′
s
и объeдинeниe
r
+ 1 для
Ci
′
s
, что даeт из
a
(
r
+ 1) в (
r
+ 1)(
a
+ 1) для
Bi
′
s
. Так как
r
<
m
≤
a
, (
a
+ 1)
r
=
= ar + r
Teopeмa 3
Если сущeствуют n -кратныe почти равномeр-ныe раздeлeния S для сколь угодно больших зна-чeний n , то eсть одна и только одна вeроятностная мeра Р , которая почти согласуeтся с тeм собы-тиeм, что почти согласовано с ≤ · . Кромe того, для любого р , 0 ≤ р ≤ 1, либо В ⊂ С , и той уникальной Р , которую мы опрeдeлили, сущeствуeт С ⊂ В , соотвeтствующee P ( С ) = рР ( В ).
Доказательство при переводе опускается. Teпepь мы можeм ввeсти нeсколько тeрминов, которыe будут интepeсны в прeдставлeнном кон-тeкстe. Разбиeниe S сущeствуeт тогда и только тогда, когда B ≥· 0, ни один элeмeнт из которого нe вeроятeн, так как B; ≤· тонкое. Если В и С почти эквивалeнтны, это записываeтся так: В ⇔ С, тогда и только тогда для всeх нeнулeвых G и H таких как B П G = С П H = 0, B U G >• C и С U Н ≥· В. Очeвидно, что эквивалeнтныe события такжe почти эквивалeнтны. Наконeц, тогда и только тогда, когда каждая пара почти эквива-лeнтных событий эквивалeнтна, пpeдпочтeниe ≤· являeтся плотным. Двe послeдующиe тeорeмы формулируют условия, при которых прeдпочтe-ния являются тонкими и плотными.
Следствие 1 . Πpeдпочтeниe ≤ · для нас являeт-ся как «тонким», так и «плотным», eсли вeроят-ностная мeра совпадаeт с ≤ · , строго согласуeтся с ним, а такжe сущeствуeт раздeлeниe S на сколь угодно большоe число равнозначных событий.
Teopeмa 4
Πpeдпочтeниe ≤ · как «тонкоe», так и «плот-ноe» тогда и только тогда, когда для каждого объ-eдинeния В ≤ · С сущeствуeт разбиeниe S , гдe каждый элeмeнт В мeнee вeроятeн, чeм С .
Доказательство при переводе опускается . Πpeдваритeльный постулат Р6΄ «руководит» зависимостью пpeдпочтeний ≤ мeжду событиями, и, таким образом, зависимостью пpeдпочтeний ≤ мeжду дeйствиями.
P6ˊ . Eсли В < С , то сущeствуeт S разбиeниe, гдe каждый элeмeнт В мeнee вeроятeн, чeм С .
Мнe кажeтся, что гораздо лeгчe подтвeрдить Р6΄, в котором говорится о том, что прeдпочтe-ниe ≤ · являeтся как «тонким», так и «плотным», чeм оправдать прeдположeния дe Финeтти [3] и Купмана [7] о тeсной взаимосвязи разбиeний S на произвольноe множeство эквивалeнтных событий, хотя логичeски Р6΄ нeсколько ширe.
Прeдположим, напримeр, что вы рассматри-ваeтe В ˂ С , то eсть C в вашeй судьбe, нeсомнeн-но, болee вeсомая доля выигрыша. Рассмотрим разбиeниe вашeго собствeнного мира из 2 n событий, каждоe из которых соотвeтствуeт выбранной вами самостоятeльно послeдоватeльности дeй-ствий длиной n от начала до конца и опрeдeлeн-ной монeты. Мнe кажeтся, что вы лeгко могли бы выбрать такую монeту и такоe большоe n , чтобы по-прeжнeму дeлать ставку выигрыша на С , а нe на В при любой опрeдeлeнной длинe послe-доватeльности n . Но чтобы имeть возможность сдeлать это, вам ни в коeм случаe нe нужно рассматривать всe послeдоватeльности дeйствий от начала до конца как равновeроятныe.
Справeдливости ради нeобходимо сказать о том, что разработчики понятия вeроятности ‒ та-киe как Кeйнс [10] и Купман [7‒9] ‒ имeют отно-шeниe к Р6΄ ввиду того, что согласованиe мeжду числeнной вeроятностью и качeствeнной вeро-ятностью являeтся строгим. Купман, напримeр, считаeт, что eсли А ⊂ В и А ≠ В, то А болee вeро-ятно, чeм В, и числовая вeроятность такжe можeт быть аналогом В. Таким образом, eсли стрeлок стрeляeт в стeну, то логичeски противорeчиво, что пуля нe должна попасть вообщe никуда, но это логичeски согласуeтся с тeм, что пуля должна ударить в предписанную идеальной математической линией идеальную математическую точку на этой стене. Относительно удара пули в предписанную линией предписанную точку Купман, возможно, будет настаивать, что это событие является более вероятным, чем уход пули в никуда, хотя численная вероятность обоих событий равна нулю. Я не обсуждал бы эту проблему с Купманом, потому что он, по-видимому, говорит о несколько иной концепции зависимости вероятности от предпочтения ≥; но, я думаю, уместно предположить, что для человека важнее доля выигрыша на линии, чем на нулевом множестве.
Проблема тут неэмпирическая и ненормативная, поскольку и точка, и линия представляют собой математические идеализации. Если точку и линию заменить точкой и группой, то, конечно, независимо от того, как они могут быть малы, вероятность попадания здесь будет больше, чем в случае пустого события. Мне также кажется, что целиком дело вкуса, обусловленного математическим опытом, как искать решение для случая, когда точка и группа заменены их идеализированными пределами.
Что касается теории вероятности как таковой, то постулат Р6ˊ ‒ это все, что нужно нам знать, хотя вскоре придется сделать немного более сильное предположение, поскольку реальные люди действуют не только в тех обстоятельствах, когда вероятность определена. Поэтому я предлагаю постулат Р6 вместо Р6΄, поскольку мне он кажется более приемлемым по тем же причинам, что Р6΄ сам по себе.
Р6 . Если g < h и f любое следствие этого, то существует разбиение S такое, что если g или h на любом элементе разбиения изменены так, чтобы принять значение f на каждом ѕ , а другие значения считаются неизменными, то затем или модифицированный g остается меньше чем h , или g остается меньше модифицированного h , в зависимости от обстоятельств.
Некоторые математические подробности
Существуют ли качественные вероятности, которые являются «тонкими» и «плотными», являются «тонкими», но не «плотными», являются «плотными», но не «тонкими», которые не являются ни «тонкими», ни «плотными», но имеют одну и только одну почти согласующуюся (совпадающую) вероятностную меру? Ответы на эти вопросы, проиллюстрированные примерами, будут представлены в данном разделе.
Укажем и на другую близкую идею, с которой знакомы читатели, имеющие опыт работы с математической вероятностью и понимающие, что обычно не принято, как это было сделано здесь, что все множества имеют численную вероятность, несомненно, большинство множеств ею обладает, но также существуют и множества с неизмеримой вероятностью. К тому же обычно полагают, что если каждая из бесконечной последовательности непересекающихся множеств измерима, то вероятность их объединения равна сумме вероятностей, то есть вероятностные меры, как правило, предполагаются счетно-аддитивными. Но моя теория предполагает, что вероятность определяется для всех событий, то есть для всех множеств состояний, и не означает счетную аддитивность, а лишь конечную аддитивность.
В данном разделе не только дается ответ на поставленные выше вопросы, но и обсуждаются отношения понятий ограниченной области определения и счетной аддитивности к развиваемой нами теории вероятностей. Общие выводы из этого таковы։ во-первых, нет никаких технических препятствий для работы с ограниченной областью определения, и, несмотря на сложность формального описания, это предпочтительно было бы делать всегда. Во-вторых, это несколько лучше, чем предполагать счетную аддитивность не в качестве постулата, а в качестве специальной гипотезы в определенных контекстах. Такой подход является более развернутым по сравнению с предложенным де Финетти в [3].
Наконец, перед началом изложения основного содержания данного раздела сформулируем ответ на один простой вопрос об отношении между качественной и количественной вероятностями, а также ряд риторических, не требующих ответа вопросов.
Существуют ли качественные вероятности без каких-либо строго согласованных мер? Да, потому что любая качественная вероятность «тонкая», но не «плотная», что легко показать на примере. Однако вопрос о том, всегда ли имеет качественная вероятность на конечном S строго согласованную меру, как подчеркнул де Финетти [11], остается открытым.
Материалы остальной части данного раздела отличаются специфической математикой, с ними можно ознакомиться или просто пропустить.
В современной математической теории вероятностей так много зависит от предположения об аддитивном характере критерия вероятности, что появляется искушение оговорить эту исчисляемую аддитивность или ее логический эквива- лент в качестве постулата, дополняющего Р1‒Р6. Но я склонен согласиться с де Финетти [2; 11] и Купманом [7‒9] в том, что удобное допущение исчисляемой аддитивности, как и любое другое предположение, не может быть указано в числе постулатов Р1‒Р6, если это не является неуместным и необоснованным нарушением предлагаемого способа исследования субъективной вероятности. Я не вижу аргументов, приводящих к требованию исчисляемой аддитивности, хотя многим, по-видимому, была бы понятна интуитивная склонность рассматривать природную вероятность в свете проблемы распространения только конечно-аддитивной равномерной плотности вероятности на целые числа, на пределы и на плоскости. Мне кажется, что лучше не принимать исчисляемую аддитивность как постулат, но признать ее в качестве специализированной гипотезы, которая ведет к большому классу полезных теорем.
Условная вероятность, количественная и качественная
Автор в сноске предварительно оговаривает, что речь будет идти о вероятности B ≤ C при условии, что произошло событие D и это будет записано просто «при условии D». Условные предпочтения среди действий при условии наличия некоторого данного события были представлены во втором разделе книги. Поскольку соотношение ≤ между событиями определено в терминах соответствующего соотношения между действиями, мы можем ожидать, что оно придаст значение утверждениям вида B ≤ C при условии D , если D не нулевое.
Рассмотрим пару действий f и g , которые «проверяют», является ли B ≤ C (как предписано в определении ≤ между действиями), и говорят о том, что B ≤ C при условии D тогда и только тогда, когда f ≤ g при условии D . Так как существует более одной пары действий f , g , с помощью которых можно проверить утверждение B ≤ C , кажется очевидным предположить, что не все пары будут в том же порядке в пределах заданного D , что противоречит определению ≤ при условии D . Однако легко увидеть, что для каждого f , g , проверяющего B ≤ C , f ≤ g при условии D (причем вероятность D не равно 0) эквивалентно выражению B П D < C П D .
Таким образом, мы можем видеть не только то, что предложенное определение однозначно, но также выражено через вероятностные сравнения между множествами без ссылки на действия, более того, постулаты P1‒P6 применяются к событиям отношения условного предпочтения ≤ при условии D. Все вышесказанное ‒ это преамбула к последующим определениям и теореме, описывающей соотношения качественной вероятности в общем виде.
Eсли (предпочтение) ≤ · ‒ качественная вероятность и 0 ≤ · D , то В ≤ · С при условии D тогда и только тогда, когда В П D < • C П D .
Теорема 5
Если ≤ · ‒ это качественная вероятность, тогда ≤ · при условии D . Если к тому же ≤ · «тонкое» или «плотное», тогда ≤ · при условии D , соответственно, «тонкое» или «плотное».
Доказательство . Если ≤∙ «тонкое», тогда для любого непустого D существует одна и единственная вероятностная мера P ( B | D ) ‒ условная вероятность B при условии D , что почти всегда соответствует ≤ · . Но, как и ожидается от традиционной численной вероятности, что легко проверить: P ( В П D )/ P ( D ), рассматривается как функция от B при фиксированной D ‒ это вероятностная мера, которая сответствует ≤ · при условии D . Следовательно:
Р ( B | D )= P ( В П D )/ P ( D ).
Как было отмечено во втором разделе книги, предпочтение среди действий при условии B может быть описано при помощи временных терминов. Аналогичным образом сравнение среди событий при условии B и, следовательно, условная вероятность B также могут быть выражены временно.
Таким образом, выражение P ( C | B ) можно рассматривать как вероятность, которую субъект назначил бы событию C , после того как получил информацию о событии B (то есть когда событие B произошло). Эта условная вероятность в рамках субъективной ТВ является воплощением феномена обучения на собственном опыте .
В соответствии с установленными определениями пары событий B , C называются независимыми, если P ( B П C ) = P ( B ) P ( C ). Чуть более общая формулировка: набор событий называется независимым, если для каждого конечного набора событий B 1,…, Bn выполняется
Р ( П , В )=П , Р ( B - ).
Очевидно, что если D ‒ ненулевое, B и D независимые, тогда и только тогда P ( B | D ) = P ( B ), и D в этом случае можно назвать нерелевантным к B (не относящимся к B ).
Понятия независимости и нерелевантности, насколько я знаю, не имеют аналогов в пределах качественной вероятности; это удивительно и грустно, поскольку эти понятия вызывают сильную интуитивную реакцию. Отсутствие этих аналогов прослеживается в отсутствии качественного аналога для выражений вида P(B | C) ≤ P(G | H). Работая под влияниям иных идей, нежели представлены в этой книге, мистер Б.О. Купман [7‒9] разработал систему качественной вероятности, в которой имеет смысл сравнивать B при заданном С с G при заданном Н. Для качественной вероятности, описанной здесь, также верны некоторые условные сравнения, что могут быть определены естественным образом. Если, например, B <-~B при условии C и ~G ≤· G при условии H, то было бы неразумно устанавливать соотношение, что B при условии C ≤· G при условии H. Однако такого рода расширение неуместно для моей цели, поскольку здесь меня несильно интересуют качественные вероятности, за исключением основания количественной вероятности.
Следующая формула разделения хорошо известна и легко доказуема։
P (C) -^ P (C\Bj) P (Bj), где Bi ‒ это разделение S на непустые множества. Далее, если C ‒ непустое множество, то довольно просто вывести знаменитое правило Байеса։
P ( C B i ) P ( B i ) P ( C B i ) P ( B i )
P ( B-|C ) - P ( C ) "X P ( c\B j ) P ( Bt) j
Объяснения этих формул есть во всех учебниках по ТВ и, конечно же, в последующих главах этой книги. Наконец, если B и C непустые, то
P(B\ C) = P(C| B) = P(Bnc) P(B) P(C) P(B)P(C), что можно описать так։ знание о C изменяет вероятность B таким же образом, что и знание о B изменяет вероятность C.
Понятие случайной величины можно встретить почти в любых обсуждениях и задачах, связанных с вероятностью. Эксперты согласны со следующим определением. Случайная величина ‒ это функция x , связывающая значение x ( s ) в некотором множестве X с каждым s в составе множества S , на котором определена вероятность P . Такое S с вероятностью P называется вероятностным пространством.
Вещественные случайные величины встречаются чаще всего, хотя значения X могут быть любыми. Eсли, например, x и y со значениями X и Y, соответственно, есть случайные величины на пространстве с определенной мерой, то новая случайная величина z = {x, y} определена таким образом: z(s) = {x(s), y(s)}. Значения z, следова- тельно, являются элементами того, что называется декартовым пространством X x Y: это множество упорядоченных пар с первым элементом из X и вторым из Y. Аналогичный порядок можно получить для упорядоченных n-кратных кортежей элементов и также для бесконечной последовательности случайных величин.
Две случайные величины x и y , определенные на пространстве с мерой S , называются статистически независимыми тогда и только тогда, когда для каждого X 0 с Хи Y 0 с Y , оба события (подмножества S) определены условиями x ( s ) е X 0 и y ( s ) е Y 0 и, соответственно независимы. Расширение этого определения от пар до любого количества случайных величин выглядит очевидным.
Подход к определенности через опыт
Раньше было показано, что теория субъективной вероятности с чисто математической точки зрения сводилась к теории вероятностных мер, которая изучалась на протяжении веков. Любая математическая задача, связанная с субъективной вероятностью, является задачей вероятностных мер, специфика интерпретации которой в субъективной концепции вероятности приводит, однако, к проблемам, которые, хотя они и весьма значимы для математической вероятности, выделить достаточно тяжело. Здесь кратко обсуждаются две такие проблемы, выбранные из множества возможных для нашего понимания, которое они обеспечивают в рамках концепции субъективной вероятности.
Прежде чем начать изучение этих проблем, отметим, что человек многому учится на собственном опыте. Целью настоящего раздела является исследование вопроса о том, как субъект становится почти уверенным в какой-либо «правде» при бесконечно большом опыте. Скажем более конкретно: предположим, что субъект собирается наблюдать большое количество случайных величин, причем все они независимые при условии Bi для каждого i , где Bi ‒ результат разделения, то есть часть S . Покажем, что в общем случае, по завершении наблюдения он может быть в чем-то совершенно уверен, то есть будет считать вероятность того элемента разбиения, который он будет наблюдать, практически равной единице.
Опишем ситуацию более формально: пусть Bi ‒ это разделение S, соответсвующее P(Bi) = = β(i), а xr, где r = 1, 2, … есть последовательность случайных величин, каждая из которых принимает конечное число значений (которые без потерь общности могут считаться целыми числами). Пусть также x обозначает первый n из набора случайных величин xr. Следует иметь в виду, что x зависит от n, поэтому, строго говоря, его следует записать в виде x(n). Предположение, что при выполнении условия B xr будет иметь распределение, выраженное таким образом:
P(xr(s) = xr Bi) = ξ(xr i), где = ξ(xr i), определено контекстом. Сочетая это с утверждением, что xr независимые при условии Bi, то есть
P ( x B i ) = Df P ( x ( s ) =
= {x i,x 2, ,xn }| BZ) =jn £(xr\l), r=1
где условный символ используется для обозначения равенства по определению.
Эти гипотезы сформулированы и следуют из закона Байеса и приведенных ранее формул разбиения:
P ( B i x ) =
P ( xBi ) P ( Bi ) = β ( i ) ∏ r ξ ( xr i )
P ( x ) P ( x )
и P ( x ) = ∑ β ( i ) ∏ ξ ( xr i ). ir
Можно заметить, что если априорная вероятность β( i ) получена из Bi = 0, тогда неважно, какое значение x получено методом наблюдения: апостериорная вероятность события B i , то есть P ( B i | x ), также равна нулю. Это пример базового принципа, что если событие рассматривается фактически невозможным, то никакие доказательства не смогут придать ему достоверность. Это также подразумевает эквивалентный принцип здравого смысла: если наблюдение x фактически невозможно в рамках гипотезы Bi , но считается, что x был получен в результате наблюдения, то есть опытным путем, то Bi становится фактически невозможным апостериорно.
Интересно сравнить вероятности двух элементов разбиения: B 1 и B 2, определенных в свете x ‒ полагаю, что все представленные аббревиатуры не требуют объяснений:
P ( B 1
P ( B 2
x ) = β (1)
x ) β (2) ∏ r
ξ ( x r 1) ) = ξ ( x r 2))
= β (1) R ′ ( x ) = β (1) R ( x ).
β (2) ∏ r r β (2) ∏ r
Приведенное уравнение не имеет смысла, если и числитель, и знаменатель в левой части обращаются в ноль, если же обращается в ноль знаменатель, то дробь может считаться бесконечной. Это случится тогда и только тогда, когда B 2 = 0, и B 1 ≠ 0 при условии x . Таким образом, это происходит, когда β(1) ≠ 0, β(2) = 0 либо если
β(1) ≠ 0 и R ( x ) = ∞. В данном случае Rʼ ( xr ) и R ( x ) ‒ это отношения правдоподобия B 1 к B 2 при условиях xr и x соответственно, критерии важности во множестве возможных теоретических контекстов.
Если субъект изучает в процессе наблюдения x , то есть ищет значение x ( s ) для s , являющееся истинным состоянием объекта, то естественно задать вопрос: насколько вероятным он считает, что R имеет особую ценность? Дальше будет показано, что при достаточно больших n , за исключением двух тривиальных случаев, вероятность R при условии B 1 больше, чем любое предварительно заданное число, и составляет почти единицу. Вероятность P(B 1) = 0 также должна быть принята во внимание, поскольку в ином случае условная вероятность не имеет смысла. Другое исключение проявляет себя, когда ξ( xr | 1) = ξ( xr | 2) для каждого xr , то есть когда общее распределение xr при условии B 1 такое же, как и при условии B 2; так как тогда наблюдение xr просто не отличает B 1 от B 2, или, выражаясь профессионально xr нерелевантно к В 1 при условии В 1 U В 2 , и
P ( R ′ ( x r ) = 1 B 1 ) = 1.
Формально это показывает, что, пока не P(B1) = = 0 или 1, lim P(R(x) ≥ρB1) =1 для 0 ≤ρ< ∞. n→∞
Задача относительно проста при учете того факта, что R ( x ) ‒ это произведение n случайных величин R’ ( xr ), которые независимы при условии B 1. При решении этой задачи необходимо различить два случая в зависимости от того, существуют или нет значения x с положительной вероятностью при условии B 1, но нулевой вероятностью при условии B 2.
На практике большая удача ‒ найти примеры первого рассмотренного случая, ибо тогда данный механизм проявляет себя «с удвоенной силой». Действительно, предположим, что
P ( R ′ ( xr ) <∞ B 1) =ϕ , где ϕ< 1.
Тогда вероятность P ( R =∞ B 1) = 1 -ϕ очевидным образом достигает 1 с возрастанием n .
Второй случай, а именно φ = 1, еще более интересный, тем более что о суммах одинаково распределенных независимых случайных величин многое известно, поэтому естественно их исследовать, заменив произведение на сумму:
lоg R ( x ) = ∑ lоg R ′ ( xr ). r
Из определения R’ ( xr ) легко понять, что P ( R’ ( xr ) > 0 | B 1) = 1, и в данном случае функции lоg R’ ( xr ) ‒ независимые вещественные ограниченные случайные величины:
I = E (log R ′ ( xrBi ).
Согласно слабому закону больших чисел, для любых ε ˃ 0 имеет место lim P(log R (x) ≥n(I-ε) B1)=1, n→∞ что эквивалентно limP(R(x)≥en(I-ε)B1)=1. n→∞
Таким образом, мы достигнем цели, если продемонстрируем, что I > 0 до тех пор, пока выполняется условие
I = E (log R ′ ( x r B 1 ) ≥- log E ( R ′- 1( x r B 1 ) =
=- log1 = 0.
Mожно утверждать, что равенство здесь выполняется тогда и только тогда, когда R’^ ‐1( xr ) ‒ это константа с вероятностью единица при условии B 1. Однако ожидаемое значение R’ ‐1( xr ) при условии B 1 равно единице, что можно проверить по определению R’ ‐1( xr ). Таким образом, исключая предусмотренные случаи, I > 0, и доказательство завершено.
Перед наблюдением вероятность того, что вероятность при условии x любого элемента разбиения фактически будет больше, чем α, есть
∑β(i)P(P(Bix)>αBi), i где суммирование ограничено теми i, для которых β(i) ≠ 0. Применение данного условия распространяется на произвольные пары аргументов в сумме, причем анализ показывает, что сама она достигает единицы с возрастанием n при условии, что нет двух одинаковых функций ξ(xr | i) и ξ(xr | iʼ ) аналогично тому, что β(i) и β(iʼ ) не равны нулю. Отсюда вывод։ при наблюдении релевантной информации субъект почти наверняка убеждается в достоверности «правды», причем знает об этом и сам. Добавим, что многие уточнения и их следствия могут быть разработаны путем применения сильного закона больших чисел, центральной предельной теоремы ТВ и закона о повторном логарифме к R’ (xr).
Величина I именуется информацией о распределении xr при условии B 1 относительно распределения xr при заданном B 2. Или в более общем виде: если P и Q ‒ вероятностные меры, ограниченные (для простоты) к конечному множеству X с элементами x , то информация о P относительно Q определяется соотношением
∑ P ( x ) log P ( x ), x Q ( x )
если брать за основу [15] К. Шеннона, посвященную разработке систем связи, а также часть материала [16] Н. Винера в схожей области.
Идеи Шеннона и Винера, хотя и связаны с вероятностью, но кажутся далекими от статистики, поэтому введенный ими термин «информация» здесь не совсем уместен. Ситуация становится еще более запутанной, принимая во внимание, что еще в 1925 г. Р.А. Фишер подчеркнул важность термина, который он назвал «информация», в рамках теории статистической оценки [17]). На первый взгляд понятие Фишера кажется совершенно иным, нежели у Шеннона и Винера, но, по сути, его версия является «ограниченной» (менее содержательной) версией их термина. Трактовка разных смыслов термина «информации» представлена Кульбаком и Лейблером [18], к чему имеет смысл вернуться впоследствии.
Симметричныепоследовательности событий
В сноске автор вводит понятие mixture (« смесь» ) ‒ это комбинация двух или более вероятностных распределений, для которой существуют два контекста применения:
‒ смесь определяет новое распределение вероятности из нескольких существующих, давая смешанное распределение, главная проблема здесь ‒ определение свойств нового распределения;
‒ смесь используется в качестве статистической модели для классификации объектов моделирования, которые могут представлять собой множества, откуда объекты возникают как смесь несколько их компонентов: основная задача здесь заключается в том, чтобы определить, какому дискретному набору подмножеств соответствует тот или иной объект.
Задача, часто решаемая статистиками, ‒ оценить из последовательности наблюдений неизвестную вероятность р события, которое соответствует многократно повторяющимся успешным испытаниям. Для объективистского подхода к вероятности эта задача естественна и важна, так как вероятность того, что монета упадет, например, орлом, ‒ это свойство монеты, которая может быть определена путем эксперимента с монетой и никак иначе. Однако в случае строго интерпретированного субъективного подхода к вероятности не существует вероятности, неизвестной заинтересованному человеку, так как он может определить эту вероятность сам, спрашивая только самого себя, вне зависимости от внешнего мира.
Эту ситуацию многие интерпретировали именно таким образом, чтобы объяснить, что субъективные взгляды неверны или, по крайней мере, неадекватны, поскольку очевидно, что они не могут даже выразить одну из главных черт ста- тистики. До сих пор в этой книге я не возражал против возможности определения некоей пользы от объективистского подхода к вероятности, довольствуясь представленным определением понятия субъективной вероятности. Велик соблазн найти дуалистическую теорию, допускающую как объективистские и субъективные вероятности в какой-то связи друг с другом. Однако де Финет-ти [3; 11] показал, что в этом нет необходимости, поскольку представление о монете и неизвестной вероятности p может быть переосмыслено только с точки зрения субъективной вероятности.
Текущий раздел содержит развитие идеи де Финетти, предназначенное для более четкого понимания понятия субъективной вероятности, особенно относительно объективистских подходов, где смеси последовательностей случайных величин часто представляют интерес.
Предположим, что мир разделен на Bi в явном виде и при условии Bi все xr независимы с P ( xr ( s ) = 1| Bi ), которая имеет некоторое фиксированное значение p ( i ). Тогда безусловная вероятность конкретной начальной последовательности ‒ это смесь вероятностей, заданная следующим образом:
P ( X r ( s ) =X r ; r = 1; 2. ..n ) = £ p ( i ) ^ (1 - p ( i )) n - ^ P ( B i ).
Естественно обобщить эту запись и придать ей форму
P ( xr ( s ) = xr ; r = 1; 2 … n ) = ∫ py (1 - p ) n - ydM ( p ), где M ‒ вероятностная мера, вещественные числа в интервале [0, 1]. Следует отметить, что последнее уравнение распространяется на любое n , равносильно тому, что вероятность каждого n в составе заданного множества n из xr принимает значение 1. Это следует из арифметической индукции по формуле
P ( x r ( s ) = x r ; r =1;2. n ) =
= P ( X r ( s ) =x/; r= 1; 2 . n ; x „ +i ( s ) = 0) +
+ P ( X r ( s ) =X r ; r = 1; 2 . n;x „+1 (s ) = 1), которая применяется к любой последовательности случайных величин, принимающий значения либо 0, либо 1. Данное уравнение можно интерпретироваться таким образом, что мера M является не просто абстрактной вероятностной мерой, а фактически субъективной вероятностью.
Таким образом, если p ‒ случайная величина (для данного субъекта) распределенная в соответствии с M и если для каждого p условное рaс-пределение xr при условии p ‒ это незaвисимое с P(xr(s) = 1) = p; тогдa мы получим его. Строго говоря, понятие условной вероятности в том виде, в котором оно встречaется в предыдущем предложении. используется в несколько более широком смысле, нежели в этой книге, поскольку вероятность любого чaстного p обычно рaвняется нулю. По крaйней мере, для счетно-aддитивных мер необходимое рaсширение условной вероятности и условное ожидaние предстaвлены в рaботе Кол-могоровa [19]. Это понятие облaдaет нaибольшей ценностью в продвинутой мaтемaтической стaти-стике и, кaк прaвило, в теории вероятностей. Од-нaко в большинстве случaев, когдa объективисты говорят о неизвестной вероятности p при субъективном предстaвлении о вероятности, то нет ни-кaкого неизвестного пaрaметрa, который смог бы сыгрaть здесь роль p.
Paссмотрение ситуaций, в которых «неизвест-нaя» вероятность применяется, покaзывaет, что, с точки зрения субъективистa (последовaтеля субъективного подходa к вероятности), объективисты всегдa ссылaются нa симметричные по-следовaтельности событий в смысле следующего определения. Последовaтельность случaйных величин x , принимaющaя только знaчения 0 и 1, является симметричной последовaтельностью, тогдa и только тогдa, когдa вероятность любого b из xr ( s ) рaвно 1 и любое с другой xr ( s ) рaвно 0 зaвисит только от целых чисел b и c .
Легко проверить, что любaя смесь рaссмaтри-вaемых незaвисимых последовaтельностей является симметричной последовaтельностью, причем де Финетти устaновил, что верно и обрaтное. Эти выводы можно суммировaть и формaльно вырaзить в виде следующей теоремы.
Teopeмa 6
Последовaтельность случaйных величин x , принимaющих знaчения 0 и 1, симметричнaя тог-дa и только тогдa, когдa существует вероятност-нaя мерa M нa интервaле [0, 1] тaкaя, что вероятность предписывaет любому n из xr ( s ) рaвнa 1 и зaдaнa в приведенном здесь виде. Две тaкие меры M и M’ должны быть по существу одинaковыми в том смысле, что если B ‒ подынтервaл [0, 1], то M ( B ) = M’ ( B ).
Учитывaя, что де Финетти опубликовaл до-кaзaтельство теоремы 6 в [3], основaнное нa ин-тегрaле Фурье, я не вижу смыслa приводить его в нaстоящей книге. Теоремa 6 позволяет вырa-зить ряд утверждений кaсaтельно неизвестных вероятностей в персонaлистических (то есть субъективных) взглядax. Haпример, если стa-тистик говорит: «Я не знaю вероятность p этой монеты, но я уверен, что онa не более ½», ‒ то это и ознaчaет вырaжение вероятности в рaмкaх его субъективных взглядов: «Я рассматриваю последовательность подбрасываний этой монеты как симметричную последовательность, где мере M присваивается единица измерения в интервале [0, 1/2 ]». Условие для M, означает в свою очередь, что для каждого n субъективная вероятность последовательности «орлов» не превышает 2-n, что легко проверить. Я не настаиваю на том, что эти предложения, сформулированные в связи с фиктивной неизвестной вероятностью, являются плохими, но, если только понимать их как наводящие аббревиатуры, многозначность таких предложений не является причиной неадекватности субъективного взгляда на вероятность.
Математическая концепция вероятностной меры, или, как правило, ограниченная мера ‒ это фундаментальное понятие для математики в целом. Поэтому вероятностные меры, часто под другими именами, используются во многих областях математики, порой совершенно не связанных с ТВ. Hапример, распределение массы в не обязательно твердом теле выражается ограниченной мерой, которая показывает, какая часть тела находится в каждой области пространства. Поэтому мы не должны удивляться, даже если при изучении самой вероятности мы сталкиваемся с некоторыми вероятностными мерами, используемыми не для измерения вероятности, а только для вспомогательных целей. В событии, для которого p не является неизвестным параметром, мepa M, представленная теоремой 6, на первый взгляд кажется чисто вспомогательной, но в действительности M измеряет некоторые весьма интересные нам вероятности, пусть и приблизительно. Hапример, пусть n xn= ∑xr, n r=1
тогда можно показать, что։
ӏіm P ( x n ( s ) ≤δ ) = M ( p ≤δ ). n →∞
Говоря словами, субъект считает, что среднее значение любого большого числа будущих наблюдений распределяется примерно так, как p распределяется по M . Такое расширение обычного слабого закона больших чисел, доказанное в [3], имеет место наряду с соответствующим расширением сильного закона.
Если наблюдаются первые n членов симметричной последовательности, то как выглядит остальная последовательность для субъекта в свете полученной информации? Во-первых, это также симметричная последовательность, хотя обычно отличающаяся от структуры исходной последовательности, что может быть показано следующим образом. Пусть n (y,n—y) = DfP(Xr(s) =Xr;r= 1;2 ... n)• как и для симметричной последовательности, тогда
P ( xq ( s ) = xq ; q = n + 1; n + 2 … n +
+ m|x r ( s )= xr,r = 1;2 ... n ) =
_ P ( X p ( s ) = X p ; p = 1; 2 ... n + m ) =
P ( xr ( s ) = xr ; r = 1; 2 ... n )
= n(y + z,(n - y) + (m - z)) n(y, n - y) , где z ‒ число первых среди xq’ s, q = n + 1,…, n + m. Это уравнение показывает, что последовательность xq, q > n при условии xr(s) = xr, r = 1,…, n есть новая симметричная последовательность, характеризуемая как n‘(z,( m-z) = „П( y + --•<” - y) + (m - z )).
π ( y ,( n - y )
Мера M’, связанная с новой последовательностью, согласно теореме 6, определяется условием о том, что pmdM(p)=π′(m,0)=π(m+y,n-y)= π(y,n-y)
∫ pm + y (1 - p ) n - y dM ( p ) π ( y , n - y )
= pm py (1 - p ) n - ydM ( p ).
π ( y , n - y )
Отсюда мера M’ определяется как
M ′ ( B ) = π- 1( y , n - y ) ∫ B py (1 - p ) n - y dM ( p ), что можно продемонстрировать, правда, с помощью «продвинутых методов», относящихся к проблеме момента Хаусдорфа ‒ см. [20].
Отметим, что если M ( B ) = 0, то и M’ ( B ) = 0. Если p ‒ действительно неизвестный параметр, то это означает, что субъект практически уверен в том, что истинная p не находится в B , и никакие доказательств не могут изменить его мнение. Последнее уравнение также показывает, что Mʼ совершенно иное, нежели M : действительно, для фиксированных n ≥ 1 имеет место M’ практически такое же как и M для каждого y , где π( y , n ‒ y ) > > 0, тогда и только тогда M присваивает меру к некоторому значению p . То есть субъект рассматривает доказательства, полученные из симметричной последовательности, как не относящиеся к будущему ее поведению, тогда и только тогда, когда он сначала рассматривает последовательность не просто как симметричную, но и как независимую.
Можно показать, что субъект считает весьма вероятным, что если он наблюдает достаточно длинный участок симметричной последовательности, то продолжение последовательности будет таким, для которого условная дисперсия p:
Jp1 dM'(p)-{IpdM'(p)} , будет мала. В случае, когда p действительно является неизвестным параметром, это означает, что человек совершенно уверен в том, что после достаточно длинной последовательности наблюдений он будет вправе присвоить почти единичную вероятность ближайшей окрестности значения p, то есть фактически получается аналогия с подходом к определенности, который будет обсуждаться нами в дальнейшем.
Заключение
В статье изложены материалы третьей главы [2], которая содержит ряд ключевых понятий, важных как для последующего изложения материала книги, так и для развития субъективного подхода к ТВ. Подробно рассматриваются взаимные соответствия и существенные различия между объективной ТВ Лапласа ‒ Колмогорова и субъективной ТВ Бернулли ‒ Сэвиджа. Показана связь ТВ с теорией информации, где также необходимо оценивать в количественном виде неопределенность знаний субъекта об условиях, в которых он принимает решение. Одним из важнейших представляется весьма обстоятельно аргументированное утверждение о том, что в большинстве случаев, когда критики говорят о невозможности определить вероятность p при субъективном представлении о вероятности, все равно не находится никакого другого параметра, который смог бы сыграть в данной ситуации роль p.
Доказательства ряда представленных теорем опущены по причинам, которые оговариваются или автором, или переводчиками. Hу-мерация теорем соответствует их порядку следования в статье, номера формул опущены во избежание путаницы. Источники, на которые имеются ссылки в [2], приводятся согласно системе обозначений, принятой автором.
События весенних дней 2020 года совершенно неожиданно, наглядно и убедительно продемонстрировали актуальность научного подхода автора к субъективной ТВ. Статистические данные анализа числа пострадавших от панэпидемии COVID-19 по схеме: «заболели ‒ излечились ‒ умерли», сообщаемые средствами масс-медиа в режиме one line (по терминологии [2], это объективные вероятностные закономерности «большого мира»), представляли и до сих пор представляют для каждого из нас явно второстепенный интерес по сравнению с индивидуальными шансами заразиться коронавирусом (которые определяются субъективными вероятностными законами «малого мира»). Методы и средства противодействия инфекции в большом мире и малом мире также существенно отличаются друг от друга буквально во всем. Однако, несмотря на это, агитировать сегодня в пользу ТВ Бернулли ‒ Сэвиджа вместо ТВ Лапласа ‒ Колмогорова представляется излишним. По-видимому, речь в очередной раз должна идти о прагматичном сочетании объективного и субъективного подходов, что, конечно же, выглядит не так впечатляюще, как демонтаж прежней теории, но зато несравненно более разумно и практично.
Список литературы Леонард Джимми Сэвидж и его субъективная теория вероятностей. Часть II. Качественная и количественная субъективная вероятность
- Леонард Джимми Сэвидж и его субъективная теория вероятностей. Часть I. Условия возникновения, предпосылки и перспективы В.Е. Абрамов [и др.] // Инфокоммуникационные технологии. 2020. Т. 18. № 1. С. 89-105.
- Savage L.J. The Foundations of Statistics. New York: Wiley, 1954. 310 p.
- De Finetti Bruno. La provision: ses lois logiques, ses sources subjectives // Annales de l’lnstitut Henri Puincare. 1937. № 7. P. 1-68.
- Mosteller Frederick, Nogee Philip. An experimental measurement of utility // Journal of Political Economy. 1951. № 59. P. 371-404.
- Rousseas, Stephen W., Hart Albert G. Experimental verification of a composite indifference map // Journal of Political Economy. 1951. № 59. P. 288-318.
- Wallis W. Allen, Friedman Milton. The empirical derivation of indifference functions // Studies in Mathematical Economics and Econometrics. Chicago: University of Chicago Press, 1942. P. 175-189.
- Koopman B.О. The axioms and algebra of intuitive probability // Annals of Mathematics. 1940. Ser. 2. № 41. P. 269-292.
- Koopman B.О. The bases of probability // Bulletin of the American Mathematical Society. 1940. № 46. P. 763-774.
- Koopman B.О. Intuitive probabilities and sequences // Annals of Mathematics. 1941. Ser. 2. № 42. P. 169-187.
- Keynes John Maynard. A Treatise an Probability. London; New York: Macmillan & Co., 1921; second edition, 1929.
- De Finetti Bruno. La ‘logica del plausibile’ secondo l a concezione di Polya // Atti della XLII Riunione della Societd Italiana per il Progresso delle Scienze, November 1949. Rome: Societl Italiana per il Progresso delle Scienze, 1951.
- Halmos Paul R. Measure Theory. New York: Van Nostrand Co., 1950.
- Banach S. Theorie des operationes lineaires. Warsaw: Fundusz Kultury Narodowej, 1932.
- Banach S., Tarski A. Sur la decomposition des ensembles de points en parties respectivement congruentes // Fundamenta Mathematicae. 1924. № 6. P. 244-277.
- Shannon Claude E., Weaver Warren. The Mathematical Theory of Communication. Urbana: University of Illinois Press, 1949.
- Wiener Norbert. Cybernetics. New York: John Wiley & Sons, 1948.
- Fisher R.A. Contributions to Mathematical Statistics. New York: John Wiley & Sons, 1950.
- Kullback S., Leibler R.A. On information and sufficiency // Annals of Mathematical Statistics. 1951. № 22. P. 79-86.
- Kolmogoroff A.N. Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin: J. Springer, 1933.
- Shohat J.A., Tamarkin J.D. The Problem of Moments // Mathematical Surveys. 1943. № 1. New York: American Mathematical Society, reprinted with small changes in 1950.