Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Хрусталев.doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
8.54 Mб
Скачать

17.3. Простейшая цепь а.А. Маркова

Теперь разыграем отрезок цепи, занимающей промежуточное положение между 1) и 2). Определим эту цепь следующими условиями: , т.е. цепь начинается с , , т.е. на -ом шаге появляется после на шаге с вероятностью 0,5 и , т.е. на - ом шаге появляется после на шаге. Значит, отрезок цепи, определяемый указанными условиями, представляет последовательность зависимых испытаний.

Итак, рассматриваемая цепь начинается с . Далее события разыгрываются в соответствии с условиями и . Пусть событию соответствует чётная цифра (здесь ноль – включён), а – нечетная. Одна из таких последовательностей и , над которыми выписаны соответствующие случайные числа, взятые из телефонного справочника, такова:

- 3 -

9 - 4

2 1 -

6 8 2

0 2 2

7 - 6

0 3 -

4 2 5

- 7 -

1 - 6

В этой последовательности и . Простейшей однородной цепью Маркова называется последовательность испытаний, в результате каждого из которых может произойти или не произойти событие , причём условные вероятности и – постоянны. Здесь – вероятность появления события на - ом шаге при условии, что на шаге появилось событие , – вероятность появления события на – ом шаге при условии, что на шаге появилось событие . Предыдущий пример представляет простейшую однородную цепь Маркова.

Найдём для такой цепи безусловную (полную) вероятность события на - м шаге при заданных начальной и переходных (условных) вероятностях для чего воспользуемся формулой полной вероятности: .

Для упрощения преобразований введём обозначения: – вероятность события на - ом шаге, тогда приведённая формула полной вероятности при любом натуральном примет вид:

;

; ;

; .

Из последней формулы при

и

находим предельную вероятность и для противоположного события получаем .

Цепь Маркова, для которой предельное распределение безусловных вероятностей событий при существует и не зависит от начальных вероятностей, называется эргодической. Принято говорить, что в случае эргодической цепи при больших значениях она переходит в стационарное состояние.

В качестве примера простой однородной цепи случайных событий «Г – гласная буква, С – согласная» (при этом Й считалась гласной, а знаки Ь и Ъ из рассмотрения исключались) А.А. Марков (старший) привёл вероятность того, что буква, наугад взятая из русского текста, окажется гласной. Эта вероятность различна в зависимости от того, гласной или согласной является предшествующая буква. Он подсчитал, используя 20000 букв из романа А.С. Пушкина «Евгений Онегин», что вероятность появления гласной после согласной равна , вероятность же появления согласной при условии, что перед ней находится гласная равна .

Оценим эти вероятности относительными частотами, используя первую строку из «Евгения Онегина»:

М О Й

Д Я Д Я

С А М Ы Х

Ч Е С Т Н Ы Х

П Р А В И Л

С Г Г

С Г С Г

С Г С Г С

С Г С С С Г С

С С Г С Г С

и ,

что, в общем, хорошо согласуется с вероятностями, приведёнными А.А. Марковым на основе большой выборки из 20000 букв текста.

Теперь из формулы для предельной вероятности можно убедиться в том, что вероятность встретить на -м месте гласную букву

при равна

независимо от того, была ли на первом месте гласная или согласная. А.А. Марков нашёл, что эта величина совпадает с частотой, с которой вообще встречается гласная буква в тексте «Евгения Онегина». Если оценить эту вероятность при помощи относительной частоты, используя первую строку из «Евгения Онегина»: получим

,

что с точностью до одной значащей цифры совпадает с .

Рассмотрим ещё задачу: Пусть каждый человек, услышавший новость, может передать ее другому, при этом вероятность изменения смысла на противоположный постоянна для всех людей и равна р. Какова вероятность услышать новость в неискаженном виде после того, как она «побывала» у большого числа людей?

Для нахождения ответа естественно использовать формулу для предельной вероятности:

,

где

– неискажённая новость,

– искажённая,

и учтено, что

.

Итак, вероятность услышать новость в неискаженном виде после того, как она «побывала» у большого числа людей, равна 0,5 независимо от 0<р<1.

Возникновение метода Монте – Карло

как весьма универсального численного

метода стало возможным только

благодаря появлению ЭВМ.

И.М. Соболь