
- •Аксиомы потребительского выбора
- •Исходные аксиомы анализа
- •Свойства кривых безразличия стандартного вида
- •Кривые безразличия нестандартного вида
- •Товары — совершенные заменители
- •Товары — совершенные дополнители
- •Нежелательный товар
- •Нейтральный товар
- •Явление насыщения
- •[Править]Коэффициент эластичности
- •[Править]Качественная характеристика эластичности
- •[Править]Основные показатели эластичности [править]Эластичность спроса
- •[Править]Эластичность предложения
- •[Править]Эластичность замещения факторов
- •Предложение и его функция
- •Рыночное равновесие
- •Экономический закон спроса и предложения
- •Изменение спроса и предложения
- •8) . Кривая «доход-потребление» и кривая «цена-потребление»
- •2. Геометрическое решение злп
- •3. Основные теоремы линейного программирования
- •Построить многоугольник решений.
- •Найти координаты вершин области.
- •Построить вектор и (у нас это z0 ).
- •Находим и .
- •[Править]Описание
- •[Править]Алгоритм симплекс-метода [править]Усиленная постановка задачи
- •[Править]Алгоритм
- •[Править]Двухфазный симплекс-метод [править]Причины использования
- •[Править]Модификация ограничений
- •[Править]Различия между дополнительными и вспомогательными переменными
- •[Править]Фазы решения
- •[Править]Модифицированный симплекс-метод
- •[Править]Мультипликативный вариант симплекс-метода
- •[Править]Другие варианты симплекс-метода
- •[Править]Двойственный симплекс-метод
- •[Править]Вычислительная эффективность
- •Метод искусственного базиса» «метод искусственного базиса»
- •1. Применение метода искусственного базиса.
- •2. Задача.
- •17) Двойственная задача линейного программирования.
- •Доказательство:
- •Доказательство:
- •Алгоритм метода Гомори № 1
- •2) Справедливо одно из двух утверждений: либо целевая функция ограничена снизу на , либо -задача имеет хотя бы один план.
- •21) Основной принцип динамического программирования
- •1.2 Марковский процесс с дискретным временем
- •1.3 Марковские случайные процессы с непрерывным временем
- •24 §1 Цепи Маркова
- •1.1 Основные понятия.
- •1.2 Матрицы переходов.
- •1.3 Предельные вероятности в Марковских цепях
- •Задачи для самопроверки
- •Критерий Лапласа
- •28) Пример 3. Решение статистической игры
- •30) Идеальный эксперимент и реальный эксперимент
24 §1 Цепи Маркова
1.1 Основные понятия.
В этой главе мы будем рассматривать некоторую систему ξ(t), которая в любой момент времени может находиться в одном из состояний S1, S2, …, Sk, и ξ (t) – это номер состояния, в котором система находится в момент t. Причём состояние системы отслеживается только в отдельные моменты времени {0, t, 2t, 3t,…}. В эти моменты времени система может переходить из одного состояния в другое. Т.е. время в этой модели дискретно.
Пример 1. Рассмотрим состояния, в которых может находиться студент:
S1 – студент учится и не получает стипендию;
S2 – студент учится и получает стипендию;
S3 – студент отчислен.
Состояние студента может меняться после сессии раз в семестр, т.е. шаг t в примере – семестр, и здесь t – номер семестра.
Рассмотрим вероятность: P{ξ(t1) = i1 , ξ(t2) = i2 ,…, ξ(tr) = ir }.
Определение 1. Случайный процесс называется однородным (стационарным) или стандартным, если для любых t1, t2 … и T>=0 выполняется равенство:
(1.1) P{ξ(t1) = i1 ,…, ξ(tr) = ir } = P{ ξ(t1 + T) = i1 ,…, ξ(tr + T) = ir} , т.е. вероятность перехода из состояния i1 с состояние ir за время T зависит только от величины T и не зависит от положения интервала на временной оси. В дальнейшем мы будем изучать только однородные (стационарные) процессы.
К примеру, стандартным процессом можно считать колебания курсов валют на небольшом отрезке времени.
Обозначим
(1.2) pij(t) = P{ξ(t) = j / ξ(0) = i} – вероятность перейти из состояния i в состояние j за t шагов.
Определим также
(1.3) Pij = Pij (1) – вероятность перейти из состояния i в состояние j за один шаг.
Определим также распределение вероятностей в начальный момент времени:
(1.4) pi0 = P{ξ(0) = i}
Определение 2. Однородный процесс с дискретным временем называется Марковским или Марковской цепью с дискретным временем, если выполняется равенство:
(1.5)
Утверждение 1. (Марковское свойство). Пусть дана Марковская цепь с дискретным временем, тогда справедливо равенство:
(1.6) P{ξ(t) = it / ξ(t–1) = it-1,ξ(t–2) = it-2 ,…, ξ(0) = i0} = P{ξ(t) = it / ξ(t–1) = it-1}
Смысл: P(будущее/настоящее и прошлое) = P{будущее/настоящее}, т.е. в Марковских цепях будущее не зависит от прошлого, оно зависит только от настоящего. Такие системы ещё называются системами без памяти.
Часто
Марковскую цепь удобно задавать при
помощи графа переходов. При построении
такого графа каждому состоянию ставится
в соответствие вершина. Если из
состояния si система
переходит в состояние sj с
ненулевой вероятностью
,
то из вершины, соответствующей si,
проводится стрелка в вершину sj,
помечаемая величиной
;
если
,
то стрелку не проводят.
1.2 Матрицы переходов.
Определим матрицу переходов за n шагов (1.7) и матрицу переходов за один шаг (1.8) следующим образом:
(1.7)
(1.8)
Пример 2. Воспользуемся состояниями студента из Примера 1. Из многолетнего опыта известно, что матрица переходов за один шаг:
Пусть начальное распределение: P0= (0,6; 0,4; 0). Найти вероятность того, что студент получает стипендию в течении двух первых семестров.
Решение: Надо найти: P{ξ(1) = 1, ξ(2) = 1} = {1.7} = P10 P11 P11 = 0,4 0,4 0,79.
Утверждение 2. Пусть дана Марковская цепь с дискретным временем с состояниями S1 … Sk, тогда справедливо равенство:
(1.9)
Доказательство:
Формула полной вероятности:
.
Обозначим через A =
{система перешла из состояния i в
состояние j за
(s + t)
шагов}, Hr =
{система перешла из состояния i в
состояние r за S шагов}.
P(A) = Pi j(s + t) (*)
P(Hr) = Pi r(s) (* *)
P(A / Hr) = Pr j(t) (* * *)
Подставим (*), (**), (***) в формулу полной вероятности и получим (1.9)
Теорема 1. (Основное свойство Марковских цепей с дискретным временем):
(1.10) P(n) = Pn, где слева матрица перехода за n шагов, справа – матрица перехода за 1 шаг.
Утверждение 3. Пусть дана Марковская цепь с состояниями S1 … Sk, заданная матрицей переходов P, и задано начальное распределение вероятностей p0=(p10 ,p20 ,…, pk0). Распределение вероятностей через n шагов можно вычислить по формуле:
(1.11)
,
где pi(n)
= P{ξ(n)
= i}
– вероятность находиться в момент
времени n в
состоянии i.
Пример 3. На некотором острове в Северном море 30% женщин рыжих. Известно, что у рыжей матери с вероятностью 0,6, а у не рыжей матери с вероятностью 0,2 рождается рыжая дочь. Найти вероятность того, что у не рыжей бабушки будет рыжая внучка.
Решение: Опишем процесс наследования цвета при помощи Марковской цепи. Составим матрицу переходов за 1 шаг, введя состояния: S1 – рыжая, S2 – не рыжая, тогда матрица переходов за один шаг, где шаг – одно поколение:
Начальное распределение имеет вид: P10 = 0,3; P20 = 0,7. Надо найти P2 1(2). По теореме 1
=> P21 = 0,28
В условиях этой же задачи найдем вероятность того, что у случайно выбранной женщины будет рыжая внучка. Обозначим события: H1 – бабушка рыжая, H2 – бабушка не рыжая. Тогда
P{рыжая внучка}= P(H1) * P11(2) + P(H2) * P21(2) =
= 0,3 * 0,44 + 0,7 * 0,28 = 0,132 + 0,196 = 0,328
Решить
эту задачу можно другим способом, если
воспользоваться Утверждением
3,
тогда надо найти:
Нам надо p1(2)=0,328.