Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпора тервер.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
2.49 Mб
Скачать

16. Лемма Маркова.

Л емма Маркова: где t2 - произвольное число.

Лемма Маркова позволяет вычислить вероятность того, что j значений

с лучайной величины x будут лежать левее xt2.

Нера́венство Ма́ркова в теории вероятностей даёт оценку вероятности, что случайная величина превзойдёт по модулю фиксированную положительную константу, в терминах её математического ожидания. Получаемая оценка обычно достаточно груба. Однако, она позволяет получить определенное представление о распределении, когда последнее не известно явным образом.

Формулировка

Пусть случайная величина определена на вероятностном пространстве , и её математическое ожидание конечно. Тогда , где a > 0.

Теорема Маркова. Если имеются зависимые случайные величины X1, X2, … , Xn и если при будет

то среднее арифметическое наблюденных значений случайных величин X1, X2, … , Xn сходится по вероятности к среднему арифметическому их мат ожиданий.

16. Закон распределения Эрланга.

Потоки Эрланга также являются потоками с ограниченным последействием. Они образуются просеиванием простейшего потока. Суть этого просеивания в следующем: если изобразить на временной оси простейший поток, поставив в соответствие каждому событию некоторую точку, и выбросить из потока каждую вторую точку, то получим поток Эрланга первого порядка. Оставив каждую третью точку, выбросив 2 промежуточные, получаем поток Эрланга второго порядка и так далее.

Потоком Эрланга kго порядка называется поток, получаемый из простейшего, если сохранить в нем каждую (k + 1) точку, выбросив остальные.

Очевидно, что простой поток может рассматриваться как поток Эрланга нулевого порядка.

Пусть имеется простой поток с интервалами Т1, Т2, ... между событиями. Величина Т – промежуток времени между двумя соседними событиями в потоке Эрланга k-го порядка Т. к. первонач. поток простейший, то Т1, Т2, ..., распределены по закону f(t) = λet

Закон распределения Эрланга: Еый прими событиями в потоке Эрланга 00000000000000000000000000000000000000000000000000000000000000000000000

При k = 0 получаем показат. закон распределения. Мат ожидание и дисперсия равны:

Плотность потока Эрланга равна:

Изменение порядка нормированного потока Эрланга позволяет получить различную степень последействия. Последействие возрастает с увеличением k.

17. Регрессионный анализ. Сглаживание экспериментальных зависимостей по методу наименьших квадратов.

Производится опыт, цель которого – исследование зависимости некоторой физической величины y от физич величины x, y=(x). Вид этой зависимости надо установить в опыте.

Пусть в ходе опыта мы получили ряд экспериментальных точек и построили график y=(x). Точки отклоняются от видимой общей закономерности из-за ошибок измерения.

Возникает типичная задача сглаживания экспериментальной зависимости (обработка экспериментальных данных с целью как можно боле точного отражения общей тенденции зависимости y от x, плюс сгладить незакономерные случайные отклонения).

Для этого применяют метод наименьших квадратов. Он дает возможность выбрать числовые параметры y=(x) так, чтобы (x) наилучшим образом отражала экспериментальные данные.

Тип кривой y=(x) выбирается непосредственно по внешнему виду экспериментальной зависимости.

Требование наилучшего согласования y=(x) и экспериментальных данных сводится к тому, чтобы сумма квадратов отклонений экспериментальных точек от сглаживающей кривой обращалась в минимум.

Рассм значение аргумента xi. Результат опыта yi, распределенный по нормальному закону с мат. ожиданием (xi) и со средним квадратич отклонением i , характеризует ошибку измерения. Допустим точность измерения во всех точках одинакова: 1=2=…=. Тогда нормальный закон, по кот. распределен yi имеет вид:

Произошло следущее: случайные величины (Y1,Y2,…,Yn) приняли совокупность значений (y1,y2,…,yn). Поставим задачу так подобрать мат. ожидания (x1), (x2),…, (xn), чтобы вероятность этого события была максимальна.

Результат: чотбы совокупность полученных значений y1,y2,…,yn была наивероятнейшей, нужно выбрать ф-цию (x) так, чтобы сумма квадратов отклонений полученных значений yi от (xi) была минимальна:

(*)

Запишем y как функцию не только x, но и параметров a,b,c,…: y=(x;a,b,c,…) и перейдем к задаче их определения. Нужно выбрать a,b,c,… так, чтобы при них выполнилось условие (*). Продифференцируем левую часть по каждому из параметров и приравняем все получающиеся производные нулю (находим экстремумы, ищем минимумы).

Итоговая система будет содержать столько уравнений, сколько неизвестных параметров a,b,c,…

В общем виде ее решить нельзя, можно лишь при конкретном виде функции y=(x).