
- •1. Предмет и аксиомы теории вероятностей
- •1. Нормальный закон распределения и центральная предельная теорема.
- •2. Классическое определение вероятности. Геометрические вероятности.
- •2. Вычисление среднего и дисперсии биномиального и нормального законов распределения.
- •3. Модель теории вероятностей. Вероятностное пространство.
- •3. Характеристическая функция и её свойства.
- •4. События. Операции над событиями.
- •4. Функция регрессии и ее физическая интерпретация.
- •5. Понятие статистической зависимости. Условные вероятности. Необходимое и достаточное условие независимости событий.
- •5. Кумулянтная функция и её свойства.
- •6. Формула полной вероятности.
- •6. Линейная функция регрессии.
- •7. Формула Байеса.
- •7. Применение линейной функции регрессии в задаче измерения физической величины.
- •8. Теоремы сложения и умножения вероятностей.
- •8. Характеристические и кумулянтные функции нормального, биномиального и пуассоновского законов распределения.
- •9. Определение непрерывной случайной величины и её вероятностное описание.
- •9. Двумерный нормальный закон распределения.
- •10. Определение дискретной случайной величины и её вероятностное описание.
- •1 0. Изменение закона распределения случайной величины при нелинейном преобразовании.
- •11. Числовые характеристики случайных величин. Физическая интерпретация среднего и дисперсии.
- •11. Закон распределения Релея.
- •12. Биномиальный закон распределение и способы его получения.
- •12. Закон распределения Релея-Райса.
- •13. Пуассоновский закон распределения как предельный случай биномиального.
- •13. Производящая функция и её применение при решении задач.
- •14. Локальная и интегральная предельные теоремы Муавра-Лапласа.
- •16. Лемма Маркова.
- •16. Закон распределения Эрланга.
- •17. Регрессионный анализ. Сглаживание экспериментальных зависимостей по методу наименьших квадратов.
- •17. Определение энергетического спектра случайного процесса.
- •18. Методы увеличения длины периода псевдослучайной последовательности.
- •18. Точечные оценки параметров и их свойства.
- •19.Разложение Карунена-Лоэва.
- •19. Определение акф случайного процесса.
- •20. Канонические разложения случайных величин.
- •20. Два определения случайного процесса и их эквивалентность.
- •22. Способы генерирования случайной величины с гауссовым законом распределения.
- •22. Энергетический спектр детерминированного процесса и временная автокорреляционная функция.
- •23. Генерирование случайных чисел методом Неймана.
- •23. Интервальные оценки параметров.
- •24.Проверка простой гипотезы против простой альтернативы.
- •24. Марковские эргодические последовательности.
- •25. Гипотеза о среднем значении случайной величины с нормальным законом распределения при неизвестной дисперсии.
- •25. Определение стационарных случайных процессов. Эргодичность.
- •26. Гипотеза о равенстве двух дисперсий.
- •26. Получение несмещенной оценки дисперсии гауссова закона распределения.
- •27. Имитация двух зависимых событий.
- •27. Закон распределения Эрланга.
- •28. Требования, предъявляемые к свойствам базовой последовательности случайных чисел.
- •28. Гипотеза о равенстве двух средних значений.
- •29. Приближенные методы генерирования случайных чисел с заданным законом распределения.
- •29. Метод моментов при оценке параметров.
- •30. Гипотеза о среднем значении случайной величины с нормальным законом распределения при известной дисперсии.
- •30. Марковские эргодические последовательности.
- •31. Программное генерирование случайных чисел. Алгоритмы.
- •31. Гипотеза о дисперсии нормального закона распределения.
- •32. Получение случайной величины с заданным законои распределения посредством нелинейного преобразования случайной величины с равномерным законом распределения.
- •32. Оценка параметров по методу максимального правдоподобия.
- •33. Критерии согласия Колмогорова и Пирсона.
- •33. Нестационарный пуассоновский поток.
- •34. Линеаризация функции нескольких случайных аргументов.
- •34. Связь между акф и энергетическим спектром случайного процесса.
- •35. Связь нормального закона распределения с гамма-распределением.
- •35. Стационарный пуассоновский поток.
16. Лемма Маркова.
Л
емма
Маркова:
где t2
- произвольное
число.
Лемма Маркова позволяет вычислить вероятность того, что j значений
с лучайной величины x будут лежать левее xt2.
Нера́венство Ма́ркова в теории вероятностей даёт оценку вероятности, что случайная величина превзойдёт по модулю фиксированную положительную константу, в терминах её математического ожидания. Получаемая оценка обычно достаточно груба. Однако, она позволяет получить определенное представление о распределении, когда последнее не известно явным образом.
Формулировка
Пусть случайная
величина
определена на вероятностном пространстве
,
и её математическое ожидание конечно.
Тогда
,
где a > 0.
Теорема Маркова.
Если имеются
зависимые случайные величины X1,
X2,
… , Xn
и если при
будет
то среднее арифметическое наблюденных значений случайных величин X1, X2, … , Xn сходится по вероятности к среднему арифметическому их мат ожиданий.
16. Закон распределения Эрланга.
Потоки Эрланга также являются потоками с ограниченным последействием. Они образуются просеиванием простейшего потока. Суть этого просеивания в следующем: если изобразить на временной оси простейший поток, поставив в соответствие каждому событию некоторую точку, и выбросить из потока каждую вторую точку, то получим поток Эрланга первого порядка. Оставив каждую третью точку, выбросив 2 промежуточные, получаем поток Эрланга второго порядка и так далее.
Потоком Эрланга kго порядка называется поток, получаемый из простейшего, если сохранить в нем каждую (k + 1) точку, выбросив остальные.
Очевидно, что простой поток может рассматриваться как поток Эрланга нулевого порядка.
Пусть
имеется простой поток с интервалами
Т1,
Т2,
... между событиями. Величина Т – промежуток
времени между двумя соседними событиями
в потоке Эрланга k-го
порядка
Т. к. первонач. поток простейший, то Т1,
Т2,
..., распределены по закону f(t)
= λe-λt
Закон
распределения Эрланга:
Еый прими событиями в потоке Эрланга
При k = 0 получаем показат. закон распределения. Мат ожидание и дисперсия равны:
Плотность
потока Эрланга равна:
Изменение порядка нормированного потока Эрланга позволяет получить различную степень последействия. Последействие возрастает с увеличением k.
17. Регрессионный анализ. Сглаживание экспериментальных зависимостей по методу наименьших квадратов.
Производится опыт, цель которого – исследование зависимости некоторой физической величины y от физич величины x, y=(x). Вид этой зависимости надо установить в опыте.
Пусть в ходе опыта мы получили ряд экспериментальных точек и построили график y=(x). Точки отклоняются от видимой общей закономерности из-за ошибок измерения.
Возникает типичная задача сглаживания экспериментальной зависимости (обработка экспериментальных данных с целью как можно боле точного отражения общей тенденции зависимости y от x, плюс сгладить незакономерные случайные отклонения).
Для этого применяют метод наименьших квадратов. Он дает возможность выбрать числовые параметры y=(x) так, чтобы (x) наилучшим образом отражала экспериментальные данные.
Тип кривой y=(x) выбирается непосредственно по внешнему виду экспериментальной зависимости.
Требование наилучшего согласования y=(x) и экспериментальных данных сводится к тому, чтобы сумма квадратов отклонений экспериментальных точек от сглаживающей кривой обращалась в минимум.
Рассм значение аргумента xi. Результат опыта yi, распределенный по нормальному закону с мат. ожиданием (xi) и со средним квадратич отклонением i , характеризует ошибку измерения. Допустим точность измерения во всех точках одинакова: 1=2=…=. Тогда нормальный закон, по кот. распределен yi имеет вид:
Произошло следущее: случайные величины (Y1,Y2,…,Yn) приняли совокупность значений (y1,y2,…,yn). Поставим задачу так подобрать мат. ожидания (x1), (x2),…, (xn), чтобы вероятность этого события была максимальна.
Результат: чотбы совокупность полученных значений y1,y2,…,yn была наивероятнейшей, нужно выбрать ф-цию (x) так, чтобы сумма квадратов отклонений полученных значений yi от (xi) была минимальна:
(*)
Запишем y как функцию не только x, но и параметров a,b,c,…: y=(x;a,b,c,…) и перейдем к задаче их определения. Нужно выбрать a,b,c,… так, чтобы при них выполнилось условие (*). Продифференцируем левую часть по каждому из параметров и приравняем все получающиеся производные нулю (находим экстремумы, ищем минимумы).
Итоговая система будет содержать столько уравнений, сколько неизвестных параметров a,b,c,…
В общем виде ее решить нельзя, можно лишь при конкретном виде функции y=(x).