
- •1. Предмет и аксиомы теории вероятностей
- •1. Нормальный закон распределения и центральная предельная теорема.
- •2. Классическое определение вероятности. Геометрические вероятности.
- •2. Вычисление среднего и дисперсии биномиального и нормального законов распределения.
- •3. Модель теории вероятностей. Вероятностное пространство.
- •3. Характеристическая функция и её свойства.
- •4. События. Операции над событиями.
- •4. Функция регрессии и ее физическая интерпретация.
- •5. Понятие статистической зависимости. Условные вероятности. Необходимое и достаточное условие независимости событий.
- •5. Кумулянтная функция и её свойства.
- •6. Формула полной вероятности.
- •6. Линейная функция регрессии.
- •7. Формула Байеса.
- •7. Применение линейной функции регрессии в задаче измерения физической величины.
- •8. Теоремы сложения и умножения вероятностей.
- •8. Характеристические и кумулянтные функции нормального, биномиального и пуассоновского законов распределения.
- •9. Определение непрерывной случайной величины и её вероятностное описание.
- •9. Двумерный нормальный закон распределения.
- •10. Определение дискретной случайной величины и её вероятностное описание.
- •1 0. Изменение закона распределения случайной величины при нелинейном преобразовании.
- •11. Числовые характеристики случайных величин. Физическая интерпретация среднего и дисперсии.
- •11. Закон распределения Релея.
- •12. Биномиальный закон распределение и способы его получения.
- •12. Закон распределения Релея-Райса.
- •13. Пуассоновский закон распределения как предельный случай биномиального.
- •13. Производящая функция и её применение при решении задач.
- •14. Локальная и интегральная предельные теоремы Муавра-Лапласа.
- •16. Лемма Маркова.
- •16. Закон распределения Эрланга.
- •17. Регрессионный анализ. Сглаживание экспериментальных зависимостей по методу наименьших квадратов.
- •17. Определение энергетического спектра случайного процесса.
- •18. Методы увеличения длины периода псевдослучайной последовательности.
- •18. Точечные оценки параметров и их свойства.
- •19.Разложение Карунена-Лоэва.
- •19. Определение акф случайного процесса.
- •20. Канонические разложения случайных величин.
- •20. Два определения случайного процесса и их эквивалентность.
- •22. Способы генерирования случайной величины с гауссовым законом распределения.
- •22. Энергетический спектр детерминированного процесса и временная автокорреляционная функция.
- •23. Генерирование случайных чисел методом Неймана.
- •23. Интервальные оценки параметров.
- •24.Проверка простой гипотезы против простой альтернативы.
- •24. Марковские эргодические последовательности.
- •25. Гипотеза о среднем значении случайной величины с нормальным законом распределения при неизвестной дисперсии.
- •25. Определение стационарных случайных процессов. Эргодичность.
- •26. Гипотеза о равенстве двух дисперсий.
- •26. Получение несмещенной оценки дисперсии гауссова закона распределения.
- •27. Имитация двух зависимых событий.
- •27. Закон распределения Эрланга.
- •28. Требования, предъявляемые к свойствам базовой последовательности случайных чисел.
- •28. Гипотеза о равенстве двух средних значений.
- •29. Приближенные методы генерирования случайных чисел с заданным законом распределения.
- •29. Метод моментов при оценке параметров.
- •30. Гипотеза о среднем значении случайной величины с нормальным законом распределения при известной дисперсии.
- •30. Марковские эргодические последовательности.
- •31. Программное генерирование случайных чисел. Алгоритмы.
- •31. Гипотеза о дисперсии нормального закона распределения.
- •32. Получение случайной величины с заданным законои распределения посредством нелинейного преобразования случайной величины с равномерным законом распределения.
- •32. Оценка параметров по методу максимального правдоподобия.
- •33. Критерии согласия Колмогорова и Пирсона.
- •33. Нестационарный пуассоновский поток.
- •34. Линеаризация функции нескольких случайных аргументов.
- •34. Связь между акф и энергетическим спектром случайного процесса.
- •35. Связь нормального закона распределения с гамма-распределением.
- •35. Стационарный пуассоновский поток.
4. Функция регрессии и ее физическая интерпретация.
ξ1 и ξ2 – две случайные величины (в общем случае они зависимы). В результате опыта получается два значения x1 и x2, причем x1 мы наблюдаем, а x2 нам не доступно. Вопрос в том, как оценить x2 по наблюдению x1: найти ^x2 = g(x1) с минимальной ошибкой.
Функция регрессии – зависимость среднего значения одной величины от значения другой величины.
урожайность
g(x1)
количество осадков
x1
x2 - ^x2 = x2 – g(x1) – ошибка.
Если x1 фиксировано, то ξ2 – g(x1) – ошибка.
Условная дисперсия: σ2(x1) = (ξ2 – g(x1))2.
Полная дисперсия: σ2 = ∫σ2(x1)ω(x1)dx1 = ∫∫(x2 – g(x2))2 ω(x1)ω(x2|x1)dx1dx2 , ω(x1)ω(x2|x1) = ω(x2,x1).
Решение: g(x1) = ∫x2 ω(x2|x1)dx2 = m(x1) – функция регрессии.
Задача сводится к нахождению g(x), у которой дисперсия σ2 минимальна для любых x.
5. Понятие статистической зависимости. Условные вероятности. Необходимое и достаточное условие независимости событий.
Если p(A) зависит только от комплекса условий D, тогда p(A) при заданном D является полной и безусловной.
Если B влияет на D, тогда p(A) зависит от B, это условная вероятность.
p(A|B) – вероятность события А при условии В.
В влияет не на А, а на р(А) через комплекс условий D.
A зависит от В, если р(А) зависит от появления В.
А НЕ зависит от В, если р(А|В) = р(А).
П
ример:
Есть огромная мишень, мы в нее стреляем. Каждая точка (попадание) – элементарное событие. Промахнуться мы не можем. У нас 1 кг пуль. В А попало 200 г, в В – 300 г, АВ – 50 г.
р(А) = 200/1000, р(В) = 300/1000, р(АВ) = 50/1000.
р(А|В) = 50/300 – вероятность события А, при том что В уже произошло. р(В|А) = 50/200.
р(А|В) = р(АВ)/р(В) – условная вероятность.
р(АВ) = р(В)р(А|В) = р(А)р(В|А) – формула умножения вероятностей.
Из формулы умножения вероятностей и определения независимости (А НЕ зависит от В):
р(АВ) = р(А)р(В) – необходимое и достаточное усл. независимости событий («вероятн произведения = произведению вероятностей»).
НЕпересекающиеся события ЗАВИСИМЫ.
О пересекающихся же нельзя сказать заранее зависимы или нет, но они точно СОВМЕСТНЫ.
Если события попарно независимы, это еще не значит, что они независимы в совокупности.
5. Кумулянтная функция и её свойства.
Кумулянтная функция – ψ(u) = ln Θ(u)
Свойства:
Кумулянтная функция суммы равна сумме кумулянтных функций. ψη(u) = ψξ1(u) + ψξ2(u), где η = ξ1 + ξ2
2)
u = 0
u = 0 u = 0
æk , где æk - кумулянт
ækη = ækξ1 + ækξ2 (кумулянт суммы равен сумме кумулянтов).
3) Если η = сξ, то Θη(u) = Θξ(cu) и ψη(u) = ln Θξ(cu), а ækη = сkækξ
4) Кумулянты и моменты:
m1 = æ1
m2 = æ2 + æ12
m3 = æ3 + 3 æ1 æ2 + æ13
æ1 = m1
æ2 = m2 - m12 = μ1 = D
æ3 = m3 - 3m1m2 + 2m13 = μ
Пример:
ω(x) = |
{ |
(1/a)e-(x/a) , x ≥ 0 |
0 , x < 0 |
,
и по формуле
,
где akk!
= mk
, где æk = ak(k – 1)! – кумулянт