
- •1.Понятие испытания. Простр-во элементарных событий.
- •2. Определение событий. Виды событий. Действия над событиями.
- •3. Классическое определение вероятности.
- •4. Относительная частота. Устойчивость относительн. Частоты.
- •5.Статистическая вероятность
- •6.Геометрическая вероятность
- •7.Вычисление вероятностей с использованием комбинаторных схем
- •8.Понятие об алгебре событий
- •9.Аксиомы Колмогорова
- •10.Понятие вероятностного пространства
- •11.Теорема сложения вероятностей для несовместноых и совместн. Событий
- •12.Теорема сложения вер. Для совместн. Событий
- •13.Условная вероятность. Теорема умножения вероятностей.
- •14.Независимые события. Теорема умножения для независим. Событий.
- •15.Вероятность появления хотя бы одного события
- •16.Формула полной вероятности
- •17.Формула Байеса
- •18.Формула Бернулли
- •19.Наивероятнейшее число появления событ. В последовательности независим. Испытаний
- •21.Функция Лапласа. Интегральная функц. Лапласа. Их применение для решения задач в условиях повторения испытаний.
- •20.Формула Пуассона
- •22.Понятие случайной величины. Дискретные и непрерывн. Случайн. Величины.
- •23.Ряд распределения дискретн. Случ. Величины
- •24.Функция распредел. Св и ее св-ва
- •25. Плотность распределения вероятностей непрерывн. Св и ее св-ва.
- •29. Мода, медиана, ассиметрия, эксцесс.
- •30.Начальные и центральные моменты случайных величин.
- •31. Биномиальный закон распределения.
- •32. Гипергеометрическое распределение.
- •33. Закон Пуассона
- •38. Закон распределения монотонной функции одного случайного аргумента.
- •39. Закон распределения линейной функции от аргумента, подчиненного нормальному закону.
- •40. Закон распределения функции двух св.
- •42. Неравенство Чебышева.
- •44. Понятие центральной предельной теоремы.
- •46. Генеральная совокупность и выборка. Выборочное распределение.
- •47. Вариационный ряд, его хар-ки. Гистограмма. Полигон.
- •48. Эмпирическая функция распределения и ее св-ва.
- •49. Числовые хар-ки выборочного распределения: выборочное среднее, выборочная дисперсия, медиана, ассиметрия, эксцесс, выборочные моменты.
- •50. Понятие оценки параметра. Св-ва оценок: состоятельность, несмещенность, эффективность.
- •51. Интервальные оценки параметров распределения. Доверительный интервал.
- •53. Описание гипотез. Простые и сложные гипотезы. Нулевая и конкурирующая гипотезы.
- •54. Критерии проверки статистических гипотез.
- •55. Уровень значимости и мощность критерия. Ошибки первого и второго рода.
38. Закон распределения монотонной функции одного случайного аргумента.
Имеется непрерывная СВ Х с плотностью распределения f(x). Другая СВ Y связана с нею функцианальной зависимостью: Y =φ(X). Требуется найти плотность распределения величины Y. Рассмотрим участок оси абсцисс (a, b), на котором лежат все возможные значения величины Х, т.е. P(a<X<b) = 1. В частном случае, когда область возможных значений Х ничем не ограничена, a = —∞; b = +∞. Способ решения поставленной задачи зависит от поведения функции φ на участке (a, b): возрастает ли она на этом участке или убывает, или колеблется. Рассмотрим случай, когда функция y= φ(x) на участке (a, b) монотонна. При этом отдельно проанализируем 2 случая: монотонного возрастания и монотонного убывания функции.
Функция y= φ(x) на участке (a, b) монотонно
возрастает. Когда величина Х принимает
различные значения на участке (a, b),
случайная точка (X, Y) перемещается только
по кривой y= φ(x); ордината этой точки
полностью определяется ее абсциссой.
Обозначим g(y) плотность распределения
величины Y. Для того чтобы определить
g(y), найдем сначала функцию распределения
величины Y: G(y) = P(Y<y). Проведем прямую
АВ, параллельную оси абсцисс на расстоянии
y от нее. Чтобы выполнить условие Y<y,
случайная точка (X, Y) должна попасть на
тот участок кривой, который лежит ниже
прямой АВ; для этого необходимо и
достаточно, чтобы СВ Х попала на участок
оси абсцисс от a до x, где х – абсцисса
точки пересечения кривой y= φ(x) и прямой
АВ. Следовательно, G(y) = P(Y<y) = P(a<X<х)
=
.
Верхний предел интеграла x можно выразить
через y: x =
(y),
где
–функция, обратная функции φ. Тогда
G(y) =
.
Дифференцируя последний интеграл по
переменной y, входящей в верхний предел,
получим: g(y) = G'(y) = f(
(y))
'(y)
– формула (1).
Функция y= φ(x) на участке (a, b) монотонно
убывает. В этом случае G(y) = P(Y<y) = P(x<X<b)
=
,
откуда g(y) = G'(y) = —f(
(y))
'(y)
– формула (2). Сравнивая формулы (1) и (2),
замечаем, что они могут быть объединены
в одну: g(y) = f(
(y))
|
'(y)|
- формула (3). Действительно, когда φ
возрастает, ее производная (а значит и
')
положительна. При убывающей функции φ
производная
'
отрицательна. Следовательно, формула
(3), в которой производная берется по
модулю, верна в обоих случаях. Таким
образом, задача о законе распределения
монотонной функции решена.
39. Закон распределения линейной функции от аргумента, подчиненного нормальному закону.
Пусть СВ Х подчинена нормальному закону
с плотностью: f(x) =
,
а СВ Y связана с нею линейной функцианальной
зависимостью: Y = aX+b, где a и b – неслучайные
коэффициенты. Требуется найти закон
распределения величины Y. Т.к. функция
y = ax+b монотонна (при a>0 возрастает
монотонно, при a<0 убывает монотонно),
то плотность распределения, согласно
формуле g(y) = f(
(y))
|
'(y)|,
будет равна g(y) =
,
где x =
(y)
= (y – b)/a; |
'(y)|
=1/|a|. (таблица не обязательна!!!)
f(x) |
|
y= φ(x) |
y = ax+b |
x = (y) |
x = (y – b)/a |
'(y) |
1/a |
| '(y)| |
1/|a| |
g(y) = f( (y)) | '(y)| |
g(y) = |
Преобразуя выражение g(y), имеем: g(y) =
,
а это есть не что иное, как нормальный
закон с параметрами:
.
Если перейти от средних квадратических
отклонений к пропорциональным им
вероятным отклонениям, получим Ey
= |a|Ex. Т.о., мы убедились, что линейная
функция от аргумента, подчиненному
нормальному закону, также подчинена
нормальному закону. Чтобы найти центр
рассеивания этого закона, нужно в
выражение линейной функции вместо
аргумента подставить его центр
рассеивания. Чтобы найти среднее
квадратическое отклонение этого закона,
нужно среднее квадратическое отклонение
аргумента умножить на модуль коэффициента
при аргументе в выражении линейной
функции. То же правило справедливо и
для вероятных отклонений.