
- •1. Предмет теории вероятностей. Достоверные, невозможные и случайные события. Виды случайных событий.
- •2. Классическое определение в-ти. Св-ва в-ти.
- •3. Основные формулы комбинаторики. Примеры непосредственного вычисления вероятностей
- •4. Относительная частота. Устойчивость относительной частоты
- •5. Теорема сложения вероятностей несовместных событий
- •6. Теорема умножения вероятностей.
- •7. Независимые события. Теорема умножения для независимых событий
- •8. Вероятность появления хотя бы одного события
- •9. Теорема сложения вероятностей совместных событий
- •10. Формула полной вер-ти.
- •11. Вероятность гипотез. Формула Байеса.
- •12. Повторение испытаний. Формула Бернулли. Приближенная формула Пуассона.
- •14.Случайные величины. Их виды и законы распределения. Мо дсв и его вероятностный смысл.
- •15. Свойства мо
- •16. Дисперсия и ско дсв. Св-ва дисперсии.
- •17. Биномиальное распределение. Распределение Пуассона.
- •18. Простейший поток событий
- •19. Закон больших чисел.
- •20. Функция распределения вероятностей и ее свойства.
- •21. Плотность распределения вероятностей нсв и ее свойства.
- •22. Математическое ожидание, дисперсия и ско непрерывных св.
- •23. Равномерное распределение. Распределение . Распределение Стьюдента.
- •24.Числовые хар-ки ср.Значения нескольких взаимно независимых одинаково распределенных св.
- •25. Нормальное распределение нсв. Вероятность попадания нормально распределенной св в заданный интервал.
- •26. Генеральная совокупность и выборка. Статистическое распределение. Эмпирическая функция распределения. Полигон и гистограмма.
- •27. Статистические оценки параметров распределения. Выборочная средняя как оценка математического ожидания теоретического распределения. Генеральная и выборочная дисперсия. Исправленная дисперсия.
- •28. Точечные оценки параметров распределения. Метод моментов.
- •29. Точечные оценки параметров распределения. Метод наибольшего правдоподобия.
- •30. Точность оценки, доверительная вероятность и доверительный интервал. Доверительный интервал для оценки математического ожидания нормального распределения при известном и неизвестном ско.
- •31. Методы расчета характеристик выборки.
- •32. Обработка результатов наблюдений. Метод наименьших квадратов. Линейная аппроксимация экспериментальных данных. Коэффициент корреляции и его свойства.
- •33. Зависимость между случайными величинами. Корреляционная зависимость и уравнение регрессии.
- •34. Статистическая гипотеза. Виды гипотез. Ошибки 1-го и 2-го рода. Статистический критерий проверки нулевой гипотезы. Наблюдаемое значение критерия.
- •§ 1. Статистическая гипотеза. Нулевая и конкурирующая, простая и сложная гипотезы
- •§ 2. Ошибки первого и второго рода
- •§ 3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое значение критерия
- •35. Критическая область. Отыскание критических областей. Мощность критерия.
- •§ 4. Критическая область. Область принятия гипотезы. Критические точки
- •§ 5. Отыскание правосторонней критической области
- •§ 6. Отыскание левосторонней и двусторонней критических областей
- •§ 7. Дополнительные сведения о выборе критической области. Мощность критерия
- •36. Сравнение двух дисперсий нормальных генеральных совокупностей.
- •37. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности.
14.Случайные величины. Их виды и законы распределения. Мо дсв и его вероятностный смысл.
Случайной называют (СВ) величину, к-рая в результате испытаний примет одно только одно возможное значение, наперед не известное и зависящее от случайных величин, к-рые учесть невозможно.
Если СВ Х имеет 3 возможных значения, то они обозн-ся х1, х2, х3.
Дискретная СВ (ДСВ) называют СВ, к-рое может принимать отдельные изолированные значения.
Непрерывная СВ (НСВ) – СВ, к-рая может принимать любые значения из некоторого интервала.
Например, дальность полёта снаряда – НСВ.
Для хар-ки СВ перечня ее возможных значений недостаточно. Нужно ук-ть вер-ти этих возможных значений.
Законом распределения СВ называют соответствие м/у ее возможными значениями и их вер-тей. М.б. задан графич., аналитич., таблично
По лпр-ю СВ Х=х1, Х=х2,…,Х=хn обр-ют полную группу несовместных событий, поэтому сумма их вер-тей =1: р1+р2+…+рn=1.Если в прямоуг. СК построить точки (хi;pi) и соединить из ломаной, то получим полигон распределения.
З-н распределения полностью хар-ет СВ, однако часто необходимо иметь такие хар-ки СВ, к-ые описывали ее суммарно. СВ имеют подобные числовые хар-ки: МО и дисперсия.
МО ДСВ называют сумму произведений возможных ее значений на их вер-ть. М(Х)=mх=Σxipi
Рассмотрим
результаты наблюдений над СВ Х, возможные
значения к-рой х1,
х2,
…, хn.
Допустим, что при испытании СВ Х приняла
значение =х1
n1
раз, значение х2
n2
раз, …, хk
nk
раз. Найдем ср.знач. из всех наблюдаемых
значений:
Если
и разделить почленно все слагаемые:
n1/n=w1;
nk/n=wk
– относит.частоты значений х1,
..хk.
При дост.большом
n
относит.частоты≈вер-тям соответствующих
значений СВ Х. Тогда
Т.о. МО СВ ≈ее ср.знач. В этом и заключается вероятностный смысл МО. Можно сказать, что МО явл-ся теоретич.хар-кой СВ, а ср.знач. – эмпирич. ее значением.
15. Свойства мо
Св-во 1. Математическое ожидание постоянной величины равно самой постоянной:
М (С) = С.
Доказательство. Будем рассматривать постоянную С как дискретную случайную величину, которая имеет одно возможное значение С и принимает его с вероятностью р =1. Следовательно,
М(С) = С·1=С.
Две случ.величины Х и У назыв-ся независимыми, если з-н распределения одной из них не зависит от того, какие значения принимает другая величина.
Произведением двух СВ Х и У назыв-ся СВ ХУ, возможные значения к-рой = произведениям каждого из возможных значений одной на каждое возможное значение другой, а вер-ти возможных значений СВ ХУ = произведениям вер-тей возможных значений сомножителей.
Св-во 2. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий:
M(XУ) = M(X)M(У).
Док-во: приведем для СВ, имеющих по 2 возможных значения:
х
х1
х2
р
рх1
рх2
у
у1
у2
р
ру1
ру2
ху
х1у1
х2у2
х1у2
х2у1
р
рх1ру1
рх2ру2
рх1ру2
рх2ру1
Тогда по опр-ю МО имеем: М(ХУ)= х1у1· рх1ру1+ х2у2· рх2ру2+х1у2·рх1ру2+х2у1· рх2ру1=х1рх1(ру1у1+ ру2у2)+х2рх2(ру1у1+ ру2у2)=(х1рх1+х2рх2)(ру1у1+ ру2у2)=М(Х)М(У). ЧТД
Замечание: Независимость СВ Х и У использовано при вынесении множителя ру1у1+ ру2у2 за скобки, т.к. это возможно при условии равенства выражений в обеих скобках, т.е. при одинаковом з-не распределения СВ У в случаях Х=х1 и Х=х2.
Следствие. Постоянный множитель можно выносить за знак математического ожидания:
М (СХ) = СМ (X).
Док-во: СВ Х и С независимы по смыслу. Поэтому М(СХ)=М(С)·М(Х), т.к. М(С)=С=>ЧТД
Замечание. Св-во 2 МО можно обобщить для нес-ких взаимно независимых СВ, например, для трех СВ: М(ХУZ)=М(Х)+М(У)+М(Z)
Суммой двух СВ Х и У назыв-ся СВ Х+У, возможные значения к-рой равны суммам каждого из возможных значений одной с каждым возможным значением другой, а вер-ти возможных значений СВ Х+У= произведениям вер-тей возможных значений слогаемых. Табл.распределения Х+У
х
х1
х2
р
рх1
рх2
у
у1
у2
р
ру1
ру2
х+у
х1+у1
х2+у2
х1+у2
х2+у1
р
рх1ру1
рх2ру2
рх1ру2
рх2ру1
М(Х+У)= (х1+у1)(рх1ру1)+(х2+у2)(рх2ру2)+(х1+у2)(рх1ру2)+(х2+у1)(рх2ру1)=
=х1рх1(ру1+ру2)+х2рх2(ру1+ру2)+у1ру1(рх1+рх2)+у2ру2(рх1+рх2)=(х1рх1+х2рх2)+(у1ру1+у2ру2)=М(Х)+М(У)
Замечание. Св-во 3 можно обобщить для нескольких СВ: М(Х+У+Z)=М(Х)+М(У)+М(Z)
Пример 1. Реш-е: М(х)=2·0,3+4·0,6+5·0,1=3,5; М(у)=9,6; М(ХУ)=9,6*3,5=23,6
Пример 2. Реш-е: М(Х)=1/6(1+2+3+4+5+6)=7/2
СВ(У)-число выпавших очков на второй кости. Она идентична СВ(Х), т.е. Х=У, тогда: М(Х+У)=М(2Х)=2М(Х)=14/2=7