
- •Введение
- •1. Вопросы теории вероятностей и математической статистики
- •Статистические признаки. Распределение качественных и количественных признаков
- •1.2. Понятия генеральной совокупности и выборочных характеристик
- •1.3. Статистические оценки параметров генеральной совокупности
- •1.3.1. Точечные оценки и их свойства
- •1.3.2. Интервальные оценки
- •1.4. Распределение выборочных характеристик
- •1.4.1. Законы распределения, применяемые при выборочном контроле
- •1.4.2. Нормальное распределение
- •1.4.3. Распределение хи-квадрат
- •1.4.4. Распределение Стьюдента
- •1.4.5. Распределение Фишера (f-распределение)
- •1.4.6. Биномиальное распределение
- •1.4.7. Распределение Пуассона
- •1.4.8. Гипергеометрическое распределение
- •1.5. Теория выборочного контроля
- •1.5.1. Принцип практической уверенности. Формулировка закона больших чисел
- •1.5.2. Неравенство Маркова и Чебышева
- •1.5.3. Неравенство Чебышева
- •1.5.4. Теорема Чебышева (частный случай)
- •1.5.5. Теорема Чебышева (общий случай)
- •1.5.6. Теорема Бернулли
- •1.5.7. Теорема Пуассона
- •1.6. Проверка статистических гипотез
- •2. Статистический приемочный контроль
- •2.1.Способы представления продукции на контроль
- •2.2.Методы отбора единиц продукции в выборку
- •Планы статистического приемочного контроля
- •Виды планов контроля
- •2.3.2. Уровни дефектности
- •2.3.3. Оперативная характеристика плана контроля
- •2.3.4. Одноступенчатые планы контроля
- •2.3.5. Контроль с разбраковыванием
- •2.3.6. Многоступенчатый контроль
- •2.3.7. Последовательный контроль
- •Принципы применения стандартов на статистический приемочный контроль по альтернативному признаку
- •Статистический приемочный контроль по количественному признаку
- •Планы непрерывного выборочного контроля
- •2.6.1.Общие положения
- •2.6.2. Одностадийные планы
- •2.6.3. Многостадийные планы
- •Система экономических планов
- •Заключение
- •Библиографический список
- •Оглавление
- •2.3.7. Последовательный контроль 82
- •394026 Воронеж, Московский просп., 14
1.5.2. Неравенство Маркова и Чебышева
Доказательство ЗБЧ основано на неравенстве Чебышева. Неравенство Маркова в литературе называется леммой Маркова или иногда леммой Чебышева, и является частным случаем неравенства Чебышева.
Лемма Маркова. Если случайная величина Х не принимает отрицательных значений, то для любого положительного числа справедливо неравенство
.
(1.103)
Доказательство.
1)
Пусть Х
– дискретная случайная величина,
заданная рядом распределения, причем
.
Все значения СВ разобьем на две группы. К первой группе отнесем значения СВ, меньшие α (пусть это будут х1, х2, …, хn), а ко второй группе отнесем все остальные значения СВ, т.е. большие либо равные α (хk+1, xk+2, …, xn).
Как известно, математическое ожидание дискретной случайной величины Х задается формулой:
.
(1.104)
Отбросим в правой части формулы первые К слагаемых. Так как pi>0, xi≥0 и, кроме того, при xi≥α, i≥k+1, будет иметь место следующее неравенство:
.
(1.105)
Из выражения
(1.106)
следует, что
.
(1.107)
Разделим обе части последнего неравенства на α и получим неравенство (1.103).
2) Пусть теперь Х – непрерывная случайная величина. Так как по условию Х не принимает отрицательных значений, то ее плотность вероятности f(x)=0 при всех x<0. Поэтому
(1.108)
И опять делим на α, получаем неравенство (1.103). Лемма доказана.
Замечание. События x<α и x≥α – противоположные, поэтому, используя неравенство (1.103), получаем
.
(1.109)
1.5.3. Неравенство Чебышева
Вероятность
того, что отклонение случайной величины
Х
от ее математического ожидания по
абсолютной величине будет меньше данного
положительного числа ε,
ограничена снизу величиной
,
т.е.
.
(1.110)
Доказательство.
Рассмотрим случайную величину ((Х-М(Х))2. Она не принимает отрицательных значений, поэтому можно применить к ней лемму Маркова, а точнее, неравенство (1.109), полагая в нем α=ε2:
.
(1.111)
По определению дисперсии
,
(1.112)
а
вероятности неравенства
и
- совпадают (равны), поэтому неравенство
(1.5.9) принимает вид (1.110).
Замечание 1. Если случайная величина Х непрерывна, то
,
поэтому
в левой части неравенства (1.103) вместо
можно писать
,
а в левой части неравенства (1.110) вместо
можно писать
.
Однако для дискретных случайных величин
замена неправомерна.
Замечание 2. Из неравенства (1.110) переходом к противоположному событию можно получить неравенство
.
(1.113)
1.5.4. Теорема Чебышева (частный случай)
Эта
теорема устанавливает связь в
количественной форме между средней
арифметической
наблюдаемых значений случайной величины
Х
и ее математического ожидания М(Х)=а.
Она формулируется следующим образом.
Теорема. При неограниченном увеличении числа n независимых испытаний средняя арифметическая наблюдаемых значений случайной величины сходится по вероятности к ее математическому ожиданию, т.е. для любого положительного числа ε
.
(1.114)
Доказательство.
Заметим, что можно рассматривать Х1, Х2, …, Хn не только как наблюдаемые в соответствующих независимых опытах значения случайной величины Х, но и как независимые случайные величины, имеющие одинаковое распределение (такое же, как у Х), в частности, одинаковое математическое ожидание а=М(Х) и дисперсию D(X). По свойствам математического ожидания и дисперсии имеем:
(1.115)
(1.116)
Применим к случайной величине х – неравенство Чебышева (1.110)
. (1.117)
Подставляя
в это неравенство значения
и
,
получим
.
(1.118)
Если теперь в полученном неравенстве взять сколь угодно малое положительное ε и неограниченно увеличить n, то получим
,
(1.119)
что и доказывает теорему Чебышева.
Из
рассмотренной теоремы вытекает важный
практический вывод. Он состоит в том,
что неизвестное значение математического
ожидания случайной величины можно
заменить средним арифметическим
значением, полученным по достаточно
большому числу опытов. При этом, чем
больше проведено опытов для вычисления,
тем с большей вероятностью (надежностью)
можно ожидать, что связанная с этой
заменой ошибка
не превзойдет заданную величину ε.
Кроме
того, при известном значении дисперсии
D(X),
используя неравенство (1.110), можно решать
ряд других практических задач. Например,
по заданным значениям вероятности
(надежности)
и максимальной допустимой ошибке ε,
определить число необходимых опытов
n;
или по заданным Р
и n
определить ε;
или, наконец, по заданным ε
и n
определить границу вероятности события
.