- •Часть 1. Конспекты лекций
- •Правила комбинаторики
- •Основные понятия комбинаторики
- •1.2. Основные понятия теории вероятностей
- •Начальные понятия теории вероятностей
- •Определения вероятности событий
- •Лекция 2. Основные теоремы теории вероятностей случайных событий
- •2.1. Действия над событиями
- •2.2. Вероятность суммы событий
- •Следствия из теоремы сложения
- •2.3. Вероятность произведения событий
- •2.4. Формула полной вероятности. Формула Байеса.
- •2.5. Теорема Бернулли
- •2.6. Предельные теоремы в схеме Бернулли.
- •3. Интегральная теорема Муавра-Лапласа
- •3.1. Начальные понятия
- •3.2. Функция распределения свх f(X) (интегральная функция распределения)
- •3.3. Функция плотности вероятности нсв f(X)
- •3.4. Числовые характеристики случайных величин
- •3.5. Виды законов распределения случайных величин
- •1. Биномиальный закон распределения
- •2. Закон Пуассона
- •3. Нормальное распределение (закон Гаусса)
- •4 .Логнормальное распределение
- •3.6. Вероятность попадания нсв х в заданный промежуток
- •4.1. Система двух дискретных случайных величин (двумерная дискретная св)
- •Начальные понятия.
- •Числовые характеристики системы двух св
- •4.2. Предельные теоремы теории вероятностей
- •Закон больших чисел
- •5.1.Предмет математической статистики. Генеральная и выборочная совокупность.
- •5.2. Статистическое распределение выборки и его графическое изображение
- •5.3. Числовые характеристики статистического распределения
- •6.1. Оценка параметров генеральной совокупности по выборке
- •Свойства статистических оценок
- •Точечные оценки математического ожидания, дисперсии и вероятности.
- •Интервальное оценивание параметров.
- •Доверительные интервалы для параметров нормального распределения
- •Интервальная оценка параметров генеральной лингвистической совокупности.
- •Число степеней свободы
- •Определение минимально достаточного объёма выборки в грамматических, фонетико-фонологических и лексикологических исследованиях.
- •6.2. Проверка статистических гипотез. Исследование вероятностных свойств языка и статистики текста с помощью метода гипотез
- •Проверка лингвистических гипотез с помощью параметрических критериев
- •Проверка гипотез с помощью непараметрических критериев
- •Критерий Пирсона
- •Часть 2. Вопросы и задания для практических работ.
- •1. Элементы комбинаторики
- •Часть 3. Задания для самостоятельной работы
- •1. Графический способ.
- •2. Критерий асимметрии и эксцесса.
- •3. Критерий Колмогорова-Смирнова.
- •4. Критерий Пирсона
- •Приложение 1.1. Значения интегральной функции Лапласа
- •2.Место модуля в структуре ооп:
- •3.Краткое содержание модуля тв и мс.
- •4. Компетенции обучающегося, формируемые в результате освоения модуля тв и мс дисциплины «Основы математической обработки информации»
- •5. Структура и содержание модуля тв и мс дисциплины «Основы математической обработки информации»
3.2. Функция распределения свх f(X) (интегральная функция распределения)
Функция распределения случайной величины Х равна вероятности того, что случайная величина Х примет значение меньшее, чем x, x R
X<х
х
Свойства F(x):
а) F(x) – неубывающая, т.е. для всех х, таких, что x2 >х1, верно F(x2)≥F(x1);
б)
,
т.к. это вероятность;
в) При х→-∞, F(x) →0, т.к. F(-∞)=P(X<-∞)=0;
При х→∞, F(x) →1, т.к. F(∞)=P(X<∞)=1
Для НСВ Р(a<Х<b)=F(b)-F(a), при a<b
Доказательство:
P
(X<b)
= P(X<a)+P(a
Х<b)
X<a
a
Х<b
P (a Х<b)=P(X<b)- P(X<a)-Р(Х=а) = F(b)-F(a)
т.к. для НСВ Р(Х=а)=0 а b x
Задача 1. Вероятность появления глагола в произведениях Л.Н. Толстого равна 0,21, а в произведениях А.И. Куприна – 0,15 (статистическая вероятность) (Головин, 1971, с. 14). Из текста каждого автора произвольно выбирают по одному слову. Составить закон распределения случайной величины X – «Количество выбранных глаголов». Найти функцию распределения F(x) и построить её график.
Решение.
а) СВ Х может принимать значения 0; 1 или
2. Найдем вероятности их появления. Пусть
А - «выбран глагол из произведений
Л.Н. Толстого»,
В - «выбран глагол из произведений
А.И. Куприна». Р(А)=0,21, P(B)=0,15,
P(
)=0,79,
P(
)=0,85.
Р(Х=0)
=
=0,6715
(А и В независимые события)
P(X=1)=
0,297.
Р(Х=2) = Р(А В)=Р(А) Р(В)=0,0315.
Заполним таблицу:
Х |
0 |
1 |
2 |
Р |
0,6715 |
0,297 |
0,0315 |
Получили закон распределения Х.
б
)
Найдём
0 1 2 х
Вероятность того, что значения СВ Х будут меньше, чем
равна
нулю, т.к. нет таких значений СВ.
Вероятность того, что значения СВ Х будут меньше, чем х (0;1] равна Р(Х=0)= 0,6715, т.к. только значение 0 меньше, чем данные х.
Вероятность того, что значения СВ Х будут меньше равна
сумме вероятностей P(X=0) и P(X=1), т.к. Х=0 и Х=1 меньше, чем x из этого промежутка. F(x) = P(X=0)+P(X=1)= 0,6715+0,297=0,9685.
При х>2 F(x)=P(X=0)+P(X=1)+P(X=2)=1
Тогда функция F(x) будет иметь вид:
F(x)
1
0,6715
0,9685
0 1 2 x
Фунция распределения любой ДСВ всегда является разрывной ступенчатой функцией, скачки которой происходят в точках, соответствующих значениям СВ Х. Длина скачка равна вероятности СВ в данной точке.
Для НСВ функция распределения F(x) непрерывна на R.
3.3. Функция плотности вероятности нсв f(X)
(дифференциальная функция распределения)
Плотностью
вероятности f(x)
(или
плотностью распределения) непрерывной
СВ называется
первая производная от функции распределения
:
f(x) характеризует плотность, с которой распределяются значения СВ в данной точке.
Свойства f(x):
а
S=1
) f(x)≥0, т.к. F(x) – неубывающая;б) при х→-∞ или х→∞, f(x) →0;
в
х
) площадь фигуры между графикомплотности вероятности и осью х равна 1.
3.4. Числовые характеристики случайных величин
1. Математическое ожидание M(X) – характеризует среднее значение СВХ.
Для ДСВ математическое ожидание равно сумме произведений значений случайной величины на их вероятности.
Свойства М(Х):
а) математическое ожидание постоянной есть эта постоянная: М(С)=С .
б) постоянную можно выносить за знак математического ожидания: М(С∙Х)=С∙М(Х).
в) математическое ожидание суммы случайных величин равно сумме их математических ожиданий: М(Х+У)=М(Х)+М(У).
г) математическое ожидание отклонения СВ от М(Х) равно нулю: М(Х- М(Х))=0.
д) математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий: М(Х∙У)=М(Х)∙М(У).
2. Дисперсия D(X) характеризует разброс значений случайной величины относительно математического ожидания ( на сколько в среднем в квадрате отклоняются значения СВХ от математического ожидания).
Дисперсия D(X) равна математическому ожиданию квадрата отклонения значений СВ от её математического ожидания:
D(X) = М(Х-М(Х))2
Для ДСВ
дисперсия находится по формуле:
т.е.
Свойства D(X):
а) D(X)≥0 (дисперсия неотрицательна);
б) D(C)=0 (дисперсия постоянной равна нулю);
в) D(CX)=C2∙D(X) (постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат)
г) D(X+C) = D(X) (дисперсия не изменится, если к значениям случайной величины прибавить одно и то же постоянное число)
Более простая формула для вычисления дисперсии:
Доказательство: D(X) = М(Х-М(Х))2 = М(Х2-2Х∙ М(Х)+М2(Х))=
=М(Х2)-2М(Х∙М(Х))+М(М2(Х))=М(Х2) – 2М(Х)∙М(М(Х))+ М(М2(Х))=
=М(Х2)-2М(Х)∙М(Х)+ М2(Х) = М(Х2)-2М2(Х)+М2(Х)=М(Х2) - М2(Х)
(по свойствам М(Х)).
3. Среднее квадратическое отклонение σ(Х)
σ(Х) показывает на сколько в среднем отклоняются значения СВ от её математического ожидания. σ(Х) имеет те же единицы, что и М(Х).
4. Мода Мо(Х) – такое значение случайной величины Х, которое принимается с наибольшей вероятностью.
5. Медиана Ме (определяется для НСВ, функция распределения которой строго монотонна) – такое значение Х, для которого одинаково вероятно, что значения СВ окажутся меньше или больше его, т.е. Р(Х<Me)=P(X>Me)=1/2 .
6. Коэффициент асимметрии Аs (определяется для НСВ) – показатель асимметричности распределения, определяющий степень скошенности функции плотности вероятности этой величины.
7.
Коэффициент
эксцесса
Еx
(определяется для НСВ) – показатель,
служащий мерой островершинности кривой
функции плотности вероятности этой
величины.
Пример: Используя данные задачи 1, найдите математическое ожидание М(Х), дисперсию D(X) и среднее квадратическое отклонение σ(Х) случайной величины Х – «количество выбранных глаголов»
Решение. М(Х)=0 0,6715+1 0,297+2 0,0315=0,36;
D(X)=(0-0,36)2 0,6715+(1-0,36)2 0,297+(2-0,36)2 0,0315=0,294
.
