- •Часть 1. Конспекты лекций
- •Правила комбинаторики
- •Основные понятия комбинаторики
- •1.2. Основные понятия теории вероятностей
- •Начальные понятия теории вероятностей
- •Определения вероятности событий
- •Лекция 2. Основные теоремы теории вероятностей случайных событий
- •2.1. Действия над событиями
- •2.2. Вероятность суммы событий
- •Следствия из теоремы сложения
- •2.3. Вероятность произведения событий
- •2.4. Формула полной вероятности. Формула Байеса.
- •2.5. Теорема Бернулли
- •2.6. Предельные теоремы в схеме Бернулли.
- •3. Интегральная теорема Муавра-Лапласа
- •3.1. Начальные понятия
- •3.2. Функция распределения свх f(X) (интегральная функция распределения)
- •3.3. Функция плотности вероятности нсв f(X)
- •3.4. Числовые характеристики случайных величин
- •3.5. Виды законов распределения случайных величин
- •1. Биномиальный закон распределения
- •2. Закон Пуассона
- •3. Нормальное распределение (закон Гаусса)
- •4 .Логнормальное распределение
- •3.6. Вероятность попадания нсв х в заданный промежуток
- •4.1. Система двух дискретных случайных величин (двумерная дискретная св)
- •Начальные понятия.
- •Числовые характеристики системы двух св
- •4.2. Предельные теоремы теории вероятностей
- •Закон больших чисел
- •5.1.Предмет математической статистики. Генеральная и выборочная совокупность.
- •5.2. Статистическое распределение выборки и его графическое изображение
- •5.3. Числовые характеристики статистического распределения
- •6.1. Оценка параметров генеральной совокупности по выборке
- •Свойства статистических оценок
- •Точечные оценки математического ожидания, дисперсии и вероятности.
- •Интервальное оценивание параметров.
- •Доверительные интервалы для параметров нормального распределения
- •Интервальная оценка параметров генеральной лингвистической совокупности.
- •Число степеней свободы
- •Определение минимально достаточного объёма выборки в грамматических, фонетико-фонологических и лексикологических исследованиях.
- •6.2. Проверка статистических гипотез. Исследование вероятностных свойств языка и статистики текста с помощью метода гипотез
- •Проверка лингвистических гипотез с помощью параметрических критериев
- •Проверка гипотез с помощью непараметрических критериев
- •Критерий Пирсона
- •Часть 2. Вопросы и задания для практических работ.
- •1. Элементы комбинаторики
- •Часть 3. Задания для самостоятельной работы
- •1. Графический способ.
- •2. Критерий асимметрии и эксцесса.
- •3. Критерий Колмогорова-Смирнова.
- •4. Критерий Пирсона
- •Приложение 1.1. Значения интегральной функции Лапласа
- •2.Место модуля в структуре ооп:
- •3.Краткое содержание модуля тв и мс.
- •4. Компетенции обучающегося, формируемые в результате освоения модуля тв и мс дисциплины «Основы математической обработки информации»
- •5. Структура и содержание модуля тв и мс дисциплины «Основы математической обработки информации»
Лекция 2. Основные теоремы теории вероятностей случайных событий
Определение вероятности события по классической формуле и с помощью статистического определения не всегда удобно, а иногда и невозможно. Например, чрезвычайно громоздко определять вероятность появления цепочки лингвистических элементов: букв, слогов, слов и т.п. по классической формуле, а определить вероятность появления в речи звука определённой частоты по классической формуле невозможно. Цепочка языковых элементов представляет собой сумму или произведение лингвистических событий, вероятность каждого из которых уже известна (статистическая вероятность). Для нахождения вероятности цепочки лингвистических событий применяют теоремы сложения или умножения вероятностей.
2.1. Действия над событиями
С
А
В
умма двух или нескольких событий ‑ это событие,
которое заключается в появлении хотя бы одного из этих событий.
Пример. Суммой событий А=«на игральной кости выпало меньше 3 очков» и В= «на игральной кости выпало 2 или 3 очка» будет событие А+В =«на игральной кости выпало 1, или 2, или 3».
П
А
В
роизведение двух или нескольких событий ‑
это событие, которое заключается в появлении всех данных событий вместе.
Пример. Произведением событий А= «на игральной кости выпало меньше 3 очков» и В= «на игральной кости выпало 2 или 3 очка»
будет событие А В =«на игральной кости выпало 2 очка».
Пример. Пусть событие М = «выбранное слово ‑ имя существительное», событие D = «выбранное слово является подлежащим», тогда М+D = «выбранное слово является существительным, но не подлежащим, или подлежащим, но не существительным или и тем и другим»; М D = «выбранное слово является и существительным и подлежащим».
2.2. Вероятность суммы событий
Т.1.1. Вероятность суммы двух совместных событий равна сумме вероятностей этих событий минус вероятность их произведения.
Т.1.2.
Если А и В – несовместные,
то
,
тогда вероятность их суммы равна сумме
вероятностей этих событий
Теорема 1.2. верна для конечного числа несовместных событий.
Пример. Подбрасываются две игральные кости. Найти вероятность выпадения 6 очков хотя бы на одной.
Решение. Пусть событие А = « выпало 6 на первой», В = «выпало 6 на второй». Тогда А+В = «выпало 6 хотя бы на одной».
Р(А+В)=Р(А)+Р(В)-Р(АВ), т.к. А и В- совместные события.
Р(А+В)=1/6+1/6-1/36=11/36.
Ответ: вероятность выпадения хотя бы одной шестёрки равна11/36.
Следствия из теоремы сложения
Следствие
1. Пусть
события А1,
А2,
…, Аn
образуют полную
группу,
тогда
Сумма вероятностей событий, образующих полную группу равна 1.
Пример. Японская фирма – производитель фототехники, получает заказы из Европы на трёх языках: немецком, английском и французском. Для определения количества сотрудников определённого профиля, фирме требуется найти вероятность поступления заказа на французском языке, если вероятность заказа на английском равна 0,7, а на немецком – 0,2.
Решение. События А=« поступление заказа на английском языке», В=« поступление заказа на немецком языке» и С=« поступление заказа на французском языке» образуют полную группу событий. По следствию 1, Р(А)+Р(В)+Р(С)=1, Р(С)=1-Р(А)-Р(В), Р(С)=1-0,7-0,2=0,1.
Следствие 2.
Если
- противоположные
события, то они образуют полную группу,
тогда по следствию (1):
→
Пример. Вероятность того, что нужная книга будет найдена в электронной библиотеке, равна 0,82, тогда, по следствию 2, вероятность того, что книга не будет найдена, равна 1-0,82=0,18.
