- •Часть 1. Конспекты лекций
- •Правила комбинаторики
- •Основные понятия комбинаторики
- •1.2. Основные понятия теории вероятностей
- •Начальные понятия теории вероятностей
- •Определения вероятности событий
- •Лекция 2. Основные теоремы теории вероятностей случайных событий
- •2.1. Действия над событиями
- •2.2. Вероятность суммы событий
- •Следствия из теоремы сложения
- •2.3. Вероятность произведения событий
- •2.4. Формула полной вероятности. Формула Байеса.
- •2.5. Теорема Бернулли
- •2.6. Предельные теоремы в схеме Бернулли.
- •3. Интегральная теорема Муавра-Лапласа
- •3.1. Начальные понятия
- •3.2. Функция распределения свх f(X) (интегральная функция распределения)
- •3.3. Функция плотности вероятности нсв f(X)
- •3.4. Числовые характеристики случайных величин
- •3.5. Виды законов распределения случайных величин
- •1. Биномиальный закон распределения
- •2. Закон Пуассона
- •3. Нормальное распределение (закон Гаусса)
- •4 .Логнормальное распределение
- •3.6. Вероятность попадания нсв х в заданный промежуток
- •4.1. Система двух дискретных случайных величин (двумерная дискретная св)
- •Начальные понятия.
- •Числовые характеристики системы двух св
- •4.2. Предельные теоремы теории вероятностей
- •Закон больших чисел
- •5.1.Предмет математической статистики. Генеральная и выборочная совокупность.
- •5.2. Статистическое распределение выборки и его графическое изображение
- •5.3. Числовые характеристики статистического распределения
- •6.1. Оценка параметров генеральной совокупности по выборке
- •Свойства статистических оценок
- •Точечные оценки математического ожидания, дисперсии и вероятности.
- •Интервальное оценивание параметров.
- •Доверительные интервалы для параметров нормального распределения
- •Интервальная оценка параметров генеральной лингвистической совокупности.
- •Число степеней свободы
- •Определение минимально достаточного объёма выборки в грамматических, фонетико-фонологических и лексикологических исследованиях.
- •6.2. Проверка статистических гипотез. Исследование вероятностных свойств языка и статистики текста с помощью метода гипотез
- •Проверка лингвистических гипотез с помощью параметрических критериев
- •Проверка гипотез с помощью непараметрических критериев
- •Критерий Пирсона
- •Часть 2. Вопросы и задания для практических работ.
- •1. Элементы комбинаторики
- •Часть 3. Задания для самостоятельной работы
- •1. Графический способ.
- •2. Критерий асимметрии и эксцесса.
- •3. Критерий Колмогорова-Смирнова.
- •4. Критерий Пирсона
- •Приложение 1.1. Значения интегральной функции Лапласа
- •2.Место модуля в структуре ооп:
- •3.Краткое содержание модуля тв и мс.
- •4. Компетенции обучающегося, формируемые в результате освоения модуля тв и мс дисциплины «Основы математической обработки информации»
- •5. Структура и содержание модуля тв и мс дисциплины «Основы математической обработки информации»
4 .Логнормальное распределение
Реальные распределения случайных лингвистических единиц не всегда хорошо описываются нормальным законом, обладая правосторонней асимметрией. В связи с этим делаются попытки моделировать эти эмпирические распределения. С этой точки зрения наибольший интерес представляет логарифмически нормальное (логнормальное) распределение. В этом случае нормально распределена не сама СВХ, а её логарифм. Функция плотности вероятности логнормального распределения имеет вид
,
где
.
Функция плотности вероятности логнормального распределения характеризуется островершинностью, и имеет правостороннюю (положительную) скошенность.
Г. Хердан («Квантитативная лингвистика», Лондон, 1964г.) использует логнормальное распределение для математической экспликации вероятностного построения словаря языка и его реализации в тексте. По его мнению, логнормальность словаря и текста отражает присущий естественному языку принцип оптимального кодирования информации.
3.6. Вероятность попадания нсв х в заданный промежуток
или
(по определению и свойствам функции F(x) и f(x)).
Если НСВ Х распределена по нормальному закону Х~N(a;σ), вероятность попадания Х в интервал (α;β) вычисляется по формуле
где – функция Лапласа (значения табулированы)
Свойства
:
а)
-
функция
Лапласа нечётная. б)
;
в)
Пример. СВ Х распределена по нормальному закону с параметрами a=2; σ=4: Х~N(-2;4).Найти вероятность того, что СВХ попадёт в промежуток: а)(0;3),б) (4; ∞), в) (-∞;1).
Решение.
а) Р(0<X<3)=
=Φ(0,25)Φ(0,5)=Φ(0,25)+Φ(0,5)
= 0,0987+0,1915=0,29;
б) Р(Х>4)
=
Р(4<X<∞)=
=
Φ(∞)
- Φ(0,5)=
0,5-0,1915=0,31;
в)
Р(X<1)=Р(-∞<X<3)=
=Φ(0,25)+Φ(∞)=0,0987+0,5=0,60
Иногда
для решения лингвистической задачи
необязательно находить вероятности
появления данного события 0,1,2,…N
раз, а достаточно указать наивероятнейшее
число появления этого события х0,
которое определяется по формуле
Лекция 4.
4.1. Система двух дискретных случайных величин (двумерная дискретная св)
В науке о языке часто рассматриваются вопросы о совместном функционировании случайных лингвистических величин, их взаимодействии и зависимости. Например, лингвистов интересует вопрос о существовании зависимости между частотой употребления частей речи в текстах, между длиной предложения и количеством букв в словах этого предложения, и т.п. В этом случае случайные величины рассматриваются совместно, т. е в системе. Мы рассмотрим систему двух СВ, свойства которой можной можно использовать при изучении систем с большим количеством случайных величин.
Начальные понятия.
1) Упорядоченная пара (Х;Y) случайных величин Х и Y называется системой двух СВ или двумерной СВ.
2) Закон распределения двумерной СВ – соответствие между значениями (Х ; Y) и их вероятностями.
3) СВ Х и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая.
4) Две СВ Х и Y называются функционально зависимыми, если зная значение одной из них, можно точно указать значение другой.
5) СВ Х и Y связаны стохастической зависимостью, если зная значение одной из них, можно указать закон распределения, а не точное значение другой.
Примеры: пары случайных величин Х – «рост человека», Y – « вес этого же человека»; U – «количество существительных в отрывке текста определённой длины», и V – «количество наречий в том же отрывке текста» связаны стохастической зависимостью;
Операции над независимыми случайными величинами
1) умножение на число: значения случайных величин умножаются на это число, а их вероятности не изменяются;
2) возведение в натуральную степень: значения случайных величин возводятся в степень, а вероятности не изменяются;
3) сложение, вычитание, умножение – значения попарно складываются, а соответствующие вероятности перемножаются.
Пример. Независимые дискретные случайные величины Х и Y заданы законами распределения:
Y |
-1 |
0 |
1 |
Р |
0,1 |
0,4 |
0,5 |
Х |
0 |
2 |
Р |
0,7 |
0,3 |
Найти закон распределения СВ Z=2X+Y
2Х |
-2 |
0 |
2 |
Р |
0,1 |
0,4 |
0,5 |
2Х\Y |
0 |
2 |
-2 |
0,07 |
0,03 |
0 |
0,28 |
0,12 |
2 |
0,35 |
0,15 |
СВ Z (вероятности СВ 2Х и Y перемножаются).
Проверка: 0,07+0,03+0,28+0,12+0,35+0,15=1
Z |
-2 |
0 |
2 |
4 |
Р |
0,07 |
0,03+0,28 |
0,12+0,35 |
0,15 |
(значения СВ 2Х и Y складываются)
Z |
-2 |
0 |
2 |
4 |
Р |
0,07 |
0,31 |
0,47 |
0,15 |
0,07+0,31+0,47+0,15=1
