- •1.1. Основные теоретические сведения.
- •1.2. Непосредственный подсчет вероятностей (классическое определение вероятности, математическая вероятность).
- •1.3. Теоретико-множественный подход к определению вероятности события (геометрическая вероятность, аксиоматический подход).
- •1.4. Частота или статистическая вероятность события
- •Свойства частот.
- •1.5. Задачи для самостоятельного решения
- •Метод гиперплоскостей для построения выпуклой области.
- •Блоки 3, 4
- •2.3. Пример расчета попадания точки в заданную область.
- •2.4. Порядок выполнения лабораторной работы.
- •3.1. Ряд распределения случайной величины X
- •3.2. Многоугольник распределения случайной величины X
- •3.3. Функция распределения случайной величины X
- •3.4. Математическое ожидание случайной величины X
- •3.4. Моменты случайной величины X
- •3.5. Системы случайных величин
- •3.5.1. Матрица распределения
- •3.5.2. Функция распределения
- •3.5.3. Моменты системы случайных величин
- •3.6. Задачи для самостоятельного решения.
- •4.1. Биномиальное распределение
- •4.2. Геометрическое распределение
- •4.3. Гипергеометрическое распределение
- •4.4. Распределение Пуассона
- •Распределение Пуассона . Таблица 4.3.
- •4.4. Задачи для практических занятий и самостоятельной работы
- •5.1. Равномерное распределение
- •5.2. Показательное (экспоненциальное) распределение
- •5. 3 . Нормальное распределение (закон Гаусса)
- •Функция распределения
- •Значения плотности стандартного нормального распределения . Таблица 5.2.
- •Значения функции Лапласа . Таблица 5.3
- •5.4. Распределение Эрланга
- •5.5. Распределение (распределение хи-квадрат, закон Пирсона)
- •5.8. Задачи для практических занятий и самостоятельной работы
- •Представление многомерных данных. Таблица 6.1
- •6.2.5. Обращение мм
- •6.2. Задания для самостоятельной работы.
- •7.1. Основные сведения.
- •7.2. Критерий согласия законов распределения а.Н. Колмогорова
- •7.3. Оперативно-статистический контроль качества продукции (одномерный случай).
- •7.4. Задания для самостоятельной работы
- •8.1. Многомерное нормальное распределение
- •8.1.1. Основные сведения из теории
- •8.5.2. Задачи для практических занятий и самостоятельной работы
- •Нормально распределенные случайные числа
- •8.3. Методические рекомендации к теоретическому разделу 1.
- •8.4. Задачи для практических занятий и самостоятельной работы
- •9.1. Метод выделения результата аи
- •9.2. Определение достоверности уравнения множественной линейной регрессии по критерию Фишера, коэффициенту множественной корреляции.
- •10.4. Задания для самостоятельной работы.
- •Тема №11. Экстраполяционный метод прогнозирования (одномерный случай). Прогнозирование состояния.
- •11.1. Метод аппроксимации
- •11.2. Мнемоническое правило вывода решения
- •12.1. Задача о разбиении множества элементов.
- •12. 2. Графовое представление связей между объектами
- •12.3. Построение кратчайшего остовного дерева. Алгоритм Прима в табличной форме.
- •12.4. Задачи для самостоятельной работы
- •Тема №13. Основные характеристики случайных функций.
- •13.1. Основные сведения из теории
- •13.1.1. Закон распределения случайной функции
- •13.1.2. Математическое ожидание, дисперсия и корреляционная функция случайной функции
- •13.1.3. Взаимная корреляционная функция
- •13.2. Стационарные случайные процессы
- •13.2.1. Основные сведения из теории
- •13.2.2. Стационарная случайная функция с дискретным спектром частот
- •13.2.3. Эргодические случайные процессы
- •13.2.4. Определение корреляционной функции из экспериментальных данных
- •13.3. Задачи для практических занятий и самостоятельной работы
- •Тема №14. Анализ временных рядов и прогнозирование
- •14.1. Введение в теорию
- •14.2. Тренд
- •14.2.1. Распознавание типа тренда
- •14.2.2. Оценка параметров тренда
- •14.3. Сезонные колебания
- •14.4. Прогнозирование
- •14.5. Задания для самостоятельной работы.
- •Литература (основная)
- •Дополнительная:
- •Содержание
10.4. Задания для самостоятельной работы.
Применить метод главных компонент к следующим данным по группе: рост, вес, длина правой руки, длина левой руки.
Тема №11. Экстраполяционный метод прогнозирования (одномерный случай). Прогнозирование состояния.
В исходном процессе выделяют детерминированную составляющую (тренд). Выделяются колебания длительной цикличности, существуют более краткие колебания – сезонные (в течение года).
Рис.11.1
Чтобы правильно вести прогноз, нужно выделить тренд (полином невысокого порядка). Длительную циклическую составляющую будем относить к тренду из-за нехватки данных. Выделяем сезонную составляющую – из исходного процесса вычитаем тренд.
S(t)
Рис.11.2. График сезонной составляющей.
Сезонная составляющая S(t), как правило, сопровождается помехами. Сезонная составляющая нестабильна.
11.1. Метод аппроксимации
Производственный процесс представлен графически
Рис.11.3. График производственного процесса.
y[N+k] - ?
Разложим процесс в ряд:
,
где y[n] – отсчеты;
- некоторая система функций, по которой
ведём разложение (для тренда это
полиномы);
- погрешность измерения (типа «белого
шума»);
bi – искомые коэффициенты.
Модель производственного процесса (аппроксимация) можно представить в виде:
.
- такие значения, чтобы модель yA[n]
была близка к y[n].
Как правило, применяется квадратичный
критерий близости.
Квадратичный критерий имеет вид:
,
здесь подбирается критерий ,
R[n] – вес, который мы придаём результатам измерения.
Скользящее стробирование:
Рис.11.4. Скользящее стробирование.
Экспоненциальное сглаживание (самый распространенный метод):
Рис.11.5. Экспоненциальное сглаживание.
Общий случай:
Рис.11.6. Сглаживание функции.
Планирование прогноза – это подбор весовой функции R[n]. Наибольшее распространение получило экспоненциальное сглаживание.
Представим исходный процесс y[n] в матричном виде:
,
- помеха типа «белого шума» (ошибки между собой не связаны).
Это же уравнение можно записать в индексной форме:
;
;
;
условие минимуму этого критерия:
.
Элементы матрицы А:
,
в индексной форме:
.
Уравнение через элементы матриц:
.
Матрица z:
;
;
11.2. Мнемоническое правило вывода решения
Исходный процесс имеет вид:
,
необходимо найти оценки
.
Домножим уравнение справа и слева на R[n] для того, чтобы взвесить y
.
Умножим уравнение на
:
.
Это уравнение будет справедливо при любом n.
Подставим в уравнение следующие значения n:
n=n0;
n=n+1;
n=N.
Просуммируем все левые части уравнений:
;
в результате получим:
.
Пример
Имеется производственный процесс.
Надо его спрогнозировать.
y[3+k] - ?
Рис.11.7
Несколько последних отсчетов оставляют, их не прогнозируют. Прогноз осуществляют на основе предыдущих отсчетов.
1. Модель (аппроксимация) производственного процесса:
.
Вес всем значениям даем единичный:
R[n]=1,
.
;
;
;
.
2. R[4]=0,1(3-n).
Применим экспоненциальное сглаживание:
;
;
;
уA[4] = 2,9.
Берём новый полином:
;
,
.
3.
.
;
;
;
.
,
определитель матрицы равен: D=56-36
= 20;
.
;
.
;
;
;
методом аппроксимации получаем:
;
;
.
Тема №12.
Многомерная кластеризация при построении регрессионных моделей. Формирование информативных параметров.
Предположим, что рассматриваемая совокупность случайной величины Х неоднородна (рис. 12.1) и в нее входят, например, три группы совокупностей случайной величины с существенно различными параметрами распределений (математическим ожиданием и средним квадратическим отклонением).
Рис. 12.1. Кластеризация однородных групп
Истинные зависимости y=y(x) для этих групп совокупности показаны на рис. 12.1. Там же пунктиром показана линия регрессии y на x, построенная для совокупности всех групп. Таким образом, обработка неоднородной совокупности теми же методами, какие применимы для однородных, могут привести к серьезным ошибкам.
