- •Введение
- •1. Основные задачи теории автоматического управления
- •Формулировка задачи управления
- •Математическая модель объекта управления
- •1.3. Управляющая система и объект автоматического управления
- •1.4. Закон обратной связи
- •1.5. Общая задача теории автоматического управления
- •2. Математические модели сау
- •2.1. Построение модели элемента системы управления
- •2.2. Динамические и статические звенья сау
- •2.3. Составление дифференциальных уравнений систем автоматического управления
- •2.4. Примеры составления дифференциальных уравнений звеньев сау
- •2.5. Типовые динамические звенья линейных сау
- •2.6. Соединение звеньев и преобразование структурных схем сау
- •2.7. Вопросы идентификации моделей объектов управления
- •3. Методы исследования линейных сау
- •3.1. Общая модель линейной непрерывной и дискретной сау
- •3.2. Линейные сау, описываемые обыкновенными дифференциальными уравнениями с постоянными коэффициентами
- •3.3. Дискретные линейные сау
- •4.1. Метод фазовой плоскости
- •4.2. Линеаризация нелинейных дифференциальных уравнений
- •4.3. Автоколебания нелинейных сау
- •5. Устойчивость систем автоматического управления
- •5.1. Основные понятия теории устойчивости (математическая формулировка)
- •5.2. Общие теоремы об устойчивости линейных сау
- •5.3. Устойчивость линейной сау с постоянной матрицей
- •5.4. Связь устойчивости с корнями характеристического уравнения
- •5.5. Критерии устойчивости
- •5.6. Алгебраические критерии устойчивости
- •5.7. Частотные критерии устойчивости
- •5.8. Логарифмический критерий устойчивости
- •5.9. Запас устойчивости по фазе и амплитуде
- •5.10. Устойчивость импульсных сау
- •5.11. Устойчивость нелинейных сау
- •6. Качество систем автоматического управления
- •6.1. Показатели качества переходного процесса
- •6.2. Прямые методы определения показателей качества
- •6.3. Связь переходного процесса с вещественной частотной характеристикой системы
- •6.4. Интегральные оценки качества
- •7. Случайные воздействия в линейных сау
- •7.1. Понятие случайной функции
- •7.2. Основные характеристики случайной функции
- •7.3. Стационарные случайные функции
- •7.4. Спектральное представление стационарной случайной функции
- •7.5. Спектральная плотность стационарной случайной функции
- •7.6. Преобразование стационарной случайной функции стационарной линейной динамической системой
- •7.7. Преобразование случайных сигналов безынерционными нелинейными звеньями
- •7.8. Понятие статистически оптимальной линейной системы
- •7.9. Статистическая проверка гипотез
- •8. Задачи оптимального управления
- •8.1. Экстремумы функций. Принцип Лагранжа
- •8.2. Начала вариационного исчисления
- •8.3. Прямые методы решения задач оптимального управления
- •8.4. Принцип максимума Понтрягина
- •8.5. Оптимальное позиционное управление (динамическое программирование)
- •9. Современные тенденции развития систем управления
- •9.1. Управление при неполной начальной информации
- •9.2. Экстремальные сау
- •9.3. Самонастраивающиеся системы (снс)
- •9.4. Самоорганизующиеся и самообучающиеся сау
- •9.5. Автоматизированные системы управления
- •9.6. Роботы и гибкие производственные системы
- •9.7. Математические методы в управлении роботами и гпс
7.9. Статистическая проверка гипотез
В ряде случаев, в частности в задачах обнаружения, значение имеет не величина ошибки, а лишь сам факт наличия или отсутствия ошибки. Так, в радиолокации производится обнаружение и распознавание сигнала, отраженного от истинной цели, при наличии шумов в приемном устройстве, радиопомех и ложных целей, которые специально создаются противником. В этой задаче при определенных предположениях о законах распределения истинных сигналов цели и помех требуется выработать правила, которые оптимальным образом позволяли бы определить наличие цели.
Для решения таких задач используются методы статистической проверки гипотез. Статистической гипотезой называют любое предположение о законе распределения наблюдаемых случайных величин. Например, статистической является гипотеза: переменная X распределена по нормальному закону.
Наряду с выдвинутой гипотезой рассматривают и противоречащую ей гипотезу. Нулевой (основной) называют выдвинутую гипотезу Н0. Конкурирующей (альтернативной) называют гипотезу Н1, которая противоречит основной. Например, если гипотеза состоит в предположении, что математическое ожидание а нормального распределения равно нулю, то конкурирующая гипотеза может состоять в том, что а≠0. Это кратко записывают так: Н0: а=0, Н1:а≠0.
Различают простые и сложные гипотезы. Простой называют гипотезу, содержащую только одно предположение. Сложной называют гипотезу, которая состоит более чем из одной простой. Например, математическое ожидание нормального распределения равно 5 (дисперсия известна); гипотеза Н0:а=5 - простая. Гипотеза Н0: математическое ожидание нормального распределения равно 5 (дисперсия неизвестна) - сложная.
Проверку гипотез проводят статистическими методами и называют статистической проверкой. При проверке гипотезы возможны ошибки двух родов. Ошибка первого рода состоит в том, что будет отвергнута правильная гипотеза. Ошибка второго порядка состоит в том, что будет принята неправильная гипотеза.
Правильное решение может быть получено также в двух случаях: 1) гипотеза принимается, и она в действительности правильная; 2)гипотеза отвергается, и она в действительности неверна.
Вероятность совершить ошибку 1-го рода принято обозначать через α, ее называют уровнем значимости. Например, если α=0,95, то это значит, что в пяти случаях из ста имеется риск отвергнуть правильную гипотезу (совершить ошибку 1-го рода).
Статистическим критерием (или просто критерием) называют случайную величину К, которая служит для проверки нулевой гипотезы. Наблюдаемым значением Кнабл называют значение критерия, вычисленное по экспериментальным данным (выборкам). Область возможных значений критерия Rп разбивается на две непересекающиеся части (области). Критической областью Е называется совокупность значений критерия, при которых нулевую гипотезу отвергают. Областью принятия гипотезы Е0 называют совокупность значений критерия, при которых гипотезу принимают.
Основной принцип проверки статистических гипотез состоит в следующем: если наблюдаемое значение критерия принадлежит критической области, то гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают.
Критическими точками (границами) Ккр называют точки, разделяющие критическую область и область принятия гипотезы. Для отыскания критической области задаются уровнем значимости α. Критическую точку Kкр определяют из условия, что при справедливости нулевой гипотезы вероятность того, что К>Kкр, равна α: р(К > Ккр)=α.
Мощностью критерия называют вероятность того, что гипотеза H0 отвергается, если справедлива гипотеза H1. Если вероятность совершить ошибку 2-го рода (принять неправильную гипотезу) равна β, то мощность критерия равна 1 - β. Очевидно, желательно, чтобы величины а и β были как можно меньше. В то же время нельзя принимать ни α, ни β равными нулю; так, если принять β=0, то любые гипотезы будут отвергаться с вероятностью 1.
Однако при заданном объеме выборки п нельзя уменьшать одновременно α и β. Для того чтобы одновременно уменьшать α и β, нужно увеличивать объем выборки.
Критерий Неймана-Пирсона. Этот критерий позволяет при фиксированных n и α выбрать такую критическую область, при которой мощность критерия В = 1 - β будет максимальной.
Для выбора наилучшей критической области они предложили использовать отношение (коэффициент) правдоподобия Lп:
(7.9.1)
где
и
- плотности вероятности n-мерной
случайной величины х=(х1,х2,...,хп)
при
условии, что параметр а
равен
а1
или
а0,
соответственно.
Область Е0 принятия гипотезы H0 определяется из соотношения ln=ln Ln≤ ln С, где С - некоторое число, которое зависит от α и вида закона fа(x1,..., хп). Величина С в общем случае определяется из условия
(7.9.2)
где интегрирование проводится по тем значениям х, для которых ln>lnС. Решающее правило при использовании критерия Неймана-Пирсона имеет вид
Величина вероятности ошибки 2-го рода при этом является функцией п и имеет минимальное значение при данных α и β.
Задавшись величинами α и β, можно определить число испытаний п, которые необходимо провести для того, чтобы принять или отвергнуть нулевую гипотезу H0.
Последовательное
решающее правило В а л ь д а.
Это правило является обобщением
процедуры Неймана-Пирсона. Согласно
этому правилу на каждой стадии эксперимента
совокупность всевозможных выборок
Rn
(объема)
п
разбивается
на три непересекающиеся части (области):
При
попадании выборки х=(х1,..
хп)
в
область
принимают гипотезу H0
и испытания заканчивают; при попадании
в область
принимают гипотезу H1
(гипотезу Н0
отвергают)
и испытания заканчивают. Если выборка
попала в область
то не принимают ни одной гипотезы, а
проводят следующее по порядку (n+1)-е
испытание и анализируют теперь выборку
(x1,x2,…,xп,xп+1).
Процедура Неймана-Пирсона будет частным случаем последовательной процедуры, если выбрать область по следующему правилу:
где п0 - заранее заданный объем выборки, Rn - совокупность возможных значений выборок объема п, 0 - пустое множество.
В классической процедуре решение принимается на п0-м шаге, то есть на п0-м шаге область Rn разбивается только на две области: и .
В последовательной процедуре вместо одного порога С используются два порога А и В. Область Е0(п) задается условием Ln(x1,...,хп) ≤ В, область определяется условием В<Ln(x1,х2,...,хп) < А, а область определяется из условия А ≤ Ln(x1,..., хп).
Пороги А и В для коэффициента правдоподобия определяются из выражений А=(1-β)/α, В=β/(1-α).
Последовательное решающее правило можно записать в следующем виде:
В ряде случаев применение правила Вальда позволяет при данных α и β уменьшить требуемое число испытаний п по сравнению с использованием классической процедуры.
