- •Классификация задач оптимальных методов радиоприема.
- •Потенциальная помехоустойчивость
- •5.Оценка параметров сигнала, как и одна из задач оптимального приема.
- •7.Апостериорная плотность вероятности
- •8.Функция правдоподобия.
- •11.Вероятности правильных и ошибочных решений
- •12.Понятие допустимой и критической области
- •13. Ошибка первого рода
- •14. Ошибка второго рода.
- •15.Уровень значимости и мощности критерия принятия решения
- •16. Основные критерии принятия решения
- •17.Критерий максимума правдоподобия.
- •18. Критерий максимума апостериорной вероятности
- •19. Критерий идеального наблюдателя (критерий Котельникова).
- •20.Критерий Неймана—Пирсона
- •21.Критерий минимального риска (критерий Байеса)
- •22. Минимаксный критерий
- •23 Сравнение критериев принятия решения
- •24. В чем сущность задачи проверки гипотез?
- •Что понимается под выборкой и объемом выборки.
- •29. Как количественно оценивается полная ошибка принятия решения?
- •Как зависят ошибки первого и второго рода от порогового уровня?
- •31. В чем состоит сущность задачи обнаружения сигнала?
- •В чем заключается сущность критерия максимума правдоподобия и каковы его достоинства?
- •В чем заключается сущность критерия максимума апостериорной вероятности и
- •В чем заключается сущность критерия идеального наблюдателя?
- •В чем заключается отличие критерия идеального наблюдателя от критерия максимума апостериорной вероятности; что общего у этих критериев?
- •В чем заключается сущность критерия Неймана — Пирсона и в каких случаях целесообразно этот критерий применять?
- •Что понимается под риском?
- •В чем заключается сущность критерия минимального риска?
- •В чем заключается сущность минимаксного критерия?
- •Поясните термины «алгоритмы обнаружения» и «проверочная статистика».
- •Назовите и охарактеризуйте основные характеристики алгоритмов обнаружения сигналов.
- •Сформулируйте определение оптимального приемника
- •Что называется потенциальной помехоустойчивостью радиоприема?
- •С формулируйте задачу обнаружения сигнала
- •Раскройте содержание задачи оптимального радиоприема, связанную с оценкой параметров сигнала.
- •Охарактеризуйте задачу оптимальной фильтрации сообщения.
- •50. Что представляет собой апостериорная плотность вероятности?
- •.Дайте определение функции правдоподобия, сформулируйте се физическую сущность.
- •53. Приведите пример определения апостериорной плотности вероятности.
- •56. Определите отношение сигнал/шум на выходе линейного фильтра
- •54. Какова роль линейной фильтрации в задачах оптимального радиоприема?
8.Функция правдоподобия.
Вибір оптимального способу обробки сигналів і вироблення при цьому відповідних критеріїв складає зміст теорії статистичних рішень.
Завдання
ідентифікації, полягає в тому, щоб у
результаті обробки прийнятого сигналу
встановити,
чи міститься в ньому корисний
чи сигнал ні.
Нехай
прийнятий сигнал є адитивною сумою
корисного сигналу й завади
Інформаційний
сигнал може приймати два значення:
і
з
апріорними відповідно ймовірностями
й
.
Тому
що сигнал
напевно має одне із цих двох значень,
те справедливе співвідношення
Таким
чином, можливі дві взаємно виключають
(альтернативні) гіпотези: у прийнятому
сигналі міститься корисний сигнал
(гіпотеза
)
і відсутній корисний сигнал (гіпотеза
).
Вирішальний пристрій приймача за даними
вибірки повинне встановити, яка із цих
гіпотез є правдоподібною.
Простір
прийнятих сигналів V
умовно
розбивається на дві частини: область
відповідному
прийняттю гіпотези
про
те, що
й
область
відповідному прийняттю гіпотези
про те, що
.
Це означає, що якщо вектор прийнятого сигналу виявиться в межах області те приймається гіпотеза . Якщо ж вектор сигналу виявиться в області , то приймається гіпотеза .
У
цих умовах можуть мати місце два значення
апостеріорної ймовірності
:
—
умовна ймовірність наявності корисного
сигналу X
при даному значенні вибірки
,
—
умовна
ймовірність відсутності X
при даному значенні вибірки
.
Аналогічно
можна розглядати два значення функції
правдоподібності
:
умовна
щільність імовірності вибірки
при
наявності корисного сигналу
;
умовна
щільність імовірності вибірки
при
відсутності
.
Відношення функцій правдоподібності
прийнято називати відношенням правдоподібності.
Для вибору гіпотези або повинне бути взяте за основи певне правило прийняття рішень.
Вибір правила прийняття рішення в математичному відношенні зводиться до оптимальної розбивки простору прийнятих сигналів V на області й .
Для того щоб вибрати те або інше правило прийняття рішення, необхідно керуватися певними критеріями.
Критерій максимуму правдоподібності. Цей критерій формулюється в такий спосіб: найбільше правдоподібно те значення параметра X, для якого функція правдоподібності максимальна.
Відповідно
до цього критерію у випадку двухальтернативної
ситуації (виявлення сигналу) має два
значення функції правдоподібності
й
і
приймається та гіпотеза, який відповідає
більше значення функції правдоподібності.
Якщо, наприклад,
то
приймається гіпотеза
.
Якщо
ж
,
то
приймається гіпотеза
.
Цей критерій можна записати в наступному вигляді через відношення правдоподібності:
якщо
,
то
при
,
то
Таким чином, відповідно до даного критерію методика прийняття рішення зводиться до наступного: обчислюються функції правдоподібності й , визначається відношення правдоподібності , і залежно від того, більше, дорівнює або менше одиниці приймається відповідна гіпотеза.
9.Сущность основной задачи приема сигналов при наличии помех.
Основная задача приемника состоит в том, чтобы на основании принятой реализации решить наилучшим в каком-то определенном смысле способом, имеется ли данный сигнал в данной реализации (задача обнаружения или различения), или каковы параметры полезного сигнала (задача восстановления). В связи с этим должны быть выработаны критерии, позволяющие по принятому сигналу оптимальным способом решить поставленную задачу.
П
усть
отсчеты принимаемого сигнала, являющегося
суммой полезного сигнала и помехи,
осуществляются в дискретные моменты
времени Отсчетные значения
принятого сигнала
называют выборочными
значениями,
а их совокупность — выборкой.
Число
выборочных
значений называют размером
(или объемом) выборки.
Совокупность
выборочных значений представляют
геометрически в виде радиус-вектора
в
n-мерном
пространстве, где
координаты
конца вектора. Так как величины
случайны, то вектор Y
также является случайным вектором.
Множество возможных значений вектора
Y
составляет
пространство наблюдений V.
Общая вероятность
попадания конца вектора
Y
в произвольную
точку пространства V:
После нахождения
вектора принятого сигнала
Y
мы не
можем однозначно судить о векторе
полезного сигнала X.
Речь
может идти только об апостериорной
плотности вероятности,
т.е. условной плотности вероятности X,
если
задан вектор Y
Безусловная
плотность вероятности
определяется соотношением
где
обозначает, что интегрирование
осуществляется в пространстве сигнала
X.
Если вектор X
может иметь конечное число возможных
значений
с априорными вероятностями
то формула (3) принимает вид
Следовательно, для нахождения искомой апостериорной вероятности (или плотности вероятности) необходимо знать p(X) или f(X) , т. е. априорные характеристики полезного сигнала, и f(Y/X) , определяемые априорными характеристиками полезного сигнала и помехи, а также характером их композиции. Для определения апостериорных вероятностей p(X/Y) или плотностей вероятностей f(X/Y) необходимо знать f(Y/X , которая при заданном значении Y будет зависеть только от X.
Функция L(x) называется функцией правдоподобия. В зависимости от того, является ли X дискретной или непрерывной величиной, функция правдоподобия L(X) может принимать конечное или бесконечное множество значений
10.Проверка простой гипотезы против простой альтернативы.
Вероятности правильных и ошибочных решений
Переходим к простейшей задаче — проверке простых гипотез. Ситуация в этом случае такова. Имеется некоторое число наблюденных значений х1, х2, . . ., хn (выборка размера n) и известно, что эти значения принадлежат одному из двух распределений: f0(x1, x2, …, xn | s0) или f1(x1, x2, …, xn | s1), связанных с взаимоисключающими состояниями s0 и s1 изучаемого явления. Задача состоит в том, чтобы указать наилучший (в каком-нибудь смысле) алгоритм обработки наблюдаемых данных с целью решить, какому из указанных распределений принадлежит полученная выборка.
Обозначим через Н0 и Н1 — гипотезы о том, что выборочные значения принадлежат распределениям f0(x1, x2, …, xn | s0) и f1(x1, x2, …,xn | s1) соответственно, а через γ0 и γ1 — решения, состоящие в принятии или отклонении гипотезы Н0.
Гипотеза Н1 является простой альтернативой Н0, и поэтому может рассматриваться только одна гипотеза Н0. Ясно, что отклонение гипотезы Н0 означает принятие гипотезы Н1.
Для рассматриваемых здесь нерандомизированных процедур проверки гипотезы задача состоит в установлении до наблюдений правила, согласно которому каждой выборке х1,х2,…, хn приписывалось бы одно из решений γ0 или γ1, иначе говоря, в установлении правила, по которому можно было бы принять или отвергнуть гипотезу Н0 на основании данных, накопленных в процессе наблюдения изучаемого явления.
Установление указанного правила эквивалентно разделению n - мерного пространства выборок (х1,…, хn) на две непересекающиеся области v0 и v1.
Если данная конкретная выборка попадает в область v0, то гипотеза H0 принимается, а если она попадает в область v1, то она отвергается (т. е. принимается гипотеза H1). Таким образом,
Область v0 принятия гипотезы называют допустимой, а область v1 отклонения гипотезы — критической. Уравнение поверхности D (х1, . . ., хn) = const в n-мерном пространстве, разделяющей указанные области, является аналитическим выражением правила выбора решений.
При использовании любого заранее установленного правила выбора решений наряду с правильными решениями неизбежны (в силу случайной природы выборки) и ошибочные. Возможны ошибки двух родов.
Ошибка первого рода возникает, когда выборка попадаете критическую область v1, когда изучаемое явление находится в состоянии s0. Тем самым будет отвергнута гипотеза v0, хотя в действительности она верна.
Ошибка второго рода возникает, когда выборка попадает в допустимую область v0, хотя изучаемое явление находится в состоянии s1. В результате будет принята ложная гипотеза. Аналогично могут рассматриваться и два вида правильных решений; принятие верной гипотезы (выборка попадает в область v0, когда имеет место состояние s0) и отклонение ложной гипотезы (выборка попадает в область v1, когда имеет место состояние s1).
Нетрудно написать выражения для условных вероятностей ошибок для заданного состояния изучаемого явления. Условная вероятность α ошибки первого рода равна
