- •Лекция №5
- •Обучение статистической дискриминантной функции
- •Оценка параметров и обучение с учителем Введение
- •Оценка по максимуму правдоподобия Общая идея метода
- •Случай многомерного нормального распределения: неизвестно среднее значение
- •Общий многомерный нормальный случай
- •Байесовский классификатор
- •Плотности, условные по классу
- •Распределение параметров
- •Обучение при восстановлении среднего значения нормальной плотности Случай одной переменной: p(|)
- •Случай одной переменной:p(X|)
- •Непараметрические методы Введение
- •Оценка плотности распределения
- •Парзеновские окна Общие соображения
- •Сходимость среднего значения
- •Сходимость дисперсии
- •Оценка методом knближайших соседей
- •Оценка апостериорных вероятностей
- •Правило ближайшего соседа Общие замечания
- •Сходимость при использовании метода ближайшего соседа
- •Правилоkближайших соседей
Сходимость среднего значения
Сначала рассмотрим — среднее значениерn(х).Поскольку выборкихiраспределены равномерно в соответствии с (неизвестной) плотностью распределенияр(х), имеем
(20)
Это уравнение показывает, что ожидаемое значение оценки есть усредненное значение неизвестной плотности распределения, свертканеизвестной плотности распределения и функции окна. Таким образом,является сглаженным вариантом дляр(х), видимым через усредняющее окно. Но с устремлениемVnк нулю(х— v)стремится к дельта-функции с центром в х. Так что еслир непрерывна в х,то уравнение (18)гарантирует, что будет приближаться кр(х) по мере устремленияп кбесконечности10.
Сходимость дисперсии
Уравнение (20)показывает, что для того, чтобы заставитьустремиться кр(х),не нужно иметь бесконечное число выборок; при любомпдостаточно только устремитьVn к нулю. Конечно, для конкретного множествапвыборок получающаяся оценка, имеющая всплески, будет бесполезной. Этот факт подчеркивает необходимость рассмотрения дисперсии оценки. Посколькурn(х) является суммой функций статистически независимых случайных величин, ее дисперсия является суммой дисперсий отдельных членов, и отсюда имеем
(21)
Опуская второй член, ограничивающий , и используя (20),получаем
(22)
Ясно, что для получения небольшой дисперсии нам нужно большое, а не малое значение Vn. Однако, поскольку числитель остается конечным при стремленииnк бесконечности, мы можем позволитьVnстремиться к нулю и все же получать нулевую дисперсию при условии, чтоnVnстремится к бесконечности. Например, мы можем взятьVn,=V1/илиV1/log п,или любую другую функцию, удовлетворяющую соотношениям (18)и (19).
Это основной теоретический вывод. Но, к сожалению, он ничего не говорит о том, как выбирать иVn,чтобы получить хорошие результаты в случае с конечным числом выборок. Действительно, если у нас не будет другой информации о р(х), помимо той, что она непрерывна, у нас не будет никакого основания для оптимизации результатов при конечном числе выборок.
4.3.4.Два примера
Интересно проследить, как метод парзеновского окна проявляется на простых примерах. Рассмотрим сначала случай, где р(х) является одномерной нормальной плотностью распределения с нулевым средним значением и дисперсией, равной единице. Пусть функция окна будет иметь тот же вид:
И, наконец, пусть hn=h1,где h1—параметр, находящийся в нашем распоряжении. Таким образом,рn(х)есть среднее нормальных плотностей распределения, центрированных в выборках:
Нетрудно из соотношений (20)и (21)найти выражения среднего значения и дисперсии длярn(х),но еще интереснее увидеть численные результаты. На рис. 4.1показаны результаты, полученные при вычислениирn(х) спомощью конкретно выбранного множества нормально распределенных случайных выборок. Эти результаты зависят отпиh1.Для n= 1функциярn(х)будет просто единственным холмом гауссовского распределения с центром в первой выборке. Для n=16иh1=1/4влияние отдельных выборок ясно различимо, а дляh1=1иh1=4—нет. По мере увеличенияпспособностьрnотражать особенностирвозрастает. При этомрnоказывается более чувствительной к локальным нерегулярностям выборок, когдаnвелико, хотя мы уверены, чторnбудет сходиться к сглаженной нормальной кривой по мере устремленияпк бесконечности. Ясно, что нельзя судить по одному внешнему виду и что для получения точной оценки требуется много выборок.
В качестве другого примера пусть (и)иhnбудут такими же, а неизвестная плотность распределения пусть будет смесью двух однородных плотностей
На рис. 4.2показано поведение оценок этой плотности, полученных методом парзеновского окна.
Рис. 4.1.Оценка нормальной плотности распределения методом парзеновского окна
Рис. 4.2.Оценка бимодальной плотности распределения методом парзеновского окна
Как и прежде, случай с n=1говорит больше о функции окна, чем о неизвестной плотности распределения. Дляn=16 ни одна из оценок не годится, а вот дляn=256 иh1=1результаты уже кажутся приемлемыми.
Эти примеры показывают некоторые достоинства и некоторую ограниченность непараметрических методов. Достоинства заключаются в их общности. Одна и та же процедура использовалась для унимодального нормального и бимодального смешанного случаев. При достаточном количестве выборок мы уверены в сходимости к сколь угодно сложной неизвестной плотности распределения. С другой стороны, может потребоваться очень большое количество выборок, намного превышающее то количество, которое нам потребовалось бы, если бы мы знали вид неизвестной плотности распределения. Нет почти никаких способов уменьшения объема данных, поэтому потребности во времени вычисления и памяти слишком велики. Более того, потребность большего количества выборок растет экспоненциально с увеличением размерности пространства признаков. Этот недостаток непараметрических процедур, связанный с явлением, которое Беллман назвал «проклятием размерности», намного ограничивает их практическую применимость.