- •Глава 4 непараметрические методы
- •4.1. Введение
- •4.2. Оценка плотности распределения
- •4.3. Парзеновские окна
- •4.3.1. Общие соображения
- •4.3.2. Сходимость среднего значения
- •4.3.3. Сходимость дисперсии
- •4.3.4. Два примера
- •4.4. Оценка методом kn ближайших соседей
- •4.5. Оценка апостериорных вероятностей
- •4.6. Правило ближайшего соседа
- •4.6.1. Общие замечания
- •4.6.2. Сходимость при использовании метода ближайшего соседа
- •4.6.3. Уровень ошибки для правила ближайшего соседа
- •4.6.4. Границы ошибки
- •4.7. Правило k ближайших соседей
- •4.8. Аппроксимации путем разложения в ряд
- •4.9. Аппроксимация для бинарного случая
- •4.9.1. Разложение Радемахера - Уолша
- •4.9.2. Разложение Бахадура - Лазарсфельда
- •4.9.3. Разложение Чоу
- •4.10. Линейный дискриминант Фишера
- •4.11. Множественный дискриминантный анализ
- •4.12. Библиографические и исторические сведения
4.3.2. Сходимость среднего значения
Сначала рассмотрим — среднее значение рn(х). Поскольку выборки хi распределены равномерно в соответствии с (неизвестной) плотностью распределения р(х), имеем
(20)
Это уравнение показывает, что ожидаемое значение оценки есть усредненное значение неизвестной плотности распределения, свертка неизвестной плотности распределения и функции окна. Таким образом, является сглаженным вариантом дляр(х), видимым через усредняющее окно. Но с устремлением Vn к нулю (х— v)стремится к дельта-функции с центром в х. Так что если р непрерывна в х, то уравнение (18) гарантирует, что будет приближаться кр(х) по мере устремления п к бесконечности 3.
4.3.3. Сходимость дисперсии
Уравнение (20) показывает, что для того, чтобы заставить устремиться кр(х), не нужно иметь бесконечное число выборок; при любом п достаточно только устремить Vn к нулю. Конечно, для конкретного множества п выборок получающаяся оценка, имеющая всплески, будет бесполезной. Этот факт подчеркивает необходимость рассмотрения дисперсии оценки. Поскольку рn (х) является суммой функций статистически независимых случайных величин, ее дисперсия является суммой дисперсий отдельных членов, и отсюда имеем
(21)
Опуская второй член, ограничивающий , и используя (20), получаем
(22)
Ясно, что для получения небольшой дисперсии нам нужно большое, а не малое значение Vn. Однако, поскольку числитель остается конечным при стремлении n к бесконечности, мы можем позволить Vn стремиться к нулю и все же получать нулевую дисперсию при условии, что nVn стремится к бесконечности. Например, мы можем взять Vn,=V1/ или V1/log п, или любую другую функцию, удовлетворяющую соотношениям (18) и (19).
Это основной теоретический вывод. Но, к сожалению, он ничего не говорит о том, как выбирать и Vn, чтобы получить хорошие результаты в случае с конечным числом выборок. Действительно, если у нас не будет другой информации о р(х), помимо той, что она непрерывна, у нас не будет никакого основания для оптимизации результатов при конечном числе выборок.
4.3.4. Два примера
Интересно проследить, как метод парзеновского окна проявляется на простых примерах. Рассмотрим сначала случай, где р(х) является одномерной нормальной плотностью распределения с нулевым средним значением и дисперсией, равной единице. Пусть функция окна будет иметь тот же вид:
И, наконец, пусть hn=h1, где h1—параметр, находящийся в нашем распоряжении. Таким образом, рn(х) есть среднее нормальных плотностей распределения, центрированных в выборках:
Нетрудно из соотношений (20) и (21) найти выражения среднего значения и дисперсии для рn(х), но еще интереснее увидеть численные результаты. На рис. 4.1 показаны результаты, полученные при вычислении рn(х) с помощью конкретно выбранного множества нормально распределенных случайных выборок. Эти результаты зависят от п и h1. Для n= 1 функция рn(х) будет просто единственным холмом гауссовского распределения с центром в первой выборке. Для n=16 и h1=1/4 влияние отдельных выборок ясно различимо, а для h1=1 и h1=4—нет. По мере увеличения п способность рn отражать особенности р возрастает. При этом рn оказывается более чувствительной к локальным нерегулярностям выборок, когда n велико, хотя мы уверены, что рn будет сходиться к сглаженной нормальной кривой по мере устремления п к бесконечности. Ясно, что нельзя судить по одному внешнему виду и что для получения точной оценки требуется много выборок.
В качестве другого примера пусть (и) и hn будут такими же, а неизвестная плотность распределения пусть будет смесью двух однородных плотностей
На рис. 4.2 показано поведение оценок этой плотности, полученных методом парзеновского окна.
Рис. 4.1. Оценка нормальной плотности распределения методом парзеновского окна
Рис. 4.2. Оценка бимодальной плотности распределения методом парзеновского окна
Как и прежде, случай с n=1 говорит больше о функции окна, чем о неизвестной плотности распределения. Для n=16 ни одна из оценок не годится, а вот для n=256 и h1=1 результаты уже кажутся приемлемыми.
Эти примеры показывают некоторые достоинства и некоторую ограниченность непараметрических методов. Достоинства заключаются в их общности. Одна и та же процедура использовалась для унимодального нормального и бимодального смешанного случаев. При достаточном количестве выборок мы уверены в сходимости к сколь угодно сложной неизвестной плотности распределения. С другой стороны, может потребоваться очень большое количество выборок, намного превышающее то количество, которое нам потребовалось бы, если бы мы знали вид неизвестной плотности распределения. Нет почти никаких способов уменьшения объема данных, поэтому потребности во времени вычисления и памяти слишком велики. Более того, потребность большего количества выборок растет экспоненциально с увеличением размерности пространства признаков. Этот недостаток непараметрических процедур, связанный с явлением, которое Беллман назвал «проклятием размерности», намного ограничивает их практическую применимость.