- •Лекция №5
- •Обучение статистической дискриминантной функции
- •Оценка параметров и обучение с учителем Введение
- •Оценка по максимуму правдоподобия Общая идея метода
- •Случай многомерного нормального распределения: неизвестно среднее значение
- •Общий многомерный нормальный случай
- •Байесовский классификатор
- •Плотности, условные по классу
- •Распределение параметров
- •Обучение при восстановлении среднего значения нормальной плотности Случай одной переменной: p(|)
- •Случай одной переменной:p(X|)
- •Непараметрические методы Введение
- •Оценка плотности распределения
- •Парзеновские окна Общие соображения
- •Сходимость среднего значения
- •Сходимость дисперсии
- •Оценка методом knближайших соседей
- •Оценка апостериорных вероятностей
- •Правило ближайшего соседа Общие замечания
- •Сходимость при использовании метода ближайшего соседа
- •Правилоkближайших соседей
Оценка методом knближайших соседей
Одна из проблем, с которой сталкиваются при использовании метода парзеновского окна, заключается в выборе последовательности объемов ячеек V1,V2, . . . . Например, если мы берем Vn,=V1/, то результаты для любого конечногопбудут очень чувствительны к выбору начального объема V1.ЕслиV1 слишком мал, большинство объемов будут пустыми и оценкарn(х) будет довольно ошибочной. С другой стороны, еслиV1слишком велик, то из-за усреднения по объему ячейки могут быть потеряны важные пространственные отклонения отр(x).Кроме того, вполне может случиться, что объем ячейки, уместный для одного значения х,может совершенно не годиться для других случаев.
Один из возможных способов решения этой проблемы -сделать объем ячейки функцией данных, а не количества выборок. Например, чтобы оценитьр(х) на основании nвыборок, можно центрировать ячейку вокруг х и позволить ей расти до тех пор, пока она не вместит выборок, где есть некая определенная функция отп. Эти выборки будут ближайшими соседями х. Если плотность распределения вблизи х высокая, то ячейка будет относительно небольшой, что приводит к хорошему разрешению. Если плотность распределения невысокая, то ячейка возрастает, но рост приостанавливается вскоре после ее вступления в области более высокой
Рис. 4. 3.Оценки двух плотностей распределения, полученные методомknближайших соседей.
плотности распределения. В любом случае, если мы берем
(5)
мы хотим, чтобы стремилось к бесконечности при стремлениип к бесконечности, так как это гарантирует, что /nбудет хорошей оценкой вероятности попадания точки в ячейку объема Однако мы хотим также, чтобы росло достаточно медленно для того, чтобы размер ячейки, необходимый для вмещения выборок, сжался до нуля. Таким образом, из формулы (5)видно, что отношение /nдолжно стремиться к нулю. Хотя мы не приводим доказательств, можно показать, что условия и являются необходимыми и достаточными для сходимостирn(х) ир(х) по вероятности во всех точках, где плотностьрнепрерывна. Если взятьkn=и допустить, чторn(х)является хорошей аппроксимациейр(x),то из соотношения (5)следует, что . Таким образом, опять имеет вид ,но начальный объем определяется характером данных, а не каким-либо нашим произвольным выбором.
Полезно сравнить этот метод с методом парзеновского окна на тех же данных, что были использованы в предыдущих примерах. С n=lи == 1оценка становится
Ясно, что это плохая оценка для р (х),поскольку ее интеграл расходится. Как показано на рис. 4.3,оценка становится значительна лучше по мере увеличенияnнесмотря на то, что интеграл оценки всегда остается бесконечным. Этот неприятный факт компенсируется тем, чторn(х)никогда не сведется к нулю просто потому, что в некоторую произвольную ячейку или окно не попадают никакие выборки. Хотя эта компенсация может показаться скудной, в пространствах более высокой размерности она приобретает большую ценность.
Как и в методе парзеновского окна, мы можем получить семейство оценок, принимая =и выбирая различные значения для .Однако при отсутствии какой-либо дополнительной информации любой выбор одинаково хорош, и мы можем быть уверены лишь в том, что результаты будут асимптотически правильными.