Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
14
Добавлен:
27.03.2016
Размер:
281.09 Кб
Скачать

3.2.2. Методы построения ОФ.

Рассматривая оценку как элемент спектра ОФ, можно сказать, что каждому такому элементу соответствует точка на числовой оси. В связи с этим, её часто называют точечной оценкой параметра.

Методы построения ОФ для нахождения точечных оценок могут учитывать закон распределения ГС или нет. В первом случае будут получены ОФ, применимые лишь для того распределения, которое было задействовано в преобразованиях, а во втором – более общие ОФ, которыми можно будет пользоваться более широко.

3.2.2.1 Метод максимального правдоподобия.

Метод максимального правдоподобия (ММП) впервые был применен еще Д.Бернулли и позднее К.Ф.Гауссом, а затем подвергся фундаментальной разработке в трудах Р.Фишера и его школы. Суть ММП [13] состоит в том, что выборка x1, x2,…, xn рассматривается (по принципу статистической копии) как случайный вектор X1nT = (X1 X2Xn). При этом генеральная совокупность, из которой получена выборка, и генеральные совокупности случайных компонентов Xi полагаются идентичными, т.е. имеют одинаковые оцениваемые параметры a1, a2,…, am (m < n).

Предполагая известным закон распределения ГС в форме плотности вероятности выборки как плотности вероятности ССВ, Фишер составляет функцию максимального правдоподобия (МП-функцию):

L = f(X1 X2 … Xn; a1, a2,…,am) = max. (199)

и отыскивает такие ОФ параметров ã1, ã2, … , ãm, которые доставляют функции L максимум. Эта задача на отыскание абсолютного экстремума функции решается с использованием необходимого условия его существования:

L / ∂ã j = 0, (j = 1,2,…,m). (200)

Задача 3.2. Оценить, используя ММП, параметры нормальной ГС E(X) и 2 по данным простой выборки x1, x2,…, xn.

Дано: x1, x2,…, xn – простая выборка из ГС X; каждый i-ый элемент выборки xi N(a1 = E(X); a2 = 2); i = 1, 2, …, n.

Найти: и .

Решение: Составим МП-функцию для простой выборки, которая трансформируется в силу условия стохастической несвязанности в совокупности (94) в произведение нормальных плотностей (66) компонентов случайного вектора X1nT:

L = =

= (2-n/2*exp(–∑(xiE(X))2/(2max (201)

Поскольку, плотность вероятности всегда положительна, а дифференцирование произведения (201) очень трудоемко, прологарифмируем эту функцию по натуральному основанию, что не изменит местоположения ее максимума по аргументам:

lnL = – n / 2 * ln (22) –∑(xiE(X))2/(2max. (202)

Теперь составим систему уравнений, определяемую частными производными логарифма МП-функции по искомым оценкам:

= = = 0

.(203)

= = - n / 2 * + = 0

Из решения системы (203) получаем обе ОФ:

= () / n = – среднее арифметическое; (204)

2 = () / n = s2 – выборочная дисперсия. (205)

Полученные в примере ОФ формально применимы только для работы с простой выборкой из нормальной ГС, т.к. при их выводе использована плотность вероятности нормального распределения. Они являются состоятельными и асимптотически несмещенными нормальными ОФ [13].

3.2.2.2. Метод моментов.

Метод моментов введен К.Пирсоном и очень прост для получения ОФ основных числовых характеристик распределений. Упрощенно, его суть состоит в том, что приравниваются друг другу соответствующие теоретические и выборочные моменты. Формулы последних и применяются в качестве ОФ. Например, МО является начальным моментом первого порядка. Следовательно, его ОФ служит выборочный начальный момент первого порядка. Дисперсия – это центральный момент второго порядка. Её ОФ – центральный выборочный момент второго порядка. Соответствующие соотношения вновь приводят нас к ранее полученным выборочному среднему и выборочной дисперсии s2:

= = = () / n = ;

= = = () / n = s2.

Метод моментов применим и при построения ОФ для многомерных СВ. Например, ковариация пары СВ X и Y определится из соотношения, связывающего смешанный центральный момент второго порядка KXY с соответствующим выборочным моментом (179), называемым выборочная ковариация:

====-*=

=() / (n2) = () / (n2) - = . (206)

ОФ, найденные по методу моментов, асимптотически нормальны и характеризуются дисперсией порядка 1 / n [13].

3.2.2.3. Метод наименьших квадратов.

Метод наименьших квадратов (МНК) широко используется для получения ОФ параметров многомерных распределений. МНК практически одновременно был внедрен А.Лежандром и К.Ф.Гауссом в самом начале XIX века при обработке астрономических наблюдений. Суть метода заключается в следующем.

Пусть y1, y2,…, ynпростая выборка из многомерной генеральной совокупности Y. Каждый из элементов выборки yi является функцией от общей системы параметров a1,a2,…,ak (такая функция называется параметрическим уравнением связи или уравнением наблюдения):

yi = fi(a1,a2,…,ak), i = 1, 2, ... n. (207)

Объем выборки n больше числа искомых параметров k. В связи с этим, система уравнений (207) дополнительно ограничивается функционалом наименьших квадратов, в котором параметры aj заменены соответствующими оценками ãj, чтобы подчеркнуть единственность получаемого решения и его отличие от истинных значений:

= = min. (208)

Необходимые условия существования экстремума этого функционала образуют систему k уравнений с k неизвестными:

= 0, j = 1, 2, …, k, (209)

из решения которой и находят оценки искомых параметров.

МНК имеет несколько обоснований. Первое, вероятностное, связывает его с нормальным распределением, когда МНК является частным случаем ММП. Второе, статистическое, доказывает (теорема Гаусса-Маркова [9]), что для случая, когда уравнения (207) линейны, МНК-оценки параметров ã1, ã2, … ãk будут несмещенными МД-оценками при любом распределении ГС, из которой получена выборка. Третье, алгебраическое, даёт решение, обеспечивающее минимальность длины вектора остатков en1=yn1fn1k1), т.е.

||en1||2 = min. (210)

Задача 3.3. Получить, используя МНК, оценку для МО одномерной ГС по данным простой выборки, полученной по измерениям одной и той же величины X.

Дано: x1, x2,…, xn – простая выборка из ГС X; E(X) = a – параметр, подлежащий оценке; E(xi) = E(X) – по принципу статистической копии, так как измеряется одна и та же величина.

Найти: МНК-оценку параметра a.

Решение: Составим уравнения связи для нашей задачи (мы перешли от переменной «y» к переменной «x», так как имеем дело не с многомерной, как в общем описании МНК, а с одномерной ГС X):

xi = a = E(X). (211)

МНК-функционал (208) принимает вид:

= (xi ã)2 = min. (212)

Производная этого функционала по единственному аргументу ã

= – 2= 0,

приравненная к нулю, позволяет получить выражение для искомой ОФ:

= () / n = . # (213)

Найденная ОФ – уже знакомое нам среднее арифметическое, которое было получено в предположении нормальности выборки. В данном же примере нормальность не предполагалась, т.е. закон распределения знать не нужно. Поскольку уравнения (211) линейны, то среднее арифметическое будет несмещенной МД-оценкой МО при любом распределении ГС, из которой была получена простая выборка.

3.2.2.4 Исследование точечных оценок.

В предыдущих параграфах мы получили ОФ для МО, дисперсии и ковариации:

среднее арифметическое:

= () / n, (174)

выборочную дисперсию:

s2 = () / n = () / n - (176)

и выборочную ковариацию:

= ()/() - . (179)

Там же было показано, что для простой выборки среднее арифметическое удовлетворяет всем требованиям, предъявляемым к ОФ и сформулированным в разделе 3.2.1. В отношении остальных ОФ можно говорить лишь об их состоятельности, асимптотической несмещенности и асимптотической нормальности [13]. Для выборок малого объема важную роль играет несмещенность ОФ, так как асимптотичность не успевает проявиться. В связи с этим, исследуем на несмещённость выборочную дисперсию (176).

Исследование выборочной дисперсии на несмещенность.

Применим условие несмещённости ОФ (193) ко второму варианту записи выборочной дисперсии (176).

Дано: x1, x2,…, xn – простая выборка из ГС X; E(xi) = E(X), и, естественно, = E(X2) по принципу статистической копии; = 2 > 0 – следствие равноточности измерений; s2 = () / n - – второй вариант формулы (176) для выборочной дисперсии.

Определить: E(s2) – ?

Решение: Найдем МО правой части ОФ для выборочной дисперсии:

E(s2) = E(() / n ) = () / n = (n * =

= = 2 + 2 / n= 2 (1 – 1 / n) 2.

Таким образом, выборочная дисперсия s2 является смещённой (искажённой) оценкой генеральной дисперсии. Для устранения искажения достаточно умножить выборочную дисперсию на величину, ему обратную:

s2 *n / (n – 1) = m2 = () / (n – 1). # (214)

Естественно, что теперь E(m2) = 2, т.е. m2несмещённая (не искажённая) оценка генеральной дисперсии. Величина m в геодезии и смежных науках называется средней квадратической ошибкой (СКО), а формула (213) носит имя Бесселя, впервые получившего её:

m = , (215)

где [v2] = ++…+, а vi = - xi.

Исследование оценки ДЕВ на несмещённость.

Дано: x1, x2,…, xn – выборка из ГС X; E(xi) = E(X) – по принципу статистической копии; p1, p2,…, pnвеса элементов выборки; =() / n = [pv2] / n= - оценка ДЕВ.

Определить: – ?

Решение: Заменим элементы выборки xi соответствующими центрированными значениями (см.2.2.5.2)

= xi – E(X), (192)

характеризующимися теми же дисперсиями (см.2.2.5.3):

D(xi) = = .

Среднее весовое для центрированных значений и оценка ДЕВ по этим же данным будут равны:

= () / , (193)

= () / n. (194)

Найдем МО ОФ (194):

= () / n = ( -

- 2+ / n. (195)

По определению (см.2.2.5.3 и 2.3.4):

1) = = 2 / pi;

2) = ) = () / = 2 / [p],

т.к. = 0 для всех и = 2/pj для остальных i = j;

3) = 2/[p].

(Предлагаем убедится в последнем в качестве Упражнения 2.7).

Подставим в (195) найденные выше МО :

= (*2 / pi - 2*2 / [p] + 2 / [p]) / n =

= (n2 - 22 + 2) / n = 2 (1 – 1 / n)2. (196)

Итак, оценка ДЕВ, вычисляемая по формуле (184), представляет собой смещенную ОФ генеральной ДЕВ. Её смещение устраняется так же, как это было сделано для выборочной дисперсии:

= *n / (n - 1) = [pv2] / (n - 1). # (197)

Теперь E( = 2 и  является несмещённой ОФ ДЕВ. В геодезии величину  называют средней квадратической ошибкой единицы веса (СКО ЕВ), а формулу (198)- обобщенной формулой Бесселя:

 =. (198)

Соседние файлы в папке Стат_Примитивы