Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

tjurin_teorija_verojatn_978-5-94057-540-5_1

.pdf
Скачиваний:
1858
Добавлен:
02.06.2015
Размер:
4.26 Mб
Скачать

§ 3. Центральная предельная теорема

231

 

 

в схеме испытаний Бернулли в виде

S = X1 +… + Xn,

где Xi принимает значение 1 (в случае успеха i-го испытания) или значение 0 (в случае неудачи), i = 1, …, n. К такому представлению S мы уже прибегали, когда обсуждали теорему Чебышёва. При этом EXi = p, DXi = p(1 −p). В этих обозначениях теорема Муавра—Лапласа утверждает, что

Pa

P

 

n

P

bŒ→ (b) − (a) при n → ∞. (3.3.1)

 

n

 

 

n

 

 

i=1

Xi Ei=1 Xi

Φ Φ

 

 

 

 

 

 

 

r P

 

 

 

 

 

D

Xi

 

 

i=1

Врезультате развития теории вероятностей было установлено, что

втакой форме (3.3.1) теорема справедлива для последовательностей случайных величин весьма общей природы. Ниже мы еще вернемся к этому, а сейчас сформулируем несколько важных точных результатов.

Центральная предельная теорема для независимых и одинаково распределенных слагаемых. Пусть X1 , , Xn — независимые одинаково распределенные случайные величины, обладающие вторым моментом: EXi2 <∞, i =1, , n. Обозначим через a их математическое ожидание, через σ2 — дисперсию, и пусть σ>0. Тогда равномерно относительно u и v, где −∞ ¶u v ¶+∞,

P

u iP=1

Xi na

v

Φ(v) Φ(u)

при n ∞.

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

σp

 

 

 

 

n

Теорема Ляпунова. Теорема Ляпунова Пусть X1, , Xn — независимые случайные величины, обладающие третьими моментами:

 

 

 

 

 

 

P

 

 

 

 

 

 

 

n

 

E|Xi|3 <, i =1, , n. Положим ai =EXi, Bn =Èi=1 DXi. Предположим,

что при n →∞ выполнено условие Ляпунова

 

 

 

1

n

 

 

 

 

Xi=1 E|Xi ai|3 → ∞.

 

 

 

 

 

Bn3

 

 

Тогда равномерно относительно u и v, где −∞ ¶u v ¶+∞,

P

u iP=1( Xi ai )

v

Φ(v) Φ(u)

при n ∞.

 

 

n

 

 

 

 

 

 

 

 

Bn

 

232 Глава 4. Предельные законы теории вероятностей

К приведенным выше теоремам сделаем несколько замечаний. Их главное содержание в том, что при увеличении числа случайных слагаемых закон распределения их суммы все более походит на нормальный закон распределения вероятностей. Параметры этого нормального закона, естественно, такие же, как и у суммы: мате-

n

Xi

n

Xi.

матическое ожидание равно Ei=1

, дисперсия равна Di=1

P

 

P

 

Видно, что с ростом n эти параметры изменяются: в частности, дисперсия неограниченно увеличивается. Поэтому сближение двух распределений — точного и приближенного (нормального) — удобнее обсуждать, предварительно произведя некоторые преобразования, а именно вычитание математического ожидания и деление на стандартное отклонение. Новую случайную величину

 

Pn

Pn

 

Xi E

 

Xi

Sn =

i=1

i=1

r

 

 

 

Pn

 

 

D

 

Xi

 

 

i=1

называют нормированной суммой. Математическое ожидание нормированной суммы равно 0, дисперсия равна 1. Поэтому и сравнивать закон распределения Sn надо со стандартным нормальным законом N(0, 1), одним и тем же при всех n. Центральная предельная теорема утверждает, что закон распределения случайной величины Sn при неограниченном увеличении n приближается к N(0, 1), независимо от того, каковы законы распределения отдельных слагаемых.

Вот главные условия, при которых распределение суммы большого числа случайных слагаемых оказывается близким к нормальному: каждое отдельное слагаемое мало по сравнению со всей суммой; зависимость между слагаемыми должна отсутствовать или быть слабой.

Покажем на простом примере, как можно использовать центральную предельную теорему.

Пример 1. Двое играют в кости; игральная кость у каждого своя. Каждый бросает свою игральную кость 12 раз. Выигрывает тот, у кого сумма выпавших очков больше. Игрок A в сумме получил 54 очка. Следует ли заподозрить его в употреблении фальшивой кости?

Решение. Пусть X — суммарное случайное число очков, полученное при 12 бросаниях правильной кости. Для правильной кости EX =42, DX =35, pDX ≈5,92. Для фальшивой кости ожидаемое число очков больше, чем для правильной. Поэтому для фальшивой кости характерно появление б´ольших значений, чем для правильной. Однако и для правильной кости случайные колебания могут увеличить

§ 3. Центральная предельная теорема

233

 

 

X против ожидаемого значения 42. Вопрос: можно ли объяснить действием случайности столь большое (на 12 единиц) отклонение X от EX? Более точная постановка вопроса: какова вероятность того, что X EX ¾12 для правильной кости? Если эта вероятность мала, то неправдоподобно появление для правильной кости того события, что произошло. А значит, кость, скорее всего, фальшивая.

Итак, вычислим P( X EX ¾12) с помощью нормального приближения:

 

= P

 

EX

12

P( X EX ¾12)

XpDX

¾ p

 

DX

 

 

12

≈ 1 −Φ(2,03) = 1 −0,979 = 0,021. (3.3.2)

≈ 1

−Φ p

 

DX

Вероятность эта так мала, что случайно событие с такой вероятностью происходит примерно раз на пятьдесят опытов. У нас же оно появилось в первом же опыте. Это случайностью объяснить трудно: кость, по-видимому, фальшивая.

3.4. Планирование выборочного обследования

Теорема Муавра—Лапласа поможет нам составить план выборочного обследования.

Но прежде чем мы начнем обсуждать математическую модель, лежащую в основе подобных обследований, и вытекающие из нее результаты, скажем несколько слов о самом выборочном обследовании.

Под выборочным обследованием понимают изучение лишь некоторой сравнительно небольшой части генеральной совокупности. Полученные результаты обследования затем переносят на всю генеральную совокупность. Для того чтобы по выборке можно было судить о всей генеральной совокупности и знать точность полученных выводов, выборка должна быть как бы уменьшенной копией генеральной совокупности, представлять ее правильно, без искажений. Такую выборку называют репрезентативной или представительной. Главная опасность выборочного метода — формирование нерепрезентативной выборки, искаженно представляющей генеральную совокупность.

Есть много способов формирования выборки. Но только один из них несомненно обеспечивает ее репрезентативность: это случайный выбор, о котором мы подробно говорили в первой главе. К достоинствам случайного выбора добавим, что он позволяет контролировать и точность полученных с его помощью выводов.

234Глава 4. Предельные законы теории вероятностей

Внастоящее время выборочные обследования являются основным способом оперативного получения информации о различных свойствах больших совокупностей объектов. В качестве таких совокупностей на практике выступают объекты живой и неживой природы. Для социологов, маркетологов, политологов, психологов, медиков объектом интереса являются люди, те или иные их группы. Для производителей массовой продукции такими объектами могут являться сами производимые продукты. Для биологов и специалистов сельского хозяйства в качестве объектов исследования обычно выступают представители флоры и фауны. Почему же во всех этих разнородных областях используют выборочный метод? Перечислим основные содержательные преимущества этого способа сбора информации:

выборочное, не сплошное обследование может оказаться единственно возможным способом исследования, если изучаемая совокупность слишком велика или получение необходимых сведений ведет к уничтожению объекта;

получение более качественных исходных данных за счет лучшей подготовки небольшого числа сотрудников, вовлеченных в обследование; для понимания актуальности этой проблемы заметим, что в сплошных переписях населения в сборе первичных данных задействованы сотни тысяч человек;

приемлемая и, главное, контролируемая точность результатов на относительно небольших объемах выборки;

оперативность получения результатов за счет относительно небольшого числа обследуемых объектов;

относительно низкие затраты на сбор информации.

Перечисленные свойства делают выборочное обследование очень привлекательным для практиков. Более подробно о выборочных обследованиях сказано в книгах [13, 16, 26]. Теория вероятностей и,

вчастности, теорема Муавра—Лапласа дает математическое обоснование свойств выборочного метода. Об этом и будет рассказано

вэтом пункте.

Рассмотрим генеральную совокупность большого объема, т. е. с большим числом элементов. Пусть некоторые элементы этой совокупности обладают определенным свойством (далее — свойством C), а другие — нет. Нас интересует доля p таких элементов. Например, генеральная совокупность — электорат, а свойство C — участие

§ 3. Центральная предельная теорема

235

 

 

в выборах или голосование за ту или иную партию. Другой пример: генеральная совокупность — партия массовой продукции, а свойство C — бракованная продукция. И в том, и в другом примере доля объектов со свойством C представляет практический интерес.

Для определения этой доли объектов p мы будем использовать выборочный метод. Для этого надо произвести из генеральной совокупности случайную выборку. (На практике это может быть совсем не простая задача.) Далее надо вычислить частоту встречаемости в этой выборке элементов со свойством C. Эта частота и будет приближенным значением неизвестного p. При этом точность нашего приближения будет тем выше, чем больше объем n случайной выборки. Каков же должен быть этот объем n, чтобы точность приближения (точность оценивания) достигла заданной, желаемой величины?

Испытания Бернулли являются подходящей статистической моделью случайного выбора, когда объем N генеральной совокупности велик, а объем выборки n много меньше, чем N. В этой модели вероятность успеха, т. е. вероятность случайно выбрать элемент со свойством C, равна p, а случайное число S таких элементов в выборке имеет биномиальное распределение. При этом согласно закону боль-

ших чисел nS p, когда n велико.

S

к p, число n в нашем

Чтобы получить хорошее приближение

 

n

 

опыте придется назначить большим. А чтобы испытания Бернулли, т. е. независимые испытания с неизменной вероятностью успеха, были хорошей (адекватной) моделью случайного выбора, надо, чтобы n было (хотя и велико, но) много меньше, чем N (скажем, n <0,1N). В социологических обследованиях в масштабе страны, области, города и т. д. эти условия выполняются. Мы в этом убедимся, когда подсчитаем необходимый объем выборки n.

Каким же должно быть n, чтобы экспериментальное определение

неизвестной доли p с помощью выборочной частоты nS получилось достаточно точным?

Напомним что такое точность приближения. Отклонение наблюдаемой величины, скажем величины x, от интересующей нас величины a — это |x a|. Не зная a, вычислить |x a| нельзя. Но часто достаточно знать, что |x aǫ, где ǫ — некоторое известное число. Это ǫ является гарантированной точностью приближения x к a. Говорят, что x приближает a с точностью ǫ.

Итак, прежде всего установим точность, с которой мы хотим оценить неизвестное p. Пусть это ǫ>0. Разбирая примеры, в дальнейшем мы дадим ǫ конкретные значения — они будут порядка сотых долей

236

Глава 4. Предельные законы теории вероятностей

 

 

единицы. Это оправдано — ведь само p, как доля объектов в совокупности, не превышает единицы.

К сожалению, поскольку nS является случайной величиной, при таких значениях ǫ достоверное (с вероятностью 1) выполнение условия

nS

p

ǫ

 

 

 

 

 

невозможно. Вероятность этого

события

всегда меньше единицы, хо-

тя бы потому, что с ненулевой вероятностью S может принять значение, равное 0, т. е. в выборке не обнаружится ни одного объекта со свойством С. Однако при больших n это событие становится «практически достоверным», т. е. его вероятность становится близка к 1. Если мы выберем малое число δ>0, то

P

 

 

ǫ

 

(3.4.1)

nS

p

¾1 −δ

 

 

 

 

 

 

при достаточно больших n. Остается указать, при каких.

Число ǫ мы назвали точностью приближения nS p. Число (1 −δ) —

это надежность такого приближения. Чем ближе δ к нулю, тем надежность ближе к 1. (На практике при задании надежности часто переходят к процентам. При этом значение надежности 1 соответствует 100%, или абсолютной надежности. Однако в силу сказанного выше реальная надежность в выборочном методе меньше 100%. Общепринятые уровни надежности в социально-экономических исследованиях обычно составляют 95—99 %.) Как мы увидим, требования высокой точности (малое ǫ) и высокой надежности (малое δ) противоречивые. При фиксированном объеме выборки n высокую точность мы можем обеспечить с невысокой надежностью, и наоборот.

Итак, постараемся выбрать n достаточным для выполнения условия (3.4.1). Предполагая, что n велико (мы потом это проверим), используем для вычисления n теорему Муавра—Лапласа:

 

 

S

 

 

 

 

S

np

 

ǫp

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

ǫpn

ǫpn

ǫpn

P

n

 

ǫ

= P

pnpq

 

ppq

 

 

 

 

 

 

 

 

 

 

 

 

 

Φ p

 

 

 

 

−Φ −p

 

 

= 2Φ p

 

 

−1. (3.4.2)

 

 

 

 

 

 

 

 

 

 

 

 

 

pq

 

pq

pq

(Заметим, что в этом переходе мы использовали то, что сходимость в формуле (3.1.3) равномерная!) По условию надежности отсюда следует, что

ǫpn

−1 ¾1 −δ.

 

ppq

(3.4.3)

 

 

 

§ 3. Центральная предельная теорема

237

 

 

Рис. 4.3. График функции y = p(1 p) при 0 < p <1

 

Для нахождения требуемого значения n следует решить (относитель-

но n) полученное неравенство (3.4.3). После группировки членов по-

лучаем

 

 

 

 

 

 

 

ǫpn

 

 

 

 

 

 

 

 

 

 

 

 

δ

 

 

 

 

 

 

 

 

 

Φ ppq ¾

1 − 2 .

 

 

(3.4.4)

Переход к обратной функции Φ−1 (·) (функции квантилей) дает для

необходимого n условие

 

 

ppq

 

 

 

 

 

 

 

 

 

pn ¾

1 − δ2

.

 

 

 

 

 

 

 

ǫ

Φ−1

 

(3.4.5)

На практике хочется найти минимальное значение n, обеспечива-

ющее это условие. (Ведь обследование каждого объекта стоит денег

и времени.) К сожалению, взять в качестве n правую часть неравен-

ства (3.4.5) мы не можем: мы изначально не знаем p и, следовательно,

не знаем значения ppq.

 

 

 

 

 

 

 

 

Задача кажется неразрешимой, но это не так. Заметим, что pq =

= p(1 −p) как функция переменной p достигает своего максимально-

го значения при p = 1

, и это наибольшее значение равно

1 . График

 

 

 

2

 

 

 

 

 

 

 

 

 

4

функции y = p(1 −p) при 0 < p <1 приведен на рис. 4.3

 

Заметим, что необходимый объем выборки существенно зависит

от неизвестного значения p. Самый большой объем выборки необхо-

дим, когда p =q =

1 . А скажем, если заранее известно, что возможная

 

 

 

2

 

 

 

 

 

 

 

 

 

 

доля p ¶0,1, то необходимый объем выборки сокращается почти 2,8

раза, что весьма существенно для практики.

 

 

Так как

 

pq =

p(1

 

 

1 при всяком 0 < p <1, мы получаем

 

p

 

pppq

 

p

 

2

21ǫΦ−1 1 − δ2

.

 

 

 

 

ǫ

Φ−1

1 − δ2

(3.4.6)

238

Глава 4. Предельные законы теории вероятностей

 

 

Мы заведомо достигнем требуемой точности ǫ и надежности 1 −δ, если в качестве pn возьмем (вероятно, с запасом)

pn = 21ǫΦ−1 1 − δ2 . (3.4.7)

Понятно, что надо взять ближайшее целое n, превосходящее квадрат правой части равенства (3.4.7). Такой объем выборки достаточен для достижения поставленной цели. Вместе с тем он не может быть уменьшен при формировании простой случайной выборки без хотя бы приближенного знания p.

Проиллюстрируем необходимые вычисления для получения объема выборки n на примерах, которые одновременно дадут нам представление о порядке этой величины при различных значениях ǫ и δ.

Пример 1. Пусть ǫ=0,03 и δ=0,03. Для вычисления правой части равенства (3.4.7) необходимо знать значение Φ−1 1 − δ2 −1(0,985).

Его можно получить из таблицы обратной функции (таблицы квантилей) стандартного нормального распределения, воспользовавшись сборником таблиц математической статистики или компьютерной программой (скажем, EXCEL). Находим, что Φ−1(0,985) ≈2,17. Следовательно, остается найти наименьшее такое целое n, что

p

 

 

1

 

 

 

n

¾

2,17

=

36,167.

2 ·0,03

 

 

 

Таким значением является n = 1309. Мы видим, что полученное значение сравнительно невелико. Прокомментируем полученный результат с точки зрения социологической практики. Значение ǫ=0,03 означает, что точность вычисления доли p сравнительно невелика (на языке процентов — в пределах 3%). Она может считаться вполне приемлемой для ряда маркетинговых исследований, но вряд ли подойдет для электоральных, когда многие известные политические партии набирают лишь 7 — 10% голосов избирателей. Одновременно надежность такого вывода 1 −δ=0,97 позволяет в 3% случаев усомниться в полученной точности. Отсюда и вытекает сравнительно небольшой объем выборки. В следующем примере мы одновременно повысим и точность, и надежность выводов и посмотрим, как это скажется на величине выборки.

Пример 2. Пусть ǫ=0,01 и δ=0,01. Для вычисления правой части равенства (3.4.7) необходимо знать значение Φ−1(1 − δ2 ) =Φ−1(0,995).

Аналогично предыдущему примеру находим, что Φ−1 (0,995) ≈2,58. Следовательно, остается найти наименьшее такое целое n, что

p

 

 

1

 

 

 

n

¾

2,576

=

128,8.

2 ·0,01

 

 

 

§ 3. Центральная предельная теорема

239

 

 

Таким значением является n =16588. Такое сочетание параметров ǫ и δ на практике обычно трактуется как высокая надежность вывода при приемлемой для многих исследований точности. В следующем примере мы увеличим точность вывода, но одновременно понизим надежность до весьма типичного для практики уровня 95%.

Пример 3. Пусть ǫ=0,005 и δ=0,05. При этом Φ−1(0,975) ≈1,96, а минимальное целое значение n должно удовлетворять неравенству

p

 

 

1

 

 

 

n

¾

1,96

=

196.

2 ·0,005

 

 

 

Следовательно, n = 38415. В сравнении с предыдущими примерами видно, что повышение точности, даже при снижении уровня надежности, заметно увеличило объем выборки.

Как видно из приведенных примеров, число n получается достаточно большим, и применение аппроксимации Муавра-Лапласа для

вычисления

nS

p

ǫ

P

 

 

 

 

 

 

 

 

вполне оправдано. (Точность этого приближенного вычисления вполне достаточна, если только p или q не слишком близки к нулю.) Вместе с этим, полученные объемы выборок действительно много меньше, чем численность обычно изучаемых на практике генеральных совокупностей. Это обеспечивает полную применимость схемы испытаний Бернулли как модели случайного выбора.

При публикациях результатов социологических исследований обычно сообщают и объем выборки, и достигнутую точность выводов. Объем выборки обычно бывает около 2000, что близко к нашим расчетам.

Заметим, что выбор обследуемых элементов из генеральной совокупности может быть и более сложным, чем простой случайный выбор. Для повышения точности и надежности выводов при приемлемых объемах выборок исследователи стараются использовать более сложные планы выборок. Они основаны на знании структуры генеральной совокупности и хотя бы примерном знании p. С учетом этого картина получается более сложной, так же как связанные с этим расчеты; см. [16].

3.5. Историческая справка

Теорема, которую сейчас называют теоремой Муавра—Лапласа, известна уже давно. Исторически это первый математический резуль-

240

Глава 4. Предельные законы теории вероятностей

 

 

тат из тех, что сейчас объединяют под общим названием «центральная предельная теорема». Ее доказательство было дано Муавром1

в1730 г. Дата примерная, так как Муавр по этой проблеме опубликовал не одну работу. Под влиянием книги Я. Бернулли (вышла в 1713 г.) Муавр исследовал введенные Бернулли независимые испытания. (Мы сейчас называем их испытаниями Бернулли.) Его интересовал случай p =1/2. Он доказал более общее утверждение, чем теорема Муавра— Лапласа, для этого случая.

Затем к суммированию случайных величин обратился Лаплас, уже в конце XVIII в. По-видимому, Лаплас знал доказательство центральной предельной теоремы для независимых одинаково распределенных случайных слагаемых. Но манера его изложения не была достаточно внятной, доказательство не было безупречным, и вопрос остался для многих математиков сомнительным. Современное и бесспорное доказательство было дано много позже, в конце XIX в., А. М. Ляпуновым2. В этом очень кратком комментарии мы не упомянули многих других исследователей, работы которых внесли свой вклад в проблему.

Лаплас рассмотрел и испытания Бернулли с произвольной вероятностью успеха p. Этим объясняется упоминание его имени в названии теоремы. Это название не совсем справедливо к каждому из них. По существу, решение дал Муавр. Ему не стоило бы большого труда дать доказательство для произвольного p. Его метод легко это позволял. Но дело даже не в этом: Муавр открыл совершенно новую закономерность в случайных явлениях (в теории вероятностей). А ведь в те времена не было известно ни нормального распределения, ни многих необходимых средств математического анализа и т. д.

Несправедливо это и по отношению к Лапласу, который знал о центральной предельной теореме гораздо больше, чем заключено

втеореме Муавра—Лапласа. Между прочим, именно после трудов Лапласа (и Гаусса) нормальное распределение вошло в математический обиход. Но «именные» научные результаты далеко не всегда носят имена их открывателей.

1 Абрахам де Муавр (1667—1754) — французский гугенот, математик, живший в Англии. (Гугеноты вынуждены были бежать из Франции, спасаясь от религиозных преследований со стороны католиков.) Его именем названа также найденная им формула возведения в степень комплексного числа.

2 Александр Михайлович Ляпунов (1857—1918) — русский математик и механик. Создатель теории устойчивости, равновесия и движения механических систем с конечным числом параметров. Внес вклад в развитие теории вероятностей и дифференциальных уравнений.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]