
- •Оглавление
- •Предисловие
- •1. Мнения о пользе математики
- •2. Понятия математики и их возникновение
- •3. Некоторые виды абстракции
- •4. Многоступенчатые абстракции
- •6. Количественные отношения реального мира
- •7. Множество и его элементы
- •8. Взаимно однозначное соответствие
- •10. Понятие мощности множества
- •Беседа 3. Операции над множествами
- •11. Пересечение множеств
- •12. Объединение множеств
- •13. Дополнение множеств
- •14. Произведение множеств
- •Беседа 4. Отображения
- •15. Общее понятие отображения и школьная математика
- •16. Некоторые виды отображений
- •17. Обратное отображение
- •18. Композиция отображений
- •19. Классификация
- •Беседа 5. Упорядоченные множества
- •20. Понятие упорядоченного множества
- •21. Минимальные элементы и математическая индукция
- •22. Трансфинитные числа и аксиома выбора
- •Глава 2. Комбинаторика
- •Беседа 6. Размещения, сочетания и родственные задачи
- •23. Размещения с повторениями
- •24. Системы счисления
- •25. Размещения без повторений
- •26. Сочетания без повторений
- •27. Сочетания с повторениями
- •28. Бином Ньютона
- •29. Производящие функции
- •30. Принцип Дирихле
- •Беседа 7. События и вероятности
- •31. События
- •32. Классическое понятие вероятности
- •33. Свойства вероятности
- •34. Условная вероятность
- •35. Независимые события и серии испытаний
- •Беседа 8. Случайные величины
- •37. Нормальное распределение
- •38. Закон больших чисел
- •Беседа 9. Информация
- •40. Количество двоичных цифр
- •41. Задачи на взвешивание
- •42. Понятие об энтропии
- •Беседа 10. Комбинаторные задачи о графах
- •43. Графы и их элементы
- •45. Плоские графы
- •46. Формула Декарта—Эйлера
- •47. Правильные многогранники и паркеты
- •49. Ориентированные графы
- •50. Конечные позиционные игры
- •51. Понятие о сетевом планировании
- •52. Существование и общность
- •53. Структура теоремы
- •54. Отрицание
- •55. Необходимое и достаточное условие
- •56. Конъюнкция и дизъюнкция
- •Беседа 12. Понятие об аксиоматическом методе
- •57. Возникновение аксиоматического метода в математике
- •58. Метрические пространства
- •59. Коммутативные группы
- •Беседа 13. Непротиворечивость, независимость, полнота
- •60. Непротиворечивость и понятие модели
- •61. Математические примеры моделей
- •62. Построение аксиоматики геометрии
- •63. Геометрия Лобачевского
- •64. Модель геометрии Лобачевского
- •65. Изоморфизм моделей
- •66. Полнота аксиоматики
- •67. Цикл озарения
- •68. Сфера достижимости
- •69. Анализ и синтез
- •70. Обратимый анализ
- •72. Поиск решения нестандартных задач
- •Беседа 15. Наглядность. Аналогия. Интуиция
- •74. Формула наглядности — изоморфизм плюс простота
- •75. Наглядность и математическая эстетика
- •76. Аналогия — общность аксиоматики
- •78. Несколько слов о математической интуиции
- •Решения задач и упражнений
- •Предметный указатель

156 |
Беседа 8. Случайные величины |
Здесь n = 60 (исследуются 60 минут часа пик, т. е. последователь- ные испытания состоят в том, что берется первая минута, затем вторая, третья, ..., 60-я). В этой ситуации λ = np = 60 0,0122 = 0,732, т. е.
λ невелико по сравнению с n. По формуле (16) находим:
P0 ≈ e−λ ≈ 0,481, P1 ≈ 11! λe−λ ≈ 0,352,
|
|
1 |
2 −λ |
|
|
1 |
3 |
−λ |
|
P |
≈ |
|
λ e |
≈ 0,129, P |
≈ |
|
λ e |
|
≈ 0,03. |
2! |
3! |
|
|||||||
2 |
|
|
3 |
|
|
|
|
Аналогичным образом по формуле Пуассона рассчитываются ча- стоты телефонных вызовов (если λ невелико, т. е. линия не очень загружена): вероятность P0 того, что в данную минуту часа нет ни
одного вызова, вероятность P1 поступления ровно одного вызова в данную минуту, вероятность P2 двух одновременных вызовов (и тогда
если линия занята первым вызывающим, то второй слышит частые гудки, а в современных телефонах можно поговорить втроем) и т. д.
В частности, 1 − P0 есть вероятность того, что в течение этой минуты будет хотя бы один вызов.
Задачи и упражнения
136. Вероятность попадания торпеды в цель равна 1/3. Сколько следует выпустить торпед, чтобы вероятность попадания в цель хотя бы одной была больше, чем 0,9?
137. На экзамене студенту задается 10 вопросов, на которые он должен ответить «да» или «нет». Какова вероятность, что он ответит правильно не меньше, чем на 7 вопросов, если он отвечает наугад?
138. Рейс из A в B совершают два самолета: двухмоторный и четы- рехмоторный. Вероятность выхода из строя каждого из моторов равна p. Двухмоторный самолет может продолжать полет и на одном моторе, а четырехмоторный — на трех и на двух моторах, а на одном уже не может. При каких значениях p безопаснее лететь на двухмоторном самолете?
139. В булочке с изюмом в среднем бывает 3 изюминки. Какова веро- ятность, что в купленной булочке не окажется изюминок?
140. Некоторую редкую группу крови имеет в среднем один человек на тысячу. У скольких людей нужно взять кровь на исследование, чтобы с вероятностью, большей 0,5, обнаружить человека с кровью этой группы?
Беседа 8. Случайные величины
36. Математическое ожидание и дисперсия
Сумма очков, выпавших на паре брошенных костей (скажем, синей и красной), может принимать значения 2, 3, ..., 12 с вероят- ностями, указанными в следующей таблице:
сумма очков |
2 |
|
3 |
|
4 |
|
5 |
6 |
|
7 |
8 |
|
9 |
10 |
|
11 |
|
12 |
|
||||||||
вероятность |
|
1 |
|
|
1 |
|
|
1 |
|
1 |
|
5 |
|
1 |
|
5 |
|
1 |
|
1 |
|
|
1 |
|
|
1 |
|
|
36 |
|
18 |
|
12 |
|
9 |
36 |
|
6 |
36 |
|
9 |
12 |
|
18 |
|
36 |
|

36. Математическое ожидание и дисперсия |
157 |
|
|
Например, сумме очков 5 соответствуют возможности |
(1; 4), |
(2; 3), (3; 2), (4; 1), каждая из которых реализуется с вероятностью 1/36, так что сумма очков 5 выпадает с вероятностью 4/36 = 1/9. Анало- гично вычисляются и другие вероятности. Сумма очков, выпавших на паре брошенных костей, представляет собой случайную величину, которая может принимать значения 2, 3, ..., 12 с указанными в таб- лице вероятностями.
Если случайная величина X может в результате испытания при- нимать числовые значения x1, x2, ..., xn с вероятностями p1, p2, ...,
pn, то число |
|
E(x) = x1 p1 + x2 p2 + ... + xn pn |
(1) |
называется математическим ожиданием этой случайной величины
(от слова Expectation —ожидание).
Поясним смысл этого понятия на следующем примере. Колесо рулетки имеет по окружности длину 1. Эта окружность разделена на n дуг, имеющих длины p1, p2, ...,
pn (так что p1 + p2 + ... + pn = 1), и на этих дугах написаны некоторые положительные числа x1, x2, ...,
xn (рис. 207). Если игрок запускает
рулетку (производит испытание), то вращающаяся стрелка укажет после остановки некоторую дугу, и написанное на этой дуге число
будет означать выигрыш игрока. Здесь случайная величина X (выи- грыш) может принимать значения x1, x2, ..., xn с вероятностями p1,
p2, ..., pn. Число (1) означает ожидаемый выигрыш (или «средний»
выигрыш).
Пусть теперь испытание S состоит в пятикратном бросании мо- неты, и число выпадений орла считается «выигрышем». Таким обра- зом, рассматривается случайная величина S5 (выигрыш), которая
может принимать значения k = 0, 1, 2, 3, 4, 5 с вероятностями, которые несложно вычисляются по формуле (15), приведенной в предыдущей беседе:
число выпадений орла |
0 |
|
1 |
|
2 |
3 |
4 |
|
5 |
|
||||
вероятность |
|
1 |
|
|
5 |
|
10 |
10 |
|
5 |
|
|
1 |
|
|
32 |
|
32 |
|
32 |
32 |
32 |
|
32 |
|
Математическое ожидание числа выпадений орла, согласно (1),
равно E(S5) = 0321 + 1 325 + 21320 + 31320 + 4325 + 5321 = 8032 = 52.

158 |
Беседа 8. Случайные величины |
Результат этот очевиден: так как вероятность выпадения орла при каждом бросании равна 12, то при пяти бросаниях естественно «ожи-
дать» 512 выпадений орла. А при n бросаниях монеты математическое
ожидание числа выпадений орла равно n 12.
В общем случае для серии испытаний Бернулли картина анало- гична. При каждом из n испытаний событие S («успех») наступает с вероятностью p, а дополнительное событие («неудача») — с вероят-
ностью q = 1 − p. Число успехов при проведении n испытаний есть случайная величина — обозначим ее через Sn, — которая может
принимать значения с вероятностями, вычисляемыми по формуле (15) из предыдущей беседы. Следовательно, ее математическое ожидание равно
n
E(Sn) = ∑ k kn k = 0
(сумма по всем k = 0, 1, ..., n). Читатель формулы бинома Ньютона, что E(Sn) =
pkqn−k
может проверить с помощью np. Впрочем, интуитивно этот
результат понятен: вероятность успеха S при каждом испытании равна p, и потому при n испытаниях можно «ожидать» np успехов.
Рассмотрим, наконец, пуассоновскую случайную величину Y, ко- торая может принимать значения k = 0, 1, 2, ... с вероятностями
1 |
k |
−λ |
|
|
Pk = P(Y = k) = |
|
λ e |
|
(2) |
k! |
|
(k = 0, 1, 2, ...; см. формулу (16) в предыдущей беседе). Здесь случайная величина Y может принимать бесконечное множество значений 0, 1, 2, ... . Однако сумма их вероятностей по-прежнему равна единице:
P0 + P1 + P2 + ... = e−λ + λ e−λ + λ2 e−λ + λ3 e−λ + ... = 1.
1! 2! 3!
Это вытекает из разложения функции ex в ряд (доказываемого в ма-
тематическом анализе): ex = 1 + 1x! + x2!2 + x3!3 + ... .
С помощью того же ряда читатель может вычислить матема- тическое ожидание пуассоновской случайной величины Y. Оно ока-
зывается равным E(Y) = λ. Впрочем, интуитивно это понятно. Мы производим n испытаний Бернулли, вероятность успеха при каждом
λ
испытании равна p = n, где λ << n. Поэтому E(Sn) = np = λ. В пределе

36. Математическое ожидание и дисперсия |
159 |
(при n → ∞) случайная величина Sn превращается в пуассоновскую
величину Y, и мы получаем E(Y) = λ.
В качестве иллюстрации вернемся к игре Шевалье Де Мере. Он 24 раза бросал пару костей и считал успехом выпадение двух единиц.
Здесь вероятность успеха p = 361 . При n = 24 мы имеем pn = 361 24 = 23,
т. е. число λ = pn, в самом деле, невелико по сравнению с n. Поэтому можно применять приближенную формулу (16) из предыдущей бесе- ды. В частности, при k = 0 получается вероятность
|
|
|
|
|
−32 |
2 |
|
|
|
1 0 −λ |
|
−λ |
1 3 |
|
|||
P0 ≈ |
|
λ e |
= e |
|
= e |
= |
e |
, |
0! |
|
2
т. е. вероятность невыигрыша для Де Мере примерно равна 1e 3, как
мы и видели раньше (см. соотношение (2) в предыдущей беседе). Далее, математическое ожидание количества выигрышей
E(Sn) ≈ E(Y) = λ = 23.
Проигрыши де Мере объяснялись не «ошибочностью» математики, а тем, что он не учитывал приближенность замены бернуллиевой слу- чайной величины Sn предельной (пуассоновской) случайной величи-
ной Y.
Второй важной характеристикой случайной величины является ее дисперсия, показывающая разброс возможных значений вокруг мате- матического ожидания (т. е. «среднего» значения). Пусть случайная
величина X имеет математическое ожидание E(X) = µ (см. (1)). Тогда
случайная величина X − µ представляет собой отклонение величины
X от ее среднего значения . Это отклонение может быть положитель- ным, отрицательным или нулем. Квадрат же этого отклонения есть неотрицательная случайная величина; ее математическое ожидание
обозначается через D(X) и называется дисперсией случайной величи- ны X:
D(X) = p |
(x |
− µ)2 + p |
(x |
− µ)2 + ... + p (x |
n |
− µ)2. |
(3) |
1 |
1 |
2 |
2 |
n |
|
|
Раскрывая скобки и учитывая равенство p1 + p2 + ... + pn = 1 и формулу (1), находим формулу для вычисления дисперсии:
D(X) = p |
(x )2 |
+ p |
(x )2 |
+ ... + p |
(x )2 |
− µ2 |
= E(X2) − µ2. |
(4) |
1 |
1 |
2 |
2 |
n |
n |
|
|
|
В качестве примера снова рассмотрим пятикратное бросание мо- неты. Здесь, как мы видели, E(S5) = µ = 52. Далее, квадрат (S5)2 случай-

160 Беседа 8. Случайные величины
ной величины S принимает значения 02, 12, 22, 32, 42, 52 с теми же |
|||||||||||||||||||||||||||
5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
вероятностями, что и раньше: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
квадрат числа выпадений орла |
|
|
|
0 |
|
|
1 |
|
|
4 |
9 |
16 |
|
|
|
25 |
|
||||||||||
вероятность |
|
|
|
|
|
|
1 |
|
|
|
5 |
|
|
10 |
10 |
|
5 |
|
|
|
|
|
1 |
|
|||
|
|
|
|
|
|
32 |
|
|
32 |
|
|
32 |
32 |
32 |
|
|
|
32 |
|
||||||||
Поэтому E((S )2) = 0 |
1 |
+ 1 |
|
5 |
+ 4 |
10 + 9 |
10 + 16 |
5 |
+ 25 |
1 |
= |
|
15 |
, |
и, |
||||||||||||
|
32 |
|
|
|
2 |
|
|||||||||||||||||||||
5 |
32 |
|
|
|
|
|
32 |
|
|
32 |
32 |
|
32 |
|
|
|
|
|
|||||||||
следовательно, по формуле (4) |
|
дисперсия D(S ) |
равна |
15 − |
5 |
2 |
= |
5. |
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
5 |
|
|
|
2 |
|
|
2 |
|
4 |
|||
Это можно понять так: D(S ) = 51 1 |
= npq, |
где n = 5 есть число бро- |
|||||||||||||||||||||||||
|
|
|
5 |
|
|
2 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
саний, а p = q = 1 — |
вероятность успеха |
(и неудачи) |
при |
каждом |
|||||||||||||||||||||||
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
бросании. Это справедливо и для любой серии испытаний Бернулли: случайная величина Sn, означающая число успехов при n испытаниях,
в каждом из которых вероятность успеха равна р, имеет, как мы видели, математическое ожидание np; дисперсия же ее равна npq:
E(Sn) = np, D(Sn) = npq. |
(5) |
Читатель может убедиться в этом, проводя тождественные преобра- зования с помощью формулы бинома Ньютона. Однако удобнее при- менить другой прием. Продифференцировав формулу бинома Нью-
n
тона ∑ kn xk = (1 + x)n (сумма по k = 0, 1, ..., n), а затем умножив ре-
k = 0
n
зультат на x, находим ∑ k kn xk = nx(1 + x)n−1. Снова применяя ту же
k = 0
операцию (дифференцирование с последующим умножением на x),
n |
|
|
|
|
после упрощений получаем ∑ k2 n xk |
= nx(1 + x)n−2 |
+ n2x2(1 + x)n−2. |
||
|
k |
|
|
|
k = 0 |
|
|
|
|
|
|
|
p |
|
Если теперь в двух полученных соотношениях положить x = q |
, а |
|||
затем умножить результаты на qn (где q = 1 − p), то мы найдем: |
|
|||
n |
n |
|
|
|
∑ k n pkqn−k = np, |
∑ k2 n pkqn−k = npq + n2p2. |
|
||
k |
k |
|
|
|
k = 0 |
k = 0 |
|
|
|

36. Математическое ожидание и дисперсия |
161 |
|
|
Рис. 208
Первое из этих соотношении означает, что µ = E(Sn) = np (см. (1)), а второе означает, что E((Sn)2) = npq + µ2, т. е. D(Sn) = npq (согласно
(4)). Читатель, возможно, обратил внимание на то, что мы здесь использовали производящую функцию и ее дифференцирование.
Укажем, наконец, что для пуассоновской случайной величины Y (см. (2)) дисперсия, как и математическое ожидание, оказывается
равной λ: |
|
E(Y) = λ, D(Y) = λ. |
(6) |
В этом можно убедиться с помощью ряда для ex, причем и в этом случае удобно дважды применить ранее рассматривавшуюся опера- цию (дифференцирование с последующим умножением на x).
Смысл понятия дисперсии можно еще пояснить с помощью меха- нической аналогии. Предположим, что единичная масса разделена на частичные массы m1, m2, ..., mn, которые расположены на числовой
оси в точках с координатами x1, x2, ..., xn (рис. 208). Тогда коорди- ната центра тяжести этой системы масс равна
m1x1 + m2x2 + ... + mnxn = m1x1 + m2x2 + ... + mnxn = µ.
Иначе говоря, если рассматривать x1, x2, ..., xn как значения слу- чайной величины X, а m1, m2, ..., mn — как вероятности этих значе-
ний, то координата µ центра тяжести есть математическое ожидание рассматриваемой случайной величины: E(X) = µ. Далее, согласно (3),
D(X) = m1(x1 − µ)2 + m2(x2 − µ)2 + ... + mn(xn − µ)2,
т. е. дисперсия D(X) представляет собой момент инерции рассматри- ваемой системы масс относительно ее центра тяжести (который с ме- ханической точки зрения как раз характеризует разброс масс относи- тельно центра тяжести системы).
Задачи и упражнения
141. Чему равняется математическое ожидание и дисперсия числа очков, выпадающих при бросании игрального кубика?
142. Ответьте на те же вопросы, если кубик имеет смещенный центр тяжести и вероятность выпадения каждой грани пропорциональна числу, указанному на этой грани.
143. Известна следующая игра. Игрок называет число от 1 до 6. Второй бросает три игральных кости (или три раза подряд одну кость). Если