
Posit1nov (1)
.pdf
Замечание 7.1 Неравенство (7.1) иногда называется неравенством Маркова. Если применить неравенство (7.1) к |X|, то оно справедливо для любой случайной
величины
P ( |
X |
| ≥ |
ε) |
≤ |
E|X| |
и P ( |
X |
| ≥ |
ε) = P ( |
X |
s |
≥ |
εs) |
≤ |
E(|X|s) |
, s > 0. |
| |
|
|
ε |
| |
|
| |
| |
|
|
εs |
|
Следствие 7.1 (Неравенство Чебышева.) Пусть X - случайная величина у которой существует второй начальный момент E(X2) < ∞, тогда для любого ε > 0
справедливы следующие неравенства
P (|X| ≥ ε) ≤ |
E(X2) |
, P (|X − E(X)| ≥ ε) ≤ |
D(X) |
||
|
|
|
. |
||
ε2 |
ε2 |
Второе из этих неравенств называется неравенством Чебышева.
Доказательство. Во-первых, заметим, что можно доказать, что из существования второго начального момента следует существование математического ожидания и дисперсии.
Первое из приведенных неравенств следует из равенства множеств {|X| ≥ ε} = {X2 ≥ ε2} и неравенства Маркова. Второе следует из первого, если применить его
кслучайной величине Y = X − E(X).
Вприложениях часто используются неравенства Маркова и оба приведенных в следствии неравенства. Поясним геометрический смысл, например, неравенства Чебышева.
Вероятность попадания случайной величины X
в заштрихованную область не превосходит D(X)/ε2.
Пример 7.1 Для случайной величины X с заданными математическим ожиданием mx и дисперсией σx2 оценить сверху вероятность того, что величина X отклонится от своего математического ожидания mx не меньше, чем на 3σ.
Используя неравенство Чебышева будем иметь
P (|X − mx| ≥ 3σx) ≤ |
D(X) |
= |
1 |
. |
|
|
|
|
|||
9σx2 |
9 |
Доказанное неравенство является обощением правила трех сигм (см. следствие 4.2). Из неравенства Чебышева следует, что P (|X −mx| < ε) > 1 −Dx/ε2, откуда P (|X − mx| < 3σx) > 8/9. То есть при наличии математического ожидания и дисперсии с вероятностью б´oльшей 8/9 (в среднем - 8 значений из 9) все значения случайной величины лежат на промежутке (E(X) −3σ(X), E(X) + 3σ(X)). Более того P (|X − mx| < nσx) > 1 − 1/n2.
63

7.2Закон больших чисел. Теорема Чебышева
Рассмотрим различные виды сходимости последовательностей случайных величин.
Определение 7.1 Говорят, что последовательность случайных величин Xn сходится при n → ∞ к величине X по вероятности, если для любого ε > 0
P (|Xn − X| ≥ ε) → 0.
P
Этот факт обозначают Xn −→ X, n → ∞.
Определение 7.2 Говорят, что последовательность случайных величин Xn сходятся при n → ∞ к величине X с вероятностью 1, если P {ω : Xn(ω) → X(ω)} = 1, то есть вероятность множества тех исходов, для которых последовательность случайных величин Xn сходится к случайной величине X равна 1.
Теорема 7.2 (Теорема Чебышева, закон больших чисел.) Пусть задана последовательность независимых случайных величин X1, X2, . . . , Xn, . . ., с конечными математическими ожиданиями E(Xi), i = 1, 2, . . . , n, . . . и ограниченными сверху по совокупности дисперсиями D(Xi). То есть существует такое число C > 0,
i |
) |
≤ |
C для любого i = |
1 |
|
n |
|
|
|
|
→ ∞ |
для последовательности |
|||||||||||
что D(X |
|
|
|
, 2, . . . Тогда при n |
|
|
|||||||||||||||||
средних арифметических |
|
n = Pi=1 Xi/n справедливо соотношение |
|
||||||||||||||||||||
X |
|
||||||||||||||||||||||
|
|
|
X |
1 |
n |
n − |
|
1 |
n |
n |
) |
|
= |Xn − E(Xn)| −→ 0. |
(7.2) |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Доказательство. Найдем математическое ожидание и дисперсию случайных величин Xn.
E(Xn) = E X1 + |
|
n |
+ |
|
|
n |
= |
E(X1) + .n + |
( |
|
n) . |
|||||||||||||
|
|
|
|
|
|
|
|
. . . |
|
|
X |
|
|
|
|
|
. . |
E |
X |
|
|
|||
Используя свойство D2 дисперсии получим |
|
= n2 D(X1 + . . . + Xn). |
||||||||||||||||||||||
D(Xn) = D |
|
1 + |
n |
|
+ |
|
|
n |
||||||||||||||||
|
|
|
|
|
|
X |
|
|
. . . |
|
|
X |
|
|
|
|
1 |
|
|
|
|
|
Отсюда, используя независимость случайных величин и ограниченность дисперсий
имеем
D(Xn) = (D(X1) + D(X2) + . . . + D(Xn))/n2 ≤ nC/n2 = C/n.
Применяя неравенство Чебышева и переходя к пределу при n → ∞ получим
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
D X |
|
C |
|
|||
P |Xn − E(Xn)| ≥ ε ≤ |
( n) |
|
≤ |
|
→ 0. |
||||||
ε2 |
nε2 |
Это и означает (см. определение (7.1)), что |Xn − E(Xn)| сходится по вероятности
к нулю.
64

Следствие 7.2 Пусть в условиях теоремы Чебышева E(Xi) = m для любого i = 1, 2, . . . Тогда
P
Xn −→ m при n → ∞.
Чтобы доказать следствие достаточно заметить, что в этом случае
n
X
E(Xn) = E(Xi)/n = m.
i=1
В частности, условия следствия выполнены для последовательности независимых одинаково распределенных случайных величин: Xi X, i = 1, 2, . . ., если существуют E(X) и D(X) . При этом случайную величину X часто называют генеральной совокупностью, а последовательность X1, X2, . . . - выборкой из генеральной совокупности. Можно интерпретировать X1, X2, . . . как последовательность независимых измерений неизвестной случайной величины X. Мы получили, что при
существовании математического ожидания и дисперсии среднее арифметическое последовательности независимых измерений сходится по вероятности к математическому ожиданию (среднему) измеряемой случайной величины.
Теорема 7.3 (Бернулли) Пусть производится n независимых опытов, в каждом из которых может появится событие A с вероятностью p = p(A). Тогда при неограниченном увеличении n - числа опытов, частота (то есть отношение числа успехов к числу опытов) события A сходится по вероятности к его вероятности p = p(A).
Доказательство. Рассмотрим независимые случайные величины Xi - число появлений события A в i-ом опыте (бернуллиевские случайные величины). Тогда случайная величина Xi принимают при i = 1, 2, ... ровно два значения - 0 и 1. Ряд распределения cлучайной величины Xi при любом i имеет вид
xi |
|
0 |
1 |
. |
pi |
|
1 − p |
|
|
|
p |
Математическое ожидание - E(Xi) = p, дисперсия - D(Xi) = p(1 − p). Пусть k = X1 + X2 + ... + Xn, тогда k - число успехов в n испытаниях является случайной величиной имеющей биномиальное распределение. Последовательность X1, X2, ..., Xn, ...
удовлетворяет условиям теоремы Чебышева и, следовательно, при n → ∞
k |
|
X1 + X2 + ... + Xn |
P |
m1 + m2 + ... + mn |
|
|
= |
|
−→ |
|
= p. |
n |
n |
n |
Обобщением теоремы Бернулли является теорема Пуассона.
Теорема 7.4 (Пуассона.) Если производится n независимых опытов и вероятность появления события A в i-ом опыте равна pi, то при увеличении n модуль разности частоты события A и среднего арифметического вероятностей pi сходится по вероятности к 0.
65

Аналогично теореме 7.3 теорема 7.4 выводится из теоремы Чебышева 7.2.
Сформулируем усиленный закон больших чисел в форме Колмогорова.
Теорема 7.5 Пусть X1, X2, . . . , Xn, . . . - последовательность независимых оди-
наково распределенных случайных величин. Тогда существование математических ожиданий E(Xi) = m является необходимым и достаточным для того, чтобы с
вероятностью 1 среднее арифмемическое случайных величин стремилось к их общему математическому ожиданию:
n
X
Xn = Xi/n → m.
i=1
7.3Центральная предельная теорема.
Объектом изучения центральных предельных теорем являются предельные законы распределения последовательностей случайных величин. Мы сформулируем одну из них, на которой базируется изучение выборочной модели в математической статистике.
Теорема 7.6 (Центральная предельная теорема) Пусть X1, X2, ..., Xn, ... - неза-
висимые одинаково распределенные случайные величины, с конечными ожидания-
|
|
P |
n |
Sn = |
ми E(Xi) = m и дисперсиями D(Xi) = σ2. Пусть, как и раньше, Xn = ( |
|
|||
i=1 Xi)/n. |
||||
Рассмотрим последовательность центрированных нормированных величин |
|
(Xn − E(Xn))/σ(Xn). Тогда при n → ∞ последовательность FSn (x) функций распределения случайных величин Sn равномерно по x R сходится к Φ(x) - функции
распределения стандартного нормального закона.
Если ввести понятие точной верхней грани множества - sup{D}, D R - наименьшего из таких чисел C, что для всех x D, x ≤ C, то утверждение теоремы примет
вид
sup |FSn (x) − Φ(x)| → 0 при n → ∞.
x R
Заметим, что E(Xn) = m, D(Xn) = σ2/n и, следовательно, Sn = √n(Xn − m)/σ.
Рассмотренная в подразделе 3.4 интегральная теорема Муавра-Лапласа является частным случаем центральной предельной теоремы для последовательности бернуллиевских случайных величин.
Этот вариант центральной предельной теоремы демонстрирует значимость нормального распределения – среднее арифметическое случайных величин, распределенных по любым законам в условиях теоремы при больших n имеет распределение близкое к нормальному. Если изменить условия на Xi, то предельные распределе-
ния могут и не быть нормальными.
8Элементарная теория процессов.
8.1Понятие о случайной функции.
Пусть имеется вещественная переменная t, которая принимает свои значения на некотором множестве T . Если каждому значению t из T соответствует случайная
66
величина X, то будем говорить, что мы имеем случайную функцию вещественной
переменной.
Эту функцию будем обозначать X(t).
Пример 8.1 Игральная кость бросается n раз. X(K) – число очков, выпадающее на кости при K-ом бросании. Очевидно, что T – множество натуральных чисел {1, 2, ..., n}. При каждом K случайная величина X дискретна и принимает целые
значения от 1 до 6 с равными вероятностями.
Очевидно также, что случайные величины получающиеся при различных бросаниях X(K1) и X(K2) (K1 6= K2) – независимы. Область определения этой функ-
ции дискретна.
Определение 8.1 Случайные функции с дискретной областью определения называются случайными последовательностями.
Пример 8.2 Пусть X(t) – количество сигналов, поступивших на телефонную станцию за время t. При этом предполагается, что моменты поступления сиг-
налов случайны, независимы и вероятность поступления одного сигнала на малом интервале пропорциональна длине интервала.
Очевидно, что функция X(t) принимает целые значения от 1 до ∞, то есть множество её значений дискретно, тогда как область определения T = [0, ∞) –
непрерывна.
Определение 8.2 Случайные функции, аргументом которых является время, как это было в последнем примере, встречаются довольно часто и обычно называются случайными процессами.
Пример 8.3 Несколько раз в день измеряется температура воздуха. Пусть T = {t1, t2, ..., tn} – множество моментов времени, в которые производят измерения и X(tk) – непрерывная случайная величина, равная зарегистрированной темпера-
туре.
Полученный случайный процесс X(t) можно назвать процессом с непрерывны-
ми состояниями и дискретным временем.
Пример 8.4 Пусть Θ(t) – угол крена корабля. Очевидно, что это случайный про-
цесс с непрерывным временем и непрерывными состояниями.
Определение 8.3 Сечением случайной функции будем называть случайную величину, которая получается при некотором фиксированном значении t. Если же, наоборот, изменять t и для каждого t брать полученное при опыте значение случайной величины, то получится неслучайная функция x(t), которую мы будем
называть реализацией случайного процесса.
Например, для примера 8.1 реализацию можно представить в виде таблицы:
K |
1 |
2 |
3 |
4 |
5 |
|
|
|
|
|
|
X(K) |
5 |
1 |
2 |
1 |
6 |
|
|
|
|
|
|
67

Для примера 8.2 эту реализацию удобно изобразить на графике:
6x
-
t
и так далее.
Иногда случайный процесс изображают в виде набора реализаций.
6x |
|
|
|
|
|
||
q |
|
|
|
q |
|
||
|
|
|
|||||
|
|
||||||
|
|
|
|
q |
|
|
- |
|
|
|
|
|
|||
|
|
|
t1 t2 t3 |
t |
Здесь каждая кривая является реализацией случайного процесса, а точки пересечения этих кривых с прямыми вида t = tm дают значения случайной величины в
её сечении.
8.2Характеристики случайных функций.
Очевидно, что одной из наиболее важных характеристик случайной функции является распределение случайной величины, получаемой в сечении функции.
Вернемся к примерам первого параграфа.
В примере 8.1 случайная величина X(K) – дискретна и распределение её вероят-
ностей описывается таблицей:
X(K) |
1 |
2 |
3 |
4 |
5 |
6 |
|
|
|
|
|
|
|
P |
1/6 |
1/6 |
1/6 |
1/6 |
1/6 |
1/6 |
|
|
|
|
|
|
|
Полезно отметить, что вероятности значений случайной величины X(K) не зависят от сечения, то есть от значения аргумента K.
Второй пример 8.2 более интересен. Зафиксируем некоторый момент τ и выведем закон распределения вероятностей случайной величины X(τ ). Обозначим через P (K, τ ) – вероятность того, что за время τ поступит K сигналов. По условию P (1, τ ) = a · τ , где a – данный коэффициент пропорциональности.
Будем считать, что τ настолько мал, что |
|
|
P (0, τ ) + P (1, τ ) = 1 |
|
|
(Это равенство означает, что за время |
τ поступает не более одного сигнала). Тогда |
|
P (0, |
τ ) = 1 − a τ |
(8.1) |
Вычислим P (0, τ ) – вероятность того, что за время τ не поступит ни одного сигнала. Так как событие "не поступило ни одного сигнала за промежуток времени от 0
68

до τ + τ " является произведением событий "не поступило ни одного сигнала за промежуток от 0 до τ " и "не поступило ни одного сигнала за промежуток от τ до τ + τ " и два последние независимы, то
P (0, τ + τ ) = P (0, τ )P (0, τ ).
Используя (8.1), получаем
P (0, τ + τ ) = P (0, τ )(1 − a τ ),
откуда
P (0, τ + τ ) − P (0, τ ) = −aP (0, τ )Δτ.
Деля обе части последнего равенства на τ и переходя к пределу при τ → 0,
получим
Pτ′(0, τ ) = −aP (0, τ ).
Интегрируя это уравнение, получим искомую вероятность P (0, τ ) = Ce−aτ .
Так как в начальный момент сигналов не было, P (0, 0) = 1 и отсюда C = 1. Окончательно P (0, τ ) = e−aτ . Теперь найдем P (1, τ ) – вероятность того, что за время τ поступит 1 сигнал.
Для этого опять рассмотрим сначала промежуток времени от 0 до τ + τ . Очевидно, что событие "поступил 1 сигнал за время от 0 до τ + τ " можно представить в виде суммы произведений A1τ +Δτ = A1τ A0Δτ + A0τ A1Δτ , где Ait означает событие, состоящее в том, что за время t поступило i сигналов. Так как события A0τ и A1τ , а также события A0Δτ A1Δτ попарно несовместны, а события Aiτ и Ai τ попарно независимы при i = 0, 1 будем иметь
P (1, τ + τ ) = P (A1τ A0Δτ + A0τ A1Δτ ) = P (A1τ )P (A0Δτ ) +
+ P (A0τ )P (A1Δτ ) = P (1, τ )P (0, τ ) + P (0, τ )P (1, τ ) =
= P (1, τ )(1 − a τ ) + e−aτ a |
τ. |
Отсюда |
|
Pτ′(1, τ ) = −aP (1, τ ) + ae−aτ , |
где P (1, 0) = 0. |
Решая это дифференциальное уравнение, получим P (1, τ ) = (aτ ) · e−aτ .
Аналогично можно получить
P ′(K, τ ) + aP (K, τ ) = aP (K − 1, τ ),
откуда по индукции имеем P (K, τ ) = .
Таким образом, мы имеем в каждом сечении случайную величину, распределенную по закону Пуассона. При этом вероятности значений этой величины существенно зависят от значения t.
Вернемся к общему случаю.
Если случайная величина в сечении случайного процесса дискретна, то задается распределение вероятностей её значений, как это было в рассмотренных примерах. Если же эта величина непрерывна, то задается функция её распределения F (x, t)
69

или плотность распределения f (x, t) = Fx′ (x, t). Такой закон распределения назы-
вается одномерным.
Итак, одной из характеристик случайной функции является ее одномерный закон распределения, то есть закон распределения вероятностей значений этой функции в каждый момент времени. Для более полной характеристики вводится многомерный закон.
Рассмотрим несколько сечений случайной функции X(t1), ..., X(tn). Совокуп-
ность этих сечений можно рассматривать, как случайный вектор. Распределение такого вектора называют конечномерным распределением случайной функции.
Например, может быть задана двумерная функция распределения случайной функции F (x1, x2, t1, t2), трехмерная функция и так далее Но эти характеристики на
практике далеко не всегда известны и, даже если известны, то очень трудоемки для обработки. Поэтому чаще используются не законы распределения, а их числовые характеристики.
8.3Числовые характеристики случайных функций.
Пусть X(t) - случайная функция. Фиксируя t, мы получим случайную величи-
ну. Можно говорить о вычислении моментов этой случайной величины, например, математическоого ожидания и дисперсии.
Определение 8.4 Математическим ожиданием случайной функции X(t) называется неслучайная функция, которая каждому значению аргумента t сопостав-
ляет математическое ожидание случайной величины, образующейся в сечении случайной функции при данном t: mx(t) = E(X(t)).
Определение 8.5 Дисперсией случайной функции X(t) называется неслучайная функция, которая каждому значению аргумента t сопоставляет дисперсию случайной величины, образующейся в сечении случайной функции при данном t.
Пример 8.5 Пусть случайная функция имеет вид X(t) = vt+b, где v - случайная величина распределенная по нормальному закону с параметрами mv , σv , b - не случайная величина. Найти одномерную плотность распределения f (x, t) случайной функции и ее характеристики mx(t), Dx(t).
Решение. При фиксированном t случайная величина vt+b является линейной функцией случайного аргумента v распределенного по нормальному закону и, следова-
тельно, она сама будет нормально распределенной с математическим ожиданием
mx(t) = E(vt + b) = tE(v) + b = mv t + b,
и дисперсией
Dx(t) = D(vt + b) = t2D(v) = σv2t2.
Плотность распределения будет иметь вид
f (x, t) = |
1√ |
|
e−(x−(mv t+b))2 /(2t2 σv2). |
|
σv |t| 2π |
70

Пример 8.6 Рассмотрим пример 8.2 из подразд. 8.1 (см. также подразд. 8.2) и найдем параметры этого случайного процесса.
Решение. Как показано в подразд. 8.2, в этом примере закон распределения сечения X(t) есть закон Пуассона с параметром λt. Значит mx(t) = Dx(t) = λt.
Очевидно, что, если случайная функция X(t) в каждом сечении представляет собой случайную величину с одномерной плотностью распределения f (x, t), то
mx(t) = Z∞ xf (x, t)dx и Dx(t) = |
Z∞(x − mx(t))2f (x, t)dx. |
−∞ |
−∞ |
Определение 8.6 Корреляционной функцией случайной функции X(t) называется неслучайная функция двух аргументов Kx(t1, t2), которая при каждой паре значений аргументов t1, t2 равна корреляционному моменту соответствующих се-
чений случайной функции
Kx(t1, t2) = E[(X(t1) − mx(t1))(X(t2) − mx(t2))].
При t1 = t2 = t корреляционная функция превращается в дисперсию случайной
функции Kx(t, t) = Dx(t) = σx2(t).
Наряду с корреляционной функцией рассматривают нормированную корреляционную функцию, то есть коэффициент корреляции сечений X(t1) и X(t2)
rx(t1, t2) = Kx(t1, t2) . σx(t1)σx(t2)
Найдем корреляционные функции в примерах, рассмотренных выше. 1. В примере 8.5
Kx(t1, t2) = E[((vt1 + b) − (mv t1 + b))((vt2 + b) − (mv t2 + b))] =
=E((v − mx)2)t1t2 = D(v)t1t2.
2.В примере 8.2 имеем
Kx(t1, t2) = E[(X(t1) − mx(t1))(X(t2) − mx(t2))].
Допустим, что t2 > t1. Тогда X(t2) - число сигналов на промежутке от 0 до t2 будет равно X(t1) + Y (t2 − t1) - сумма числа событий на промежутке от 0 до t1 и числа событий на промежутке от t1 до t2. Случайная функция Y (t2 − t1), равная числу событий на промежутке от t1 до t2, по условию задачи имеет то же распределение, что и X(t), случайные функции X(t1) и Y (t2 − t1) - некоррелированы. Поэтому
Kx(t1, t2) |
= |
˚ |
˚ |
˚ |
− t1))] = |
|
||
E[(X(t1)(X(t1) + Y(t2 |
|
|||||||
|
= |
˚ |
2 |
|
˚ |
˚ |
− t1)] = Dx(t1) = λt1 |
, |
|
E[(X(t1)) |
] + E[X(t1) |
· Y(t2 |
|||||
˚ |
|
˚ |
|
|
|
|
|
|
где X(t) = X(t)−mx(t) и Y(t) = Y (t)−my (t) - центрированные случайные величины,
соответствующие данным.
Так как Kx(t1, t2) = Kx(t2, t1), то при t1 > t2 получим Kx(t1, t2) = λt2. Таким
образом, для пуассоновского процесса
Kx(t1, t2) = λt, где t = min(t1, t2).
71
8.4Важнейшие классы случайных процессов
I. Случайная функция X(t) называется гауссовской, если все ее конечномерные
распределения нормальны.
Примером такой функции является винеровский процесс.
II. Случайный процесс X(t) называется процессом с независимыми приращениями, если для t0 ≤ t1 ≤ ... ≤ tn, где tk T случайные величины X(t1) −
X(t0), X(t2) − X(t1), ..., X(tn) − X(tn−1) независимы.
Например, рассмотренный выше пуассоновский процесс является процессом с независимыми приращениями, так как разность X(tk ) − X(tk−1) равна числу сигналов, полученных за время от tk−1 до tk , а это число не зависит от числа сигналов, полученных до момента tk−1, а зависит только от величины промежутка (tk−1, tk).
III. Случайный процесс X(t) - называется стационарным, если для любого h конечномерные распределения случайной функции X(t), не меняются при сдвиге на h, то есть для плотностей распределения
f (x, t) = f (x, t + h), f (x1, x2, t1, t2) = f (x1, x2, t1 + h, t2 + h) и т. д.
III-a. Случайный процесс называется стационарным в широком смысле, если у него существуют первые и вторые моменты и они не меняются при сдвиге
E(X(t + h)) = E(X(t)) и Kx(t1 + h, t2 + h) = Kx(t1, t2).
Это означает, что E[X(t)] = E(X(0)) = const, а Kx(t1, t2) = Kx(0, t2 − t1) =
Kx(t2 − t1) - зависит только от разности t2 − t1, то есть является функцией одного
аргумента. Если стационарный процесс имеет первые два момента, то он является стационарным в широком смысле.
Мы будем в дальнейшем иметь дело только со стационарными в широком смысле процессами и, поэтому, будем называть их просто стационарными.
Корреляционную функцию такого процесса будем обозначать K(τ ), где τ =
t2 −t1. Так как Kx(t1, t2) = Kx(t2, t1), то K(τ ) = K(−τ ), а дисперсия Dx = Kx(t, t) = K(0) - постоянна.
8.5Линейные операторы.
Напомним, что мы говорим, что в некотором классе функций задан оператор, если каждой функции этого класса соответствует (единственным образом) функция того же ( или другого) класса. Например, каждой дифференцируемой на некотором промежутке функции можно сопоставить ее производную:
x(t) → x′(t).
Оператор будем обозначать заглавными буквами: y(t) = A(x(t)). Оператор L будем
называть линейным однородным, если
1)L(x1 + x2) = L(x1) + L(x2)
2)L(kx) = kL(x).
72