Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

shpora

.docx
Скачиваний:
53
Добавлен:
08.04.2015
Размер:
471.28 Кб
Скачать

27. Системы векторов, операции над ними. N-мерным вектором называется упорядоченная совокупность n действительных чисел, записываемых в виде Х=(х1,х2,…хn) , где хii-я компонента вектора Х. Два n-мерных вектора равны тогда и только тогда, когда равны их соответствующие компоненты, т.е. Х=У, если xi=yi, i=1…n. Суммой двух векторов одинаковой размерности n называется вектор Z=X+Y, компоненты которого равны сумме соответствующих компонент слагаемых векторов, т.е. zi=xi+yi , i=1…n. Произведением вектора Х на действительное число λ называется вектор V=λX, компоненты которого равны произведению λ на соответствующие компоненты вектора Х, т.е. vi=λxi , i=1…n. Линейные операции над векторами удовлетворяют следующим свойствам: Х + У = У + Х; (Х + У) + Z = X + (Y + Z); a(bX) = (ab)X; a(X + Y) = aX + aY;

(a + b)X = aX + bX; Существует нулевой вектор О=(0,0,…0) такой, что Х + О = Х, для любого Х; Для любого вектора Х существует противоположный вектор (-Х) такой, что Х + (-Х) = О; 1∙Х = Х для любого Х. Определение Множество векторов с действительными компонентами, в котором определены операции сложения векторов и умножения

28. Ранг матрицы. Теорема о ранге матрицы.Ранг матрицы.В матрице размера m x n вычеркиванием каких-либо строк и столбцов можно выделить квадратные подматрицы k-го порядка, где k≤min(m; n). Определители таких подматриц называются минорами k-го порядка матрицы А.

Рангом матрицы А называется наивысший порядок отличных от нуля миноров этой матрицы.

Ранг матрицы А обозначается rang A или r(A). Из определения следует: 1) ранг матрицы размера m x n не превосходит меньшего из её размеров, т.е. r(A) ≤ min (m; n). 2) r(A)=0 тогда и только тогда, когда все элементы матрицы равны нулю, т.е. А=0. 3) Для квадратной матрицы n-го порядка r(A) = n тогда и только тогда, когда матрица А – невырожденная. В общем случае определение ранга матрицы перебором всех миноров достаточно трудоемко. Для облегчения этой задачи используются элементарные преобразования, сохраняющие ранг матрицы: 1) Отбрасывание нулевой строки (столбца).2) Умножение всех элементов строки (столбца) матрицы на число, не равное нулю.

3) Изменение порядка строк (столбцов) матрицы.4) Прибавление к каждому элементу одной строки (столбца) соответствующих элементов другой строки (столбца), умноженных на любое число.

5) Транспонирование матрицы. Теорема. Ранг матрицы не изменится при элементарных преобразованиях матрицы.

29. Линейные операторы и матрицы. Пусть

A — линейный оператор в Rn.

Это означает, что в некотором базисе в Rn имют место разложения:

.

Поскольку A — линейный оператор, то

Но следовательно, т.е. — вектор из Rn, компоненты которого — координаты образа базисного вектора 

Продолжим вычисления:

Обозначим . Тогда   т.е. .Формула связывает вектор-столбец координат образа с вектором-столбцом координат прообраза.

Определение. Матрица, столбцами которой являются координаты образов соответствующих базисных векторов екоторого базиса в Rназывается матрицей линейного оператора в данном базисе.

Обратите внимание, теперь и в дальнейшем (полужирная) — обозначение линейного оператора, A(светлая) или Ae —обозначение матрицы оператора в некотором базисе или в базисе .

Таким образом, доказана следующая теорема.

Теорема (связь координат образа и прообраза). Если в пространстве Rn определен некоторый базис, и — векторы (столбцы) из Rn и , то векторы-столбцы их координат в этом базисе связаны соотношением , где A — матрица оператора в этом же базисе.

Между множеством линейных операторов, действующих в Rn и множеством квадратных матриц порядка можно установить взаимно однозначное соответствие.

30.Собственные векторы линейных операторов. Ненулевой вектор  называется собственным вектором линейного оператора , если  ( для комплексного ), такое, что  Число  называется собственным числом (собственным значением) оператора f, соответствующим этому собственному вектору.

     Если в некотором базисе оператор f имеет матрицу А и в том же базисе вектор  имеет координатный столбец X, то  или    Собственные числа  линейного оператора  - корни характеристического уравнения , где  - матрица оператора f - символ Кронекера.   Для каждого собственного значения  соответствующие собственные векторы могут быть найдены из матричного уравнения  или соответствующей ему системы линейных уравнений Линейный оператор называется оператором простой структуры, если существует базис, состоящий из собственных векторов этого оператора. Матрица линейного оператора в этом базисе имеет вид,где  - соответствующие собственные значения.

31. Решение системы линейных уравнений с помощью определителей. Формулы Крамера. Пусть число уравнений системы (1) равно числу переменных, т.е. m=n. Тогда матрица системы является квадратной, а её определитель Δ=│А│ называется определителем системы.Предположим, что │А│не равен нулю, тогда существует обратная матрица А-1. Умножая слева обе части матричного равенства на обратную матрицу А-1 получим: А-1 (АХ)= А-1 В.

Решением системы уравнений методом обратной матрицы будет матрица-столбец: Х= А-1В. (А-1 А)Х =ЕХ =Х. Теорема Крамера. Пусть Δ – определитель матрицы системы А, а Δj – определитель матрицы, полученный из матрицы заменой j-го столбца столбцом свободных членов. Тогда если Δ не равен нулю, то система имеет единственное решение, определённое по формулам Крамера: где j=1..n.

32 Решение системы линейных уравнений в матричной форме.Ма́тричный метод решения систем линейных алгебраических уравнений с ненулевым определителем состоит в следующем.Пусть дана система линейных уравнений с n неизвестными (над произвольным полем):.Тогда её можно переписать в матричной форме:AX = B, где A — основная матрица системы, B и X — столбцы свободных членов и решений системы соответственно:.Умножим это матричное уравнение слева на A - 1 — матрицу, обратную к матрице A: .Так как A − 1A = E (учитывая ассоциативность матричного произведения), получаем X = A - 1B. Правая часть этого уравнения даст столбец решений исходной системы. Условием применимости данного метода (как и вообще существования решения неоднородной системы линейных уравнений с числом уравнений, равным числу неизвестных) является невырожденность матрицы A. Необходимым и достаточным условием этого является неравенство нулю определителя матрицы A. .Для однородной системы линейных уравнений, т.е. когда вектор B = 0, действительно обратное правило: система AX = 0 имеет нетривиальное (т.е. ненулевое) решение только если detA = 0. Такая связь между решениями однородных и неоднородных систем линейных уравнений носит название альтернативы Фредгольма

33.Решение системы линейных уравнений методом Гаусса. Метод Гаусса- метод последовательного исключения переменных-заключается в том,что с помощью элементарных преобразований система уравнений приводится к равносильной системе ступенчатого( или треугольного) вида, из которой последовательно,начиная с последних (по номеру) переменных,находятся все остальные переменные.

34. Сущность и условия применения теории вероятностей.Теория вероятностей есть математическая наука, изучающая закономерности в случайных явлениях. Случайное явление – это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз несколько по-иному. Методы теории вероятности по природе приспособлены только для исследования массовых случайных явлений; они не дают возможность предсказать исход отдельного случайного явления, но дают возможность предсказать средний суммарный результат массы однородных случайных явлений. Т.в. служит для обоснования матем и прикладной стат-ки.к-я исп-ся при планир-иии орган-ции произ-ва и др.

35 . Основные понятия теории вероятностей. Классическое определение вероятности основано на понятии равновозможности событий. Равновозможность событий означает, что нет оснований предпочесть какое-либо одно из них другим. Рассмотрим испытание, в результате которого может произойти событие A. Каждый исход, при котором осуществляется событие A, называется благоприятным событию A. Вероятностью события A (обозначают P(A)) называется отношение числа исходов, благоприятных событию A (обозначают k), к числу всех исходов испытания – N т.е. P(A)= k/ N.Из классического определения вероятности вытекают следующие ее свойства:Вероятность любого события заключена между нулем и единицей.Вероятность достоверного события равна единице.Вероятность невозможного события равна нулю

36. Вероятностное пространство.

Вероятностное пространство – это математическая модель случайного эксперимента (опыта) в аксиоматике А.Н. Колмогорова. Вероятностное пространство содержит в себе всю информацию о свойствах случайного эксперимента, необходимую для его математического анализа средствами теории вероятностей. Любая задача теории вероятности решается в рамках некоторого вероятностного пространства, полностью заданного изначально. Задачи, в которых вероятностное пространство задано не полностью, а недостающую информацию следует получить по результатам наблюдений, относятся к области математической статистики.

Вероятностное пространство определяется тройкой компонент (символов) (Ω,S,P), где Ω-пространство элементарных событий

S-∂(сигма)-алгебра событий, Р - вероятность, Ω-достоверное событие, S-система подмножеств пространства элементарных исходов Ω.

37. Элементы комбинаторного анализа. Комбинато́рика (Комбинаторный анализ) — раздел математики, изучающий дискретные объекты, множества (сочетания, перестановки, размещения и перечисление элементов) и отношения на них (например, частичного порядка). Соединение-Пустъ А – множество, состоящее из конечного числа элементов a1, a2, a3an. Из различных элементов множества А можно образовывать группы. Если в каждую группу входит одно и то же число элементов m (m из n), то говорят, что они образуют соединения из n элементов пo m в каждом. Различают три вида соединений: размещения, сочетания и перестановки. Соединения, в каждое из которых входят все n элементов множества А и которые, следовательно, отличаются друг от друга только порядком элементов называются перестановками из n элементов. Число таких перестановок обозначается символом Рn.Tеорема 1. Число всех различных перестановок из n элементов равно Рn = n (n − 1) (n − 2) (n − 3)…3 ∙ 2 ∙ 1 = 1 ∙ 2 ∙ 3…(n − 1) n = n! Соединения каждое из которых содержит m различных элементов (m < n) взятых из n элементов множества A , отличающихся друг oт друга или составом элементов, или их порядком называются размещениями из n элементов по m в каждом. Число таких размещений обозначается символом Tеорема 2. Число всех размещений из n элементов по m вычисляется по формуле: .Соединения каждое из которых содержит m различных элементов (m < n) взятых из n элементов множества А, отличающихся друг от друга по крайней мере одним из элементом (только составом) называются сочетаниями из n элементов по m в каждом. Число таких сочетаний обозначается символом . Теорема 3. Число всех сочетаний из n элементов по m определяется формулой:

38. Непосредственный подсчет вероятностей.  События А и В называются равными, если осуществление события А влечет за собой осуществление события В и наоборот.  Объединением или суммой событий Аk называется событие A, которое означает появление хотя бы одного из событий Аk..Пересечением или произведением событий Ak  называется событие А, которое заключается в осуществлении всех событий Ak.   Разностью событий А и В называется событие С, которое означает, что происходит событие А, но не происходит событие В..Дополнительным к событию А называется событие , означающее, что событие А не происходит.Элементарными исходами опыта называются такие результаты опыта, которые взаимно исключают друг друга и в результате опыта происходит одно из этих событий, также каково бы ни было событие А, по наступившему элементарному исходу можно судить о том, происходит или не происходит это событие.Совокупность всех элементарных исходов опыта называется пространством элементарных событий.

39. Теорема сложения вероятностей. Теорема (сложения вероятностей). Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий.

.Следствие1:Если события  образуют полную группу несовместных событий, то сумма их вероятностей равна единице.Определение. Противоположными называются два несовместных события, образующие полную группу.

Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления . Следствие 2: Сумма вероятностей противоположных событий равна единице..Определение. Событие А называется независимым от события В, вероятность события А не зависит от того, произошло событие В или нет. Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В или нет.

40. Теорема умножения вероятностей. Теорема. (Умножения вероятностей) Вероятность произведения двух событий (совместного появления этих событий) равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое событие уже наступило.    . ---Также можно записать .Доказательство этой теоремы непосредственно вытекает из определения условной вероятности. Если события независимые, то , и теорема умножения вероятностей принимает вид: .В случае произведения нескольких зависимых событий вероятность равна произведению одного из них на условные вероятности всех остальных при условии, что вероятность каждого последующего вычисляется в предположении, что все остальные события уже совершились.Из теоремы произведения вероятностей можно сделать вывод о вероятности появления хотя бы одного события.Если в результате испытания может появиться п событий, независимых в совокупности, то вероятность появления хотя бы одного из них равна-    .Здесь событие А обозначает наступление хотя бы одного из событий Ai, а qi – вероятность противоположных событий.

41. Формула полной вероятности.Пусть дано вероятностное пространство , и полная группа попарно несовместных событий , таких что    . Пусть  — интересующее нас событие. Тогда

.

42.Теорема Байеса. Пусть имеется полная группа несовместных гипотез  с известными вероятностями их наступления . Пусть в результате опыта наступило событие А, условные вероятности которого по каждой из гипотез известны, т.е. известны вероятности . Требуется определить какие вероятности имеют гипотезы   относительно события А, т.е. условные вероятности . Теорема. Вероятность гипотезы после испытания равна произведению вероятности гипотезы до испытания на соответствующую ей условную вероятность события, которое произошло при испытании, деленному на полную вероятность этого события.

43.Формула Бернулли.— формула в теории вероятностей, позволяющая находить вероятность появления события A при независимых испытаниях. Формула Бернулли позволяет избавиться от большого числа вычислений — сложения и умножения вероятностей — при достаточно большом количестве испытаний. Теорема: Если Вероятность p наступления события Α в каждом испытании постоянна, то вероятность Pk,n того, что событие A наступит k раз в n независимых испытаниях, равна:  где q = 1-p. Так как в результате n независимых испытаний, проведенных в одинаковых условиях, событие A наступает с вероятностью , следовательно противоположное ему событие с вероятностью .

Обозначим Ai — наступление события A в испытании с номером i. Так как условия проведения опытов одинаковые, то эти вероятности равны. Пусть в результате n опытов событие Aнаступает k раз, тогда остальные n − k − раз это событие не наступает. Событие A может появиться k раз в n испытаниях в различных комбинациях, число которых равно количеству сочетаний из n элементов по k. Это количество сочетаний находится по формул.При этом вероятность каждой комбинации равна произведению вероятностей:

. Применяя теорему сложения вероятностей несовместных событий, получим окончательную Формулу Бернулли:

 где q = 1-p

44. Случайные величины, способы их описания. Случайные величины могут быть: дискретными (если количество возможных значений конечно); непрерывными. Дискретной случайной величиной называется такая величина, которая в результате опыта может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Непрерывной случайной величиной называется такая величина, которая может принимать любые значения из некоторого конечного или бесконечного промежутка. Характеристикой случайной величины является закон распределения, т.е. связь между возможными значениями случайной величины и соответствующими их вероятностями. Для непрерывных случайных величин используют четыре способа аналитического описания законов распределения: плотность распределения f(x);интегральная функция распределения,обратная интегральная функция распределения,функция интенсивности. Наиболее широко используются математические ожидания: среднее время безотказной работы Т; среднее время восстановления Тв; среднее время сохраняемости Тс; средний срок службы Тс.с; средний ресурс Тр и другие показатели.

45.Основные числовые характеристики дискретных случайных величин. Дискретной случайной величиной называется такая величина, которая в результате опыта может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Определение.  Соотношение между возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины. Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения. Графическое представление этой таблицы называется многоугольником распределения.  При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице.

46.Основные числовые характеристики непрерывных случайных величин. Пусть непрерывная случайная величина Х задана функцией распределения f(x). Допустим, что все возможные значения случайной величины принадлежат отрезку [a,b]. Определение. Математическим ожиданием  непрерывной случайной величины Х, возможные значения которой принадлежат отрезку [a,b], называется определенный интеграл

Если возможные значения случайной величины рассматриваются на всей числовой оси, то математическое ожидание находится по формуле: При этом, конечно, предполагается, что несобственный интеграл сходится.Определение. Дисперсией непрерывной случайной величины называется математическое ожидание квадрата ее отклонения..По аналогии с дисперсией дискретной случайной величины, для практического вычисления дисперсии используется формула: Определение. Средним квадратичным отклонением называется квадратный корень из дисперсии. .Определение. Модой М0 дискретной случайной величины называется ее наиболее вероятное значение. Для непрерывной случайной величины мода – такое значение случайной величины, при которой плотность распределения имеет максимум.Если многоугольник распределения для дискретной случайной величины или кривая распределения для непрерывной случайной величины имеет два или несколько максимумов, то такое распределение называется двухмодальным или многомодальным.Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальнымОпределение. Медианой MD случайной величины Х  называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины. .Геометрически медиана – абсцисса точки, в которой площадь, ограниченная кривой распределения делится пополам. Отметим, что если распределение одномодальное, то мода и медиана совпадают с математическим ожиданием.Определение. Начальным моментом порядка k случайной величины Х называется математическое ожидание величины Хk. Для непрерывной случайной величины: .

Начальный момент первого порядка равен математическому ожиданию.Определение. Центральным моментом порядка k случайной величины Х называется математическое ожидание величины .Для дискретной случайной величины: . Для непрерывной случайной величины: .Центральный момент первого порядка всегда равен нулю, а центральный момент второго порядка равен дисперсии. Центральный момент третьего порядка характеризует асимметрию распределения. Определение. Отношение центрального момента третьего порядка к среднему квадратическому отклонению в третьей степени называется коэффициентом асимметрии. .Определение. Для характеристики островершинности и плосковершинности распределения используется величина, называемая эксцессом. .Кроме рассмотренных величин используются также так называемые абсолютные моменты. Абсолютный начальный момент: ..Абсолютный центральный момент: . Абсолютный центральный момент первого порядка называется средним арифметическим отклонением.Для дискретной случайной величины: .

47.Основные законы распределения вероятностей случайных величин: биномиальный, Пуассона, экспоненциальный, равномерный, нормальный. Равномерное распределение вероятностей является простейшим и может быть как дискретным, так и непрерывным. Дискретное равномерное распределение – это такое распределение, для которого вероятность каждого из значений СВ одна и та же, то есть:               где N – количество возможных значений СВ. Распределение вероятностей непрерывной CВ Х, принимающие все свои значения из отрезка [а;b] называется равномерным, если ее плотность вероятности на этом отрезке постоянна, а вне его равна нулю . Биномиальный закон распределения. Определение. Дискретная случайная величина X имеет биномиальный закон распределения, если она принимает значения 0, 1, 2, ..., m, ..., n с вероятностями где 0<p<1, q=1-p, m=0, 1, 2, ..., n. Биномиальный закон распределения представляет собой закон распределения числа X=m наступлений события A в n независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью p.

Закон распределения вероятностей Пуассона. Рассмотрим наиболее типичную ситуацию, в которой возникает распределение Пуассона. Пусть некоторые события (покупки в магазине) могут происходить в случайные моменты времени. Определим число появлений таких событий в промежутке времени от 0 до Т. Случайное число событий, происшедших за время от 0 до Т, распределено по закону Пуассона с параметром  l=аТ, где а>0 – параметр задачи, отражающий среднюю частоту событий. Вероятность k покупок в течение большого интервала времени,  (например, – дня)  составит  P(Х=k) =    . Экспоненциальный закон распределения вероятностей. Непрерывная случайная величина Х называется распределенной по нормальному закону, если ее плотность распределения равна

   где  совпадает с математическим ожиданием величины Х: =М(Х), параметр s совпадает со средним квадратическим отклонением величины Х: s =s(Х). График функции нормального распределения, как видно из рисунка, имеет вид куполо­образной кривой, называемой Гауссовой, точка максимума имеет координаты (а; ). Значит, эта ордината убывает с возрастанием значения s (кривая «сжимается» к оси Ох) и возрастает с убыванием значения s (кривая «растягивается» в положительном направлении оси Оу). Изменение значений параметра  (при неизменном значении s) не влияет на форму кривой, а лишь перемещает кривую вдоль оси Ох. Нормальное распределение с параметрами =0 и s=1 называется нормированным. Функция распределения случайных величин в этом случае будет иметь вид:

.                                                          Для μ=0, σ=1 график принимает вид.Эта кривая при μ=0, σ=1 получила статус стандарта, ее называют единичной нормальной кривой, то есть любые собранные данные стремятся преобразовать так, чтобы кривая их распределения была максимально близка к этой стандартной кривой. Нормализованную кривую изобрели для решения задач теории вероятности, но оказалось на практике, что она отлично аппроксимирует распределение частот при большом числе наблюдений для множества переменных. Можно предположить, что не имея материальных ограничений на количество объектов и время проведения эксперимента, статистическое исследование приводится к нормально кривой.Нормальный закон распределения. Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности

Нормальный закон распределения также называется законом Гаусса.Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.Можно легко показать, что параметры  и , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х. Найдем функцию распределения F(x).

График плотности нормального распределения называется нормальной кривой или кривой Гаусса.  Нормальная кривая обладает следующими свойствами- 1) Функция определена на всей числовой оси. 2) При всех х функция распределения принимает только положительные значения. 3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю. 4) Найдем экстремум функции.

Т.к. при y’ > 0 при x < m и y’ < 0 при x > m , то в точке х = т функция имеет максимум, равный .5) Функция является симметричной относительно прямой х = а, т.к. разность (х – а)  входит в функцию плотности распределения в квадрате. 6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.

    При x = m + s и x=m - s вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб.  В этих точках значение функции равно .Построим график функции плотности распределения. Построены графики при т =0 и трех возможных значениях среднего квадратичного отклонения s = 1, s = 2 и s = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается.. Если а > 0, то график сместится в положительном направлении, если а < 0 – в отрицательном. При а = 0 и s = 1 кривая называется нормированной. Уравнение нормированной кривой:

.

48.Числовые характеристики системы двух случайных величин. Зависимость между случайными величинами. Для описания системы двух случайных величин кроме математических ожиданий и дисперсий составляющих используют и другие характеристики, такие как корреляционный момент и коэффициент корреляции.Корреляционный моментХарактеристикой зависимости между случайными величинами  и  служит математическое ожидание произведения отклонений  и  от их центров распределений (так иногда н.азывают математическое ожидание случайной величины), которое называется корреляционным моментом или ковариацией:.Для вычисления корреляционного момента дискретных величин используют формулу:,а для непрерывных величин – формулу:.Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения, а при малых значениях  более вероятны малые значения , то в правой части формулы положительные слагаемые доминируют, и ковариация принимает положительные значения.Если же более вероятны произведения , состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям  в основном приводят к малым значениям  и наоборот, то ковариация принимает большие по модулю отрицательные значения. В первом случае принято говорить о прямой связи: с ростом  случайная величина  имеет тенденцию к возрастанию. Во втором случае говорят об обратной связи: с ростом  случайная величина  имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения , то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой. Теорема. Корреляционный момент двух независимых случайных величин  и  равен нулю.Доказательство. Так как  и  – независимые случайные величины, то их отклонения  и  также независимы. Пользуясь свойствами математического ожидания (математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей) и отклонения (математическое ожидание отклонения равно нулю), получим:

.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]