shpora
.docx
|
27. Системы векторов, операции над ними. N-мерным вектором называется упорядоченная совокупность n действительных чисел, записываемых в виде Х=(х1,х2,…хn) , где хi – i-я компонента вектора Х. Два n-мерных вектора равны тогда и только тогда, когда равны их соответствующие компоненты, т.е. Х=У, если xi=yi, i=1…n. Суммой двух векторов одинаковой размерности n называется вектор Z=X+Y, компоненты которого равны сумме соответствующих компонент слагаемых векторов, т.е. zi=xi+yi , i=1…n. Произведением вектора Х на действительное число λ называется вектор V=λX, компоненты которого равны произведению λ на соответствующие компоненты вектора Х, т.е. vi=λxi , i=1…n. Линейные операции над векторами удовлетворяют следующим свойствам: Х + У = У + Х; (Х + У) + Z = X + (Y + Z); a(bX) = (ab)X; a(X + Y) = aX + aY; (a + b)X = aX + bX; Существует нулевой вектор О=(0,0,…0) такой, что Х + О = Х, для любого Х; Для любого вектора Х существует противоположный вектор (-Х) такой, что Х + (-Х) = О; 1∙Х = Х для любого Х. Определение Множество векторов с действительными компонентами, в котором определены операции сложения векторов и умножения
|
28. Ранг матрицы. Теорема о ранге матрицы.Ранг матрицы.В матрице размера m x n вычеркиванием каких-либо строк и столбцов можно выделить квадратные подматрицы k-го порядка, где k≤min(m; n). Определители таких подматриц называются минорами k-го порядка матрицы А. Рангом матрицы А называется наивысший порядок отличных от нуля миноров этой матрицы. Ранг матрицы А обозначается rang A или r(A). Из определения следует: 1) ранг матрицы размера m x n не превосходит меньшего из её размеров, т.е. r(A) ≤ min (m; n). 2) r(A)=0 тогда и только тогда, когда все элементы матрицы равны нулю, т.е. А=0. 3) Для квадратной матрицы n-го порядка r(A) = n тогда и только тогда, когда матрица А – невырожденная. В общем случае определение ранга матрицы перебором всех миноров достаточно трудоемко. Для облегчения этой задачи используются элементарные преобразования, сохраняющие ранг матрицы: 1) Отбрасывание нулевой строки (столбца).2) Умножение всех элементов строки (столбца) матрицы на число, не равное нулю. 3) Изменение порядка строк (столбцов) матрицы.4) Прибавление к каждому элементу одной строки (столбца) соответствующих элементов другой строки (столбца), умноженных на любое число. 5) Транспонирование матрицы. Теорема. Ранг матрицы не изменится при элементарных преобразованиях матрицы.
|
|
29. Линейные операторы и матрицы. Пусть
Это
означает, что в некотором базисе
Поскольку A — линейный оператор, то
Но Продолжим вычисления:
Определение. Матрица,
столбцами которой являются координаты
образов соответствующих базисных
векторов екоторого базиса в
Rn —
Обратите
внимание, теперь и в дальнейшем A (полужирная)
— обозначение линейного
оператора, A(светлая)
или Ae —обозначение
матрицы оператора A в
некотором базисе или в базисе Таким образом, доказана следующая теорема.
Теорема (связь
координат образа и прообраза). Если в
пространстве Rn определен
некоторый базис, Между множеством линейных операторов, действующих в Rn и множеством квадратных матриц порядка n можно установить взаимно однозначное соответствие.
|
30.Собственные
векторы линейных операторов.
Ненулевой
вектор
Если
в некотором базисе оператор f имеет
матрицу А и
в том же базисе вектор
|
|
31. Решение системы линейных уравнений с помощью определителей. Формулы Крамера. Пусть число уравнений системы (1) равно числу переменных, т.е. m=n. Тогда матрица системы является квадратной, а её определитель Δ=│А│ называется определителем системы.Предположим, что │А│не равен нулю, тогда существует обратная матрица А-1. Умножая слева обе части матричного равенства на обратную матрицу А-1 получим: А-1 (АХ)= А-1 В. Решением
системы уравнений методом
обратной матрицы
будет матрица-столбец: Х=
А-1В.
(А-1
А)Х
=ЕХ
=Х.
Теорема
Крамера. Пусть
Δ – определитель матрицы системы А,
а Δj
– определитель матрицы, полученный
из матрицы заменой j-го
столбца столбцом свободных членов.
Тогда если Δ не равен нулю, то система
имеет единственное решение, определённое
по формулам Крамера:
где j=1..n.
|
32
Решение
системы линейных уравнений в матричной
форме.Ма́тричный
метод решения систем линейных
алгебраических уравнений с ненулевым
определителем состоит в следующем.Пусть
дана система линейных уравнений с n
неизвестными (над произвольным
полем):
|
|
33.Решение системы линейных уравнений методом Гаусса. Метод Гаусса- метод последовательного исключения переменных-заключается в том,что с помощью элементарных преобразований система уравнений приводится к равносильной системе ступенчатого( или треугольного) вида, из которой последовательно,начиная с последних (по номеру) переменных,находятся все остальные переменные. |
34. Сущность и условия применения теории вероятностей.Теория вероятностей есть математическая наука, изучающая закономерности в случайных явлениях. Случайное явление – это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз несколько по-иному. Методы теории вероятности по природе приспособлены только для исследования массовых случайных явлений; они не дают возможность предсказать исход отдельного случайного явления, но дают возможность предсказать средний суммарный результат массы однородных случайных явлений. Т.в. служит для обоснования матем и прикладной стат-ки.к-я исп-ся при планир-иии орган-ции произ-ва и др.
|
|
35 . Основные понятия теории вероятностей. Классическое определение вероятности основано на понятии равновозможности событий. Равновозможность событий означает, что нет оснований предпочесть какое-либо одно из них другим. Рассмотрим испытание, в результате которого может произойти событие A. Каждый исход, при котором осуществляется событие A, называется благоприятным событию A. Вероятностью события A (обозначают P(A)) называется отношение числа исходов, благоприятных событию A (обозначают k), к числу всех исходов испытания – N т.е. P(A)= k/ N.Из классического определения вероятности вытекают следующие ее свойства:Вероятность любого события заключена между нулем и единицей.Вероятность достоверного события равна единице.Вероятность невозможного события равна нулю
|
36. Вероятностное пространство. Вероятностное пространство – это математическая модель случайного эксперимента (опыта) в аксиоматике А.Н. Колмогорова. Вероятностное пространство содержит в себе всю информацию о свойствах случайного эксперимента, необходимую для его математического анализа средствами теории вероятностей. Любая задача теории вероятности решается в рамках некоторого вероятностного пространства, полностью заданного изначально. Задачи, в которых вероятностное пространство задано не полностью, а недостающую информацию следует получить по результатам наблюдений, относятся к области математической статистики. Вероятностное пространство определяется тройкой компонент (символов) (Ω,S,P), где Ω-пространство элементарных событий S-∂(сигма)-алгебра событий, Р - вероятность, Ω-достоверное событие, S-система подмножеств пространства элементарных исходов Ω.
37.
Элементы
комбинаторного анализа. Комбинато́рика
(Комбинаторный анализ) — раздел
математики,
изучающий дискретные объекты, множества
(сочетания,
перестановки,
размещения
и перечисление
элементов) и отношения на них (например,
частичного
порядка). Соединение-Пустъ А
– множество, состоящее из конечного
числа элементов a1,
a2,
a3…an.
Из различных элементов множества А
можно образовывать группы. Если в
каждую группу входит одно и то же число
элементов m
(m
из n),
то говорят, что они образуют соединения
из n
элементов пo
m
в каждом. Различают три вида соединений:
размещения, сочетания и перестановки.
Соединения,
в каждое из которых входят все n
элементов множества А
и которые, следовательно, отличаются
друг от друга только порядком элементов
называются перестановками
из n
элементов. Число таких перестановок
обозначается символом Рn.Tеорема
1.
Число всех различных перестановок из
n
элементов равно Рn
=
n
(n
− 1) (n
−
2) (n
− 3)…3 ∙ 2 ∙ 1 = 1 ∙ 2 ∙ 3…(n
− 1) n
= n!
Соединения
каждое из которых содержит m
различных элементов (m
< n)
взятых из n
элементов множества A
, отличающихся друг oт
друга или составом элементов, или их
порядком называются
размещениями
из n
элементов по m
в каждом. Число таких размещений
обозначается символом
Tеорема
2.
Число всех размещений из n
элементов по m
вычисляется по формуле:
.Соединения
каждое из которых содержит m
различных элементов (m
< n)
взятых из n
элементов множества А,
отличающихся друг от друга по крайней
мере одним из элементом (только
составом) называются сочетаниями
из
n
элементов по m
в каждом. Число таких сочетаний
обозначается символом . Теорема
3.
Число всех сочетаний из n
элементов по m
определяется формулой:
|
|
38.
Непосредственный
подсчет вероятностей. События
А и В называются равными,
если осуществление события А влечет
за собой осуществление события В и
наоборот.
Объединением
или
суммой
событий Аk
называется событие A, которое означает
появление хотя
бы одного из
событий Аk.
|
39. Теорема сложения вероятностей. Теорема (сложения вероятностей). Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий.
Теорема.
Вероятность
появления хотя бы одного из двух
совместных событий равна сумме
вероятностей этих событий без
вероятности их совместного появления
. Следствие
2:
Сумма
вероятностей противоположных событий
равна единице.
|
|
40.
Теорема
умножения вероятностей. Теорема.
(Умножения вероятностей)
Вероятность
произведения двух событий (совместного
появления этих событий) равна
произведению вероятности одного из
них на условную вероятность другого,
вычисленную при условии, что первое
событие уже наступило.
|
41.
Формула
полной вероятности.Пусть
дано вероятностное
пространство
|
|
42.Теорема
Байеса.
Пусть
имеется полная группа несовместных
гипотез
|
43.Формула
Бернулли.—
формула
в теории
вероятностей, позволяющая находить
вероятность появления события A при
независимых испытаниях. Формула
Бернулли позволяет избавиться от
большого числа вычислений — сложения
и умножения вероятностей — при
достаточно большом количестве
испытаний. Теорема: Если
Вероятность p наступления
события Α в
каждом испытании постоянна, то
вероятность Pk,n того,
что событие A наступит k раз
в n независимых
испытаниях, равна:
Обозначим Ai —
наступление события A в
испытании с номером i.
Так как условия проведения опытов
одинаковые, то эти вероятности равны.
Пусть в результате n опытов
событие Aнаступает k раз,
тогда остальные n − k − раз
это событие не наступает. Событие A может
появиться k раз
в n испытаниях
в различных комбинациях, число которых
равно количеству
сочетаний из n элементов
по k.
Это количество сочетаний находится
по формул
|
|
44. Случайные величины, способы их описания. Случайные величины могут быть: дискретными (если количество возможных значений конечно); непрерывными. Дискретной случайной величиной называется такая величина, которая в результате опыта может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Непрерывной случайной величиной называется такая величина, которая может принимать любые значения из некоторого конечного или бесконечного промежутка. Характеристикой случайной величины является закон распределения, т.е. связь между возможными значениями случайной величины и соответствующими их вероятностями. Для непрерывных случайных величин используют четыре способа аналитического описания законов распределения: плотность распределения f(x);интегральная функция распределения,обратная интегральная функция распределения,функция интенсивности. Наиболее широко используются математические ожидания: среднее время безотказной работы Т; среднее время восстановления Тв; среднее время сохраняемости Тс; средний срок службы Тс.с; средний ресурс Тр и другие показатели. |
45.Основные числовые характеристики дискретных случайных величин. Дискретной случайной величиной называется такая величина, которая в результате опыта может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Определение. Соотношение между возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины. Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения. Графическое представление этой таблицы называется многоугольником распределения. При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице.
|
|
46.Основные
числовые характеристики непрерывных
случайных величин.
Пусть
непрерывная случайная величина Х
задана функцией распределения f(x).
Допустим, что все возможные значения
случайной величины принадлежат отрезку
[a,b].
Определение.
Математическим
ожиданием непрерывной
случайной величины Х, возможные
значения которой принадлежат отрезку
[a,b],
называется определенный интеграл
Если
возможные значения случайной величины
рассматриваются на всей числовой оси,
то математическое ожидание находится
по формуле:
Начальный
момент первого порядка равен
математическому ожиданию.Определение.
Центральным моментом порядка
k
случайной величины Х называется
математическое ожидание величины
|
47.Основные
законы распределения вероятностей
случайных величин: биномиальный,
Пуассона, экспоненциальный, равномерный,
нормальный. Равномерное
распределение вероятностей является
простейшим и может быть как дискретным,
так и непрерывным. Дискретное равномерное
распределение – это такое распределение,
для которого вероятность каждого из
значений СВ одна и та же, то есть:
Закон
распределения вероятностей Пуассона.
Рассмотрим
наиболее типичную ситуацию, в которой
возникает распределение Пуассона.
Пусть некоторые события (покупки в
магазине) могут происходить в случайные
моменты времени. Определим число
появлений таких событий в промежутке
времени от 0 до Т. Случайное число
событий, происшедших за время от 0 до
Т, распределено по закону Пуассона с
параметром l=аТ, где а>0 – параметр
задачи, отражающий среднюю частоту
событий. Вероятность k покупок в течение
большого интервала времени,
(например, – дня) составит P(Х=k)
=
. Для μ=0, σ=1 график принимает вид.Эта кривая при μ=0, σ=1 получила статус стандарта, ее называют единичной нормальной кривой, то есть любые собранные данные стремятся преобразовать так, чтобы кривая их распределения была максимально близка к этой стандартной кривой. Нормализованную кривую изобрели для решения задач теории вероятности, но оказалось на практике, что она отлично аппроксимирует распределение частот при большом числе наблюдений для множества переменных. Можно предположить, что не имея материальных ограничений на количество объектов и время проведения эксперимента, статистическое исследование приводится к нормально кривой.Нормальный закон распределения. Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности
При
x
= m
+ s
и x=m
- s
вторая
производная
равна нулю, а при переходе через эти
точки меняет знак, т.е. в этих точках
функция имеет перегиб. В этих точках
значение функции равно
|
|
48.Числовые
характеристики системы двух случайных
величин. Зависимость между случайными
величинами.
Для
описания системы двух случайных
величин кроме математических ожиданий
и дисперсий составляющих используют
и другие характеристики, такие как
корреляционный момент и коэффициент
корреляции.Корреляционный
моментХарактеристикой зависимости
между случайными
величинами .
|
|





