Applied regression analysis / Praktic / 1 / praktika1
.pdfКрасоткина
О.В.
Матричные операции и теория вероятности
Теоретические
сведения
Задание
к.ф.-м.н., доцент Красоткина О.В.
Тульский государственный университет
Прикладной регрессионый анализ Практическое занятие 1
Тула, 2013
Красоткина О.В.
План
Красоткина
О.В.
Теоретические
сведения
Задание
1 Теоретические сведения
2 Задание
Красоткина О.В.
Матричные операции
Красоткина
О.В.
Теоретические
сведения
Задание
Красоткина О.В.
Вариант 1
Красоткина
О.В.
Теоретические
сведения
Задание
Доказать, что @@x A 1 = A 1 @@Ax A 1 Здесь x — скалярная переменная.
Доказать тождество Вудберри:
(A + UCV ) 1 = A 1 A 1U(C 1 + VA 1U) 1VA 1. Здесь U; V - прямоугольные матрицы. ”Подсказка: для доказательства достаточно просто перемножить две матрицы и убедиться, что их произведение равно единичной матрице.”
Пусть x = [xa; xb] и p(x) = N(xj ; ). Доказать, что
p(xajxb) = N(xaj a aa1 ab(xb b); aa1).
Красоткина О.В.
Вариант 2
Красоткина
О.В.
Теоретические |
|
|
|
|
|
сведения |
|
Доказать, что |
@ |
|
tr(ABAC) = CT AT BT + BT AT C T |
Задание |
|
|
@A |
|
Вычислить EN(~xj~;)(~x ~a)T B(~x ~a) =
R (~x ~a)T B(~x ~a)N(~xj~; )d~x. Здесь матрица B является симметричной и положительно определенной.
Пусть p(~x) = N(~xj~; ); p(~yj~x) = N(~yjA~x; ). Доказать, что p(~y) = N(~yjA~; + A AT ).
Красоткина О.В.
Вариант 3
Красоткина
О.В.
Теоретические
сведения
Задание
Доказать, что @@x log det A = tr(A 1 @@Ax ). Здесь x — скалярная переменная. ”Подсказка: использовать разложение определителя матрицы по строке.”
Доказать, что оценка максимального правдоподобия для матрицы ковариации нормального
распределения равна (~x ~)(~x ~)T .
N n=1 n n
”Подсказка: дифференцировать функцию правдоподобия по матрице точности = 1.”
Пусть p(~x) / N(~xj~1; 1)N(~xj~2; 2) . Найти p(~x).
N(~xj~3; 3)
Красоткина О.В.