Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпора тервер.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
2.49 Mб
Скачать

22. Способы генерирования случайной величины с гауссовым законом распределения.

22. Энергетический спектр детерминированного процесса и временная автокорреляционная функция.

- энергия, заключенная между 0 и t. - средняя плотность детерминированного процесса.

S(t) разложим в ряд Фурье: S(t) = C0 + C1cos(ω1t + φ1) + … + Cncos(ωnt + φn), тогда:

Сумма мощностей спектральных состояний = полной мощности. Энергетический спектр можно изобразить графически:

При разложении в ряд Фурье, часто используется комплексное представление:

Сk cos(ωkt + φk) = Ck e-jφk - комплексный вид гармонического колебания.

Средняя мощность:

Где С(ω) – спектральная плотность мощности процесса S(t) при t → ∞ (распределение мощности по спектральной составляющей).

Временная детерминированная функция:

Область допустимых значений корреляционной функции: [-T, T]. Основные свойства:

1) АКФ max при отсутствии временного сдвига:

При τ = 0, временная корреляционная ф-ия определяет полную энергию Е детерминированного процесса. С увелич. τ АКФ убывает.

2) АКФ – четная функция и может быть определена по любому из следующих соотношений:

3) Средняя мощность неограниченных во времени процессов всегда имеет конечное значение:

23. Генерирование случайных чисел методом Неймана.

Получение псевдослучайных чисел с равномерным законом распределения заключается в выработке псевдослучайных чисел.

Псевдослучайные числа – числа, полученные по какой-либо формуле и имитирующие значения случайной величины. Под словом «имитирующие» понимается, что эти числа удовлетворяют ряду тестов так, как если бы они были значениями этой случайной величины.

Первый алгоритм для получения псевдослучайных чисел предложил Дж. Нейман. Это так называемый метод серидины квадратов:

0=0,9876, 02=0,97535376,

1=0,5353, 12=0,28654609,

2=0,6546, … и.т.д

Метод Неймана является методом, позволяющим получать значения СВ в соответствии с заданным законом распределения.

Генерируем 2 СВ 1 и 2 с равномерным законом распределения. x1 и x2 – реализации этих СВ.

Если точка (x1,x2) попадает под «колокол» - в область B, то x1 – результат, х2 отбрасывется.

w(x)dx = f(x)dx/S(B) = p(A|B), если S(B)=1, то w(x)=f(x).

(x1,x2,…,xn) – выборка (последовательность результатов испытаний), n – размерность выборки.

Чтобы найти w(x) разбиваем область определения на интервалы и экспериментально оцениваем pi (через относит. частоту): ^p=Li/n – оценка вероятности, ^Li=^pi/xi – оценка высоты.

При n , x гистограмма совпадает с w(x). Число испытаний n>>кол-ва интервалов k (обычно k ~ log2n). Ошибка (если n конечно) – уровень значимости. Когда закон распределения известен с точностью до параметров, нужно по экспериментальным данным найти эти параметры.

23. Интервальные оценки параметров.

И нтервальной оценкой называется интервал с границами θН и θВ, который накрывает истинное значение θ с некоторой заданной вероятностью γ. Условия выборки: θН(x), θB(x), где х – вектор.

1) Суть: берут интервал длиной 2Δ. В качестве середины берут точечную оценку θ. Такой интервал можно построить.

Понятия: 2Δ – доверительный интервал Δ – погрешность γ – доверительная вероятность, коэф. доверия

- интервал с вероятностью γ накрывает значение θ.

2) Интервальная оценка характеризуется параметрами γ, Δ, n, которые связаны следующей зависимостью:

3) Формула для интервальной оценки при неизвестной дисперсии:

m 1 – выборочная оценка.

Оценка дисперсии:

Параметр γ оценивается через

4) Доверительный интервал для дисперсии гауссова закона распределения.

σ неизвестна, начинают с точечной оценки этого параметра и используют её в качестве середины интервала. Для оценки дисперсии:

Введем величину Для неё Пирсон нашел закон распределения.

P(U1 ≤ χ2 ≤ U2) = γ Введем ограничениея на U1 и U2. Сделаем так, чтобы площади за интервалами были = α / 2

1 - γ = α., следовательно P(χ2 < U1) = P(χ2 > U2) = (1 – γ) / 2

Результат:

(Пирсон получил χ2 взяв сумму независимых случайных величин. Количество их в сумме – степень свободы)