Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
госы / шпоры к госам - копия (Восстановлен).docx
Скачиваний:
49
Добавлен:
17.02.2016
Размер:
326.23 Кб
Скачать
    1. Ошибка при регрессивном анализе

1) Здесь - начальная дисперсия оцениваемого параметра.

- дисперсия оценки; - коэффициент корреляции.

2) Ошибка по Уилксу.

Здесь - матрица ковариаций параметров, по которым производится оценка;

- вектор коэффициентов.

В первом варианте известная дисперсия оцениваемой случайной величины уменьшается в соответствии с изменением коэффициента корреляции. Во втором варианте величина прогрешности оценки – квадратичная форма, вычисляемая с использованием матрицы ковариаций и коэффициентов уравнения регрессии.

    1. Ошибки карт

Разложим карту ошибок в ряд Тейлора

а1·f + а2·f´+ а3·f´´ - для f двухмерной фун-ии.

f – принимаем во всех точках = 1. Можем построить карту того параметра, кот. Мы исследуем.

Там где пробурена скв. и есть информ-я там ошибка min, 1ая произв-ая = 0.

а3·f´´ - берется кривизна поверх-ти, кот. соотв-ет 2ой производ-ой. На карте параметра нужно найти точки min и max и снять точки кривизны. Получим мат. ожидание этой кривизны.

mnku ([ ],[ ],x,x1,x2;[010],0,1,ρ0,d)

d – коэф-т сгущения

[010] - стабилизатор

1) σ2 = σ2т* (Ат*А)-1*β – если задача решается, МНК без стабилизаторов

β – вектор базисных сплайнов(функций),в той точке, которой мы вычисляем ошибку.

Ат*А – матрица системы уравнений (S)

βт * S-1* β – в простом МНК

Вычисляем во всех узлах эти ошибки и получаем карту.

Когда вариационная задача:

S = Ат*А+αQ – матрица системы

Эта задача решается с помощью amnkd.

2) Считали (f) при разных ρ (вес на точки), складывали их и получали:

f = (f1+f2+…+fn) / n;

находим дисперсию: S2 = ((f1-f).*(f1-f)+(f2-f).*(f2-f)+…+(fn-f).*( fn-f)) / (n-1)

Они перемножаются покомпонентно, и получается, что дисперсия вычисляется в каждом узле.

3) Находим карту при стабилизаторе D2 и D1. При D1 в точках min погрешность, а между точками стремится к 0.

    1. Энтропия

ЭНТРОПИЯ – мера неопределенности некоторых ситуаций.

P(xi) – вероятность i-го уравнения х.

Энтропия не зависит от типа распределения. Х можно представить как некоторую величину, меняющуюся во времени и пространстве.

Пусть есть событие, что Z1>2.5 и что Z2<=2.5 у них есть свои вероятности

Р(х1)=3/5 и Р(х2)=2/5 следовательно энтропия величины Z равна:

Н(х)=-(3/5*log(3/5)+2/5*log(2/5)= - (3/5(-0.22)+2/5(-0.4))= 0.292

Возможный диапазон изменчивости энтропии [0;log(n)] , где n-возможное количество значений. Нижняя граница, равная нулю, означает отсутствие неопределенности, т.е. х=const. Графически это можно выразить так:

Верхняя граница, равная log(n) – все значения встречаются с равной вероятностью. Энтропия безразмерная величина, поэтому есть возможность сравнивать степень изученности разных величин, а следовательно можно сравнивать энтропии разных моделей. Например, при подсчете запасов сделать вывод о том, какое месторождение более изучено, а какое менее. Энтропия имеет аналог – дисперсия.