Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
glava2.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
2.63 Mб
Скачать

2.3. Регрессионные статистические характеристики нецентрированных параметров сигналов и помех

При реализации нейросетевых и регрессионных алгоритмов в ближней локации в качестве априор­ной информации используется информация о статистической струк­туре сигналов и помех, получаемая путем экспериментальных и теоретических исследований. При этом при дискретизации процес­сов задача решается в рамках корреляционной теории. Дискрети­зации могут подвергаться и нестационарные реализации в предпо­ложении, что спектр каждой выборочной реализации ограни­чен частотой . Тогда при разложении нестационарных реализа­ции по ортогональным координатам целесообразно воспользовать­ся векторными представлениями, связанными с понятием случай­ного вектора.

Пусть п–мерный случайный вектор, заданный вектором

средних и положительно определенной ковариационной матрицей

;

Обозначим

матрицу начальных корреляционных моментов,

где ,

а и – соответственно матрицы, обратные матри­цам ковариационных и корреляционных моментов. Расчленим вектор Х на два подвектора так, что

;

и обозначим:

, ,

, ,

где индекс Т вверху означает транспортирование. Обозначим

блочную матрицу начальных моментов подвекторов и .

При симметричной матрице матрица — симметричная, т. е. .

Произведем невырожденное преобразование подвектора так, чтобы остаточная сумма квадратов

была минимальной. Дифференцируя остаточную сумму квадратов по В и, приравнивая ее нулю, получаем

, (2.18)

где – есть матрица, обратная матрице .

Матрицу В назовем матрицей начальных коэффициентов рег­рессии. В отличие от регрессии, известной из математической ста­тистики, матрица определяется в конечном счете через матрицу корреляционных моментов , а не через ковариационную матри­цу .

Очень часто при реализации регрессионных систем в качестве априорной информации используются коэффициенты множествен­ной регрессии одного отсчета случайной функции на (п–1) ос­тальных, т. е. используется линейное преобразование вида

.

В такой постановке задачи при расчленении вектора на подвекторы подвектор есть скалярная величина. Тогда матрич­ное уравнение

может быть представлено системой уравнений:

,

,

.

Для положительно определенной матрицы уравнения имеют единственное решение

.

Когда вычисляется начальная регрессия i–й случайной величи­ны на (п—1) остальных, перестановкой индексов можно показать, что

, (2.19)

где — элементы матрицы .

Остаточная сумма квадратов будет равна

, . (2.20)

Рассмотрим частную начальную регрессию между двумя отсче­тами случайной функции и со среднеквадратическими откло­нениями и , математическими ожиданиями и коэффи­циентом взаимной корреляции r.

Матрицы моментов будут иметь вид

; ;

; .

где среднее значение квадрата случайной величины.

Рассмотрим начальную регрессию

. (2.21)

На основании равенства (2.18)

, . (2.22)

На основании (2.19) остаточное среднее значение квадрата случайной величины

.

Если х – центрированные случайные величины, т. е. , то , тогда коэффициент линейного преобразования цент­рированных случайных величин , который в математической статистике называется частным коэффициентом регрессии:

.

Тогда . (2.23)

Остаточная дисперсия .

Выражения для центральных коэффициентов регрессии , из­вестных из математической статистики, получают из выражений для коэффициентов начальной регрессии простой заменой на­чальных моментов центральными.

Из равенств (2.21) и (2.22) видно, что даже при отсутствии ковариации возможно предсказание одной случайной величины через другую с учетом детерминированной составляю­щей, тогда

.

Такое представление особенно полезно в системах ближней ло­кации с учетом специфики подобных систем, когда принятие ре­шения осуществляется в условиях неизвестных математических ожиданий на ограниченном интервале наблюдения и невозможно предсказание по равенству (2.23).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]