Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры Филатов Мои.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
3.02 Mб
Скачать

2. Планы для моделей, содержащих линейные члены и взаимодействия различного порядка: дробный факторный план для модели , контраст плана, допустимость плана.

План ДФЭ 23-1 . Здесь n = 3, l =1, N=23-1=4.

Генератор в виде . Для неполного квадратичного полинома

количество столбцов плана составляет восемь.

1

+1

-1

-1

+1

+1

-1

-1

+1

2

+1

+1

-1

-1

-1

-1

+1

+1

3

+1

-1

+1

-1

-1

+1

-1

+1

4

+1

+1

+1

+1

+1

+1

+1

+1

. Суммарные значения коэффициентов , , определяются аналогично.

Под контрастом плана понимается соотношение между элементами матрицы F, задающее элемент первого столбца мат­рицы F.

Элементы первого столбца, всегда равные единице, обозначим символически через . План с генератором имеет следующий контраст: .

План с генератором имеет контраст .

Пример Для дробного факторного плана 23-1 с контрастом получаем следующий порядок смешивания для факторов и :

Для оценок имеем соответственно

Для дробного факторного плана 24-1 с контрастом получаем аналогично

Порядок контраста - число элемен­тов в нем

. . обобщающий контраст Пример

Для дробного факторного плана 25-2 в качестве генераторов выбраны соотношения и

Контрасты плана и

Обобщающий контраст .

Умножая все составляющие обобщающего контраста на факторы, находим совпадающие столбцы матрицы F:

.

Вычислительные формулы и свойства планов

Оценки всех коэффициентов не сме­шаны (т. е. матрица F не имеет совпадающих столбцов):

. (2) . (3)

Планы типа являются, таким образом, ортогональными для моделей вида (1). Для вычисления оценок коэффициентов получаем формулы

(6) Здесь (k +1) —общее число коэффициентов модели (1).

Билет №13. 1. Численные методы оптимизации.

Если вид нелинейной регрессии известен, то задача получения модели сводится к определению коэффициентов регрессии, т.е. задача идентификации сводится к задаче параметрической идентификации, которая заключается в таком выборе векторов оценок коэффициентов регрессии , при котором критерий идентификации достигал бы . Т.е. приходим к задаче оптимизации без ограничений (на оценки коэффициентов регрессии никаких ограничений не накладывается). Для решения подобных задач используется, как правило, численные методы оптимизации.

Решение задачи нахождения векторов оценок, которые минимизируют критерий идентификации: .

Ограничения на вектор оценок не накладывается – задача безусловной оптимизации.

Градиентные методы поиска

Этот метод первого порядка, который использует информацию о производной функции f. Значения f или критерия идентификации должны быть дифференцируемы на Rn (во всем n – мерном пространстве), т.е. иметь градиент в любой точке этого пространства. Алгоритм метода - (

- точка - ого приближения,

второе слагаемое в (30) – скаляр, показывающий величину шага(длину) перемещений из точки в точку ; – градиент, указывающий направление от точки приближения к точке – го приближения. Т.к. значение (-1), то направление осуществляется вдоль антиградиента.

Точка начального приближения задается методом приближения к оси.

a) – простейший градиентный метод;

б) – метод наискорейшего спуска;

в) –градиентный метод с дроблением шага. Неравенство – условие спуска.

Задаются величины , обычно . Проверка выполнения условия спуска. Если выполняется, не меняют. Если не выполняется, то шаг дробят до выполнения условия.

Особенности: градиентные методы эффективные с точки зрения скорости сходимости, на начальных этапах оптимизационной процедуры, когда критерий идентификации хорошо аппроксимирует линейную зависимость. В окрестности точки минимума, где градиент близок к нулю, данный метод требует множество итераций для уточнения окрестности точки минимума.

Градиентный метод для произвольной функции f сходится к множеству стационарных точек, а не к точке минимума. Стационарной является точка, удовлетворяющая нулевому градиенту, т.е. градиент c* равен нулевому вектору.

Метод сопряженных направлений

Метод сопряженных направлений – это метод, использующий процедуру формирования точек, в которых определяется оптимальным образом, а вектор – система сопряженных направлений (векторов).

Один из способов формирования системы сопряженных направлений следующий:

(первое сопряженное направление – антиградиент);

Если критерий идентификации - квадратичная функция вида:

. где – неизвестный вектор; – неизвестная квадратичная симметричная матрица, то сопряженный вектор удовлетворяет следующим условиям:

и тогда – скалярная величина.

Если функция является квадратичной, то алгоритм сопряженных направлений является конечношаговым и достигает точки минимума любой точки начального приближения.

Если функция отлична от квадратичной, то формирование сопряженных направлений осуществляется по тем же формулам, но:

. Особенности: метод сопряженных градиентов сходится к точке минимума для любой функции .