- •Теория информационных процессов и систем
- •Основные понятия теории систем
- •Уровни описания информационных систем
- •Классификация систем
- •Количественное определение информации
- •Передача информации по каналам связи
- •Источники сообщений
- •Избыточность информации
- •Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •Пропускная способность непрерывных каналов связи
- •Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •Согласование оконечных устройств с каналами связи
- •Упражнения
- •Теория оптимальных процессов
- •Необходимые и достаточные условия оптимальности
- •Задачи условной оптимизации
- •Оптимальное управление: классические методы Основные понятия и определения
- •Необходимые условия экстремума. Уравнение Эйлера-Лагранжа
- •Вариационные задачи на условный экстремум
- •Канонические уравнения. Теория Гамильтона – Якоби.
- •Принцип максимума
- •Задача о рюкзаке
- •Понятие статистически оптимальной линейной системы
Теория оптимальных процессов
Предварительные сведения
Множество
называется
выпуклым,
если для любых
выполняется
условие
.
То есть множество В
вместе с любыми своими точками содержит
и все их выпуклые комбинации.
Гладкой называется функция, которая в области своего определения имеет производные, то есть является дифференцируемой.
Для функции многих переменных производные определяются для каждого аргумента и называются частными производными.
Частной
производной функции f=f(x1,...,xn)
по аргументу xi
в точке
называется предел отношения приращения
функции f
к приращению аргумента xi
при условии, что остальные аргументы
фиксированы,
а
:
Если
функция f имеет частные
производные по всем аргументам во всех
точках
,
то говорят, что она дифференцируема на
множестве В.
Геометрический смысл производной аналогичен случаю одной переменной, однако, в для функций многих переменных выбирается та касательная к поверхности в заданной т. x0, которая принадлежит плоскости параллельной плоскости f – 0 – xi.
При
помощи производных можно исследовать
возрастание и убывание функции. Так,
если во всех точках
,
то по переменной xi
функция f
является неубывающей на всем множестве
B; если
,
то f -
невозрастающая по xi
функция на B.
Пусть функция f=f(x1,...,xn) имеет в т. x0 частные производные по каждой из n переменных. Тогда вектор:
называется градиентом функции f.
Градиент,
как вектор, показывает в пространстве
направление
возрастания функции, а антиградиент -
показывает направление убывания.
Говорят, что функция f дважды дифференцируема, если для всех i,j=1,…,n существуют частные производные от частных производных, то есть
Выписывая все эти производные, получаем следующую матрицу:
Симметричная относительно диагонали
-
матрица
называется
матрицей Гессе.
Содержательно вторая производная
показывает темп роста (или спада) скорости
изменения значения функции вместе с
изменением аргумента.
Дифференциал для функции от многих аргументов:
В правой
части множители
можно
заменить на
.
Необходимые и достаточные условия оптимальности
Предварительно напомним, что латинское слово extremum означает "крайнее". Оно в математике имеет два конкретных значения: maximum (сокращенно max) - наибольшее и minimum (сокращенно min) - наименьшее. В таком понимании extremum имеет более узкий смысл, чем optimum, переводимый от латинского как "наилучшее".
Пусть
дана функция
,
где
.
Говорят, что в точке
достигается
максимальное (минимальное) значение
функции f
, если выполнено неравенство
для
всех
.
Этот факт записывается следующим
образом:
Точка x*, в которой достигается максимум (минимум) называется точкой максимума (минимума) функции f.
Задача нахождения максимального или минимального значения заданной функции на заданном множестве называется экстремальной задачей.
Как видим, имеется два вида экстремальных задач - задача на максимум и задача на минимум. Символически они записываются так:
(1)
В (1) функция f
называется целевой
функцией, а Х
- множеством
допустимых решений. Оптимальным
решением задач (1) называется пара
,
где x* -
точка максимума (минимума), а
-
значение функции f
в этой точке, то есть ее максимальное
(минимальное) значение на множестве Х.
Решить задачу (1) это значит: либо найти оптимальное решение; либо убедиться, что оптимальное решение не существует.
Решение задачи (1) требует разрешения трех проблем: 1) проблему существования оптимального решения; 2) проблему установления необходимых и достаточных признаков оптимальности (то есть характерных свойств, присущих точкам максимума и минимума); 3) проблему численного вычисления оптимальных решений.
В экономической практике встречаются случаи, когда поставленная цель не может быть достигнута ввиду тех или иных объективных причин. Подобно этому, оптимальные решения экстремальных задач существуют не всегда.
Сформулируем условия, при которых такие решения существуют.
В
задачах типа (1) применяются экстремальные
точки двух видов: локальный максимум
(минимум) и глобальный максимум (минимум).
Точка
называется
точкой локального
максимума (минимума),
если
для
всех
,
где
-
-окрестность
точки x0.
Точка
называется
точкой глобального
максимума (минимума),
если эти неравенства выполняются для
всех
.
Достаточное условие существования оптимальных решений задач (1) содержится в следующем утверждении.
Теорема (Вейерштрасса). Для того, чтобы в задаче (1) существовала точка глобального максимума (минимума), достаточно, чтобы допустимое множество X было компактно в Rn, а целевая функция f непрерывна на X.
Ввиду сложности проверки ограниченности множества X, на практике часто применяется следствие из этой теоремы.
Следствие (теоремы Вейерштрасса). Если функция f непрерывна на Rn и
то f достигает своего глобального минимума в любом замкнутом подмножестве X пространства Rn.
Необходимые и достаточные признаки оптимальности играют важную роль в решении экстремальных задач.
Необходимые признаки всегда "сопровождают" оптимальное решение, поэтому с их помощью можно вычислить точки, подозрительные на экстремум.
Достаточные признаки всегда сопровождаются решением, т.е. другими словами гарантируют решение, однако, при этом можно "потерять" решение.
Поэтому достаточные признаки можно использовать для нахождения оптимального решения из совокупности допустимых точек, удовлетворяющих необходимым признакам.
Признаки оптимальности приведем в
случае, когда в
т.е. будем рассматривать задачи безусловной
оптимизации.
Для
того, чтобы точка
была
точкой локального экстремума необходимо,
чтобы
(2)
Это есть необходимый признак оптимальности 1 порядка. Все точки x0, удовлетворяющие условию (2) , называются стационарными точками (точки подозрительные на экстремум).
Пример 1.
Нет экстремума.
Пример
2.
Условия
1-го порядка
Система несовместна, т.е. стационарных точек нет вообще.
Условия (2) выполняется как для точки максимума, так и для точки минимума. Поэтому для выяснения характера экстремума стационарных точек применяют к ним более сложные необходимые признаки оптимальности 2-го порядка.
Пусть в (1) функция дважды дифференцируема в точке x0 . Для того, чтобы x0 была точкой локального максимума (минимума) необходимо, чтобы
(3)
и достаточно, чтобы
(4)
Условие (3) и (4) связаны с вогнутостью и выпуклостью функции f. Известно, что дважды дифференцируемая на выпуклом множестве Х функция f вогнута (выпукла) тогда и только тогда, когда для любых векторов справедливо условие (3). В случае же выполнения условия (4) говорят о строгой вогнутости (выпуклости) функции f.
С
другой стороны условие (3) является
признаком отрицательной (положительной)
полуопределенности матрицы Гессе.
Напомним, что матрица
будет
отрицательно (положительно) полуопределенной
в точке x0
, если
(5)
для всех k=1,…,n.
Здесь символом
обозначен минор k-го
порядка матрицы Гессе:
=
где | · | определитель порядка k, вычисляемый в точке x0.
Если в (5) неравенства строгие, то получаем необходимое и достаточное условие отрицательной (положительной) определенности матрицы Гессе в точке x0 . Условие (5) называется критерием Сильвестра для знакоопределенных матриц.
Таким образом, можно предложить следующий алгоритм решения задач (1):
вычислить все стационарные точки;
выяснить характер экстремума стационарных точек (с использованием условий (3) – (4) ), для чего применить критерий Сильвестра;
среди всех точек локального максимума (минимума) найти точки глобального максимума (минимума), сравнивая значение функции f в этих точках.
Пример
3.
Для точки x0=(0,0) имеем:
Видно, что критерий для локального
минимума не выполнен. Однако
,
то есть матрица
отрицательна
полуопределена, и следовательно, для
точки x0
выполнена необходимое условие локального
максимума. Так как это лишь необходимое
условие, в точке x0
может и не быть локального максимума.
Нужно ее дополнительно исследовать.
Рассматривая знак производной функции
f вблизи
x0
, то есть в точках
,
можно убедиться в том, что x0
не является точкой (локального) максимума,
т.е. (0,0) не является точкой экстремума.
Для точки x00=(1,1) имеем:
Следовательно, матрица
положительно
определена, для точки x00
, т.е. выполнено достаточное условие
локального минимума.
Легко установить, что
,
то есть x000=(-1,-1)
так же является точкой локального
минимума.
Точки x00
и x000
являются точками глобального минимума
-
-
т.к
