
5ый семестр / 8. Системный анализ (complete)_1 / SA / не мое / ТС и СА_гр.447_2019 / Учебные пособия / СЕРГЕЕВ_МАКЕТ
.pdfСценарий предусматривает реализацию и выполнение следующей последовательности действий:
1.Вводятся и сохраняются в отдельном файле текущие показатели добычи нефти, жидкости и закачки воды по скважинам (см. табл. 7.14, 7.15). Формируются файлы накопленной добычи нефти, жидкости и воды. Результаты сохраняются и выводятся в виде соответствующих таблиц.
2.Для выбранной из списка характеристики вытеснения формируется интегрированная система моделей вида (7.5.13).
3.Проводится расчет оптимальных оценок параметров взаимодействия скважин сформированной интегрированной системы моделей и оптимальных оценок управляющих параметров (7.5.21), (7.5.22) с использованием одного из методов оптимизации, указанных в первом сценарии.
4.Полученные значения оценок коэффициентов взаимодействия скважин сохраняются в отдельных файлах и выводятся на экран в виде таблицы.
151
ЗАКЛЮЧЕНИЕ
Интегрированные системы идентификации с учетом дополнительной априорной информации, накопленного опыта и знаний – интенсивно развивающаяся в настоящее время область теории идентификации систем.
Рассмотренный в учебном пособии подход к проектированию интегрированных систем идентификации обеспечивает комплексное решение актуальных задач:
1)учета разнородной дополнительной априорной информации;
2)устойчивости решения;
3)повышение точности алгоритмов при малом объеме исходных данных;
4)формализации и учета накопленного опыта и знаний;
5)согласованности исходных, дополнительных априорных данных, накопленного опыта и знаний;
6)оптимизации решений прикладных задач.
Внормальных условиях интегрированные системы идентификации позволяют получить такого же качества решения, как и классические методы, но опираясь на меньший объем экспериментальных данных. Здесь априорная информация учтена таким образом, что она в среднестатистическом смысле не может ухудшать точность решений, она может их только улучшать.
Вэкстремальных условиях: вырожденность матрицы планирова-
ния, ограниченный объем данных, наличие резко выделяющихся от основной массы экспериментальных и дополнительных данных, их существенная неоднородность – интегрированные системы идентификации остаются работоспособными, обладают свойствами устойчивости и живучести, существенно повышают качество решений.
Интегрированные системы идентификации получили наибольшее развитие в задачах моделирования систем большой размерности при ограниченном объеме экспериментальной информации, в системах, где наряду с базой данных активно формируется и база знаний, производится накопление и обработка разнообразной дополнительной информации. К таким объектам следует отнести:
1. Экспертные системы контроля надежности и качества технических систем, программного обеспечения, планирования сокращенных контрольных и определительных испытаний на надежность. Синтез и анализ планов сокращенных испытаний с учетом разного рода дополнительной информации.
152
2.Экспертные системы медицинской диагностики ранних стадий заболеваний.
3.Экспертные системы принятия решений и моделирования в геологии и нефтедобыче. Моделирование процессов разработки нефтегазовых месторождений, планирование геолого-технических мероприятий, прогнозирование и оценка запасов минерально-сырьевых ресурсов.
4.Разнообразные информационные системы мониторинга и принятия решений, где наряду с визуальным, графическим анализом на ЭВМ накопленных данных и знаний, требуется и их количественная интерпретация, анализ и прогноз событий.
Достигнута и одна из главных целей учебного пособия: рассмотреть возможности интегрированных систем идентификации, их место в процессах управления, моделирования и принятия решений. Показано, что интегрированные системы идентификации с учетом априорной информации отражают целостные, системные свойства реальных объектов, существенно расширяют возможности традиционных методов идентификации систем и области их практического применения.
153
СПИСОКЛИТЕРАТУРЫ
Основная
1.Цыпкин Я.З. Основы информационной теории идентификации. –
М.: Наука, 1984. – 320 с.
2.Рубан А.И. Идентификация и чувствительность сложных систем. – Томск: Изд-во ТГУ, 1982. – 303 с.
3.Эйкофф Э. Основы идентификации систем управления. – М.:
Мир, 1975. – 683 с.
4.Райбман Н.С., Чадеев В.М. Построение моделей процессов производства. – М.: Энергия, 1975. – 375 с.
5.Катковник В.Я. Линейные оценки и стохастические задачи оптимизации. Метод параметрических операторов усреднения – М.: Нау-
ка, 1976. – 447 с.
Дополнительная
6.Прангишвили И.В., Лотоцкий В.А., Гинсберг К.С. Международная конференция «Идентификация систем и задачи управления»
(SICPRO–2000). – Москва, 26–28 сентября 2000 г. // Вестник РФФИ – 2001. – № 3 (25). – С. 44–57.
7.III Международная конференция «Идентификация систем и задачи управления» // Автоматика и телемеханика, 2003. – № 11. – С. 202–204.
8.Клейман Е.Г., Мочалов И.А. Идентификация нестационарных объектов // Автоматика и телемеханика. – 1994. – № 2. – С. 3–32.
9.Клейман Е.Г., Идентификация нестационарных объектов // Автоматика и телемеханика. – 1999. – № 10. – С. 3–45.
10.Гинсберг К.С. Системные закономерности и теория идентификации // Автоматика и телемеханика. – 2002. – № 5. – С. 156–170.
11.Гинсберг К.С. Новый подход к структурной идентификации // Автоматика и телемеханика. – 2002. – № 6. – С. 85–98.
12.Сергеев В.Л. Идентификация систем с учетом априорной информации. – Томск: Изд-во НТЛ, 1999. – 146 с.
13.Кориков А.М., Сергеев В.Л. Интегрированные модели и алгоритмы идентификации систем управления // Проблемы современной электроники и систем управления. Т. 2. – Томск: Изд-во Томского гос. ун-та систем управления и радиоэлектроники, 2002. – С. 63–64.
14.Идентификация динамических систем / под. ред. А. Немуры. – Вильнюс: Минтис, 1974. – 287 с.
15.Демиденко Е.З. Линейная и нелинейная регрессии. – М.: Финансы и статистика, 1981. – 300 с.
154
16.Демиденко Е.З. Оптимизация и регрессия. – М.: Наука, 1989. –
296 с.
17.Катковник В.Я. Непараметрическая идентификация и сглаживание данных. – М.: Наука, 1985. – 336 с.
18.Добровидов А.В., Кошкин Г.М. Непараметрическое оценивание сигналов. – М.: Наука, 1997. – 336 с.
19.Тихонов А.Н, Арсенин В.Я. Методы решения некорректных за-
дач. – М.: Наука, 1979. – 288 с.
20.Ермаков С.М., Живглявский А.А. Математическая теория оптимального эксперимента. – М.: Наука, 1987. – 320 с.
21.Поляк Б.Т., Цыпкин Я.З. Стабильное оценивание в условиях неполной информации // Вопросы кибернетики. Адаптивные системы управления. – М., 1977. – C. 6–14.
22.Справочник по теории автоматического управления / под. ред. А.А. Красовского. – М.: Наука, 1987. – 712 с.
23.Марчук Г.И. Методы вычислительной математики. – М.: Наука, 1980. – 535 с.
24.Рубан А.И. Оптимизация систем: учебное пособие. – Томск: Изд-во Томского гос. ун -та, 1984. – 528 с.
25.Тарасенко Ф.П. Непараметрическая статистика. – Томск: Изд-во Томского гос. ун-та, 1975. – 292 с.
26.Сергеев В.Л. К оптимизации регрессионных оценок непараметрического типа при ограниченных выборках // Математическая статистика и ее приложения – Томск: Изд-во Томского гос. ун-та, 1982. –
Вып. 8. – C. 123–148.
27.Сергеев П.В., Сергеев В.Л. Идентификация гидродинамических исследований скважин на основе интегрированных моделей // В сб. трудов шестого Всероссийского семинара «Моделирование неравновесных систем». – Красноярск, 2003. – С. 154–155.
28.Сергеев В.Л, Сергеев П.В. и другие. Регламент по проведению и методам обработки результатов гидродинамических исследований скважин. – Томск: Изд-во НТЛ, 2004. – 60 с.
155

ПРИЛОЖЕНИЕ1 ОСНОВНЫЕПОНЯТИЯИОПРЕДЕЛЕНИЯТЕОРИИМАТРИЦ
Введем обозначения:
вектор-столбец (k ×1-матрица) m ×n -матрица
x |
|
|
a |
. |
. |
. |
a |
|
|
|
1 |
|
|
11 |
|
|
|
1n |
|
|
|
|
|
. |
|
|
|
. |
|
x = |
|
|
; |
A = [aij ] = . |
|
|
|
. |
. |
|
|
|
|
|
|
|
|
. |
|
|
|
|
. |
|
|
|
|
||
|
|
|
|
|
. |
. |
. |
|
|
xn |
|
|
am1 |
amn |
Матричнаяалгебра
Приведем основные определения матричной алгебры.
1. Транспортирование: x' = [x1 ,…xk ];
A' = [a ji ];
[A']' = A ; [A + B]' = A' +B' ;
[ABC]' = C'B'A'.
2.Квадратичная матрица A :
2.1) симметричная, если A' = A;
2.2) кососимметричная, если A' = −A;
2.3) ортогональная, если A'A = AA' = I (I – единичная матрица); 2.4) идемпотентная, если A'A = A.
3. Определитель:
Если А – n × n-матрица, то определитель
n
A = ∑aij Aij , Aij , j=1
где A – алгебраическое дополнение элемента aij 3.1) матрица вырожденная, если A = 0 ; 3.2) AB = AB.
4. Ранг:
•наивысший порядок невырожденной квадратной подматрицы;
•число линейно независимых строк (столбцов);
•ранг С = ранг АСВ, если А и В невырожденные, С и АСВ называются эквивалентными.
5. Присоединенная матрица:
A =[Aij ]' ;
AA = AA = A I.
156

6.Сложение матриц ассоциативно и коммутативно.
7.Умножение:
•ассоциативно A[BC] = [AB]C;
•дистрибутивно A[B +C] = AB + AC;
•некоммутативно, за исключением случая CA = AC, C = cI;
•умножение на скаляр cAB = AcB = ABc;
•скалярное умножение x'y →скаляр;
•двучленное умножение xy'→матрица.
При матричном умножении:
•произведение, последний множитель которого – вектор-столбец, является вектор-столбцом (ABx = y);
•произведение, первый множитель которого – вектор-строка, является вектор-строкой (y'BC = d');
•произведение, начинающееся с вектор-строки и заканчивающееся вектор-столбцом, представляет скаляр (x' Ay = c).
8. Квадратичные формы:
[x , x |
] a b x1 |
|
= ax2 |
+ 2bx x |
2 |
+ cx2 |
; |
||
1 |
2 |
|
|
|
1 |
1 |
2 |
|
|
|
|
b |
c x2 |
|
|
|
|
|
|
|
− положительно определенная; |
> 0 |
|
< 0 |
−отрицательно определенная; |
x' A1x – квадратичная форма – ≥ 0 |
− неотрицательно определенная; |
|
−неположительно определенная |
≤ 0 |
|
|
при всех x ≠ 0; |
|
x' A2 y – билинейная форма;
A1 всегда можно преобразовать к симметричному виду.
Если Q – положительно определенная, то [x − x0 ]'Q−1[x − x0 ] = c – эллипсоид с центром x0 и полуосями, квадраты которых равны корням характеристического уравнения Q.
9.Вырожденность: матрица А вырожденная, если существует x ≠ 0 , такое, что Ax = 0 или A'x = 0 .
10.Обращение:
A−1A = I = AA−1 ; A−1 = A −1 A~ ;
[A−1 ]'= [A']−1 ;
[A−1 ]−1 = A ;
[ABC]−1 = C−1B−1A−1 ;
157

если A'= A−1 , то А ортогональная; если A'= A, C'= C , то1
[A + BCB']−1 = A−1 − A−1B[C−1 + B' A−1B]−1 B' A−1 = [I + A−1BCB']−1 A−1 , CB'[A + BCB']−1 = [C−1 + B' A−1B]−1 B' A−1
или, транспонируя, имеем
[A + BCB']−1 BC = A−1B[C−1 + B' A−1B]−1 .
Производя здесь замены типа C → −C, A → −A, A → A−1 , C → C−1 , B → B', можно получить еще группу формул.
11. Собственные значения:
A − λI – характеристическая матрица (А – квадратная); A − λI = f (λ) – характеристическая функция;
A − λI = f (λ)= 0 – характеристическое уравнение;
λ1 ,…, λn – корни характеристического уравнения (собственные числа
или значения);
[A − λi I]xi = 0 x1 ,…, xn – характеристические (собственные) векторы;
ri = xi / xi ;
R = [r1 ,r2 ,…,rn ] .
Если А – симметричная вещественная матрица, то существует хотя бы одна матрица R, такая, что R' AR = D, A = RDR', где D – диагональная матрица; если А – симметричная вещественная матрица, то все λi вещественные; если при этом все λi > 0, то А положительно определенная, а при λi ≥ 0 – не-
отрицательно определенная.
12. Преобразование подобия:
A и B – подобные матрицы, если B = T−1AT(TT−1 = T−1T = I );
A = TBT−1 ; Ai = TBi T−1 .
13. Конгруэнтное преобразование:
А и B – конгруэнтные матрицы, если B = T' AT (А и В симметричные). Таким способом В можно преобразовать к диагональному виду с элементами – 1, 0, 1, причем число единиц инвариантно и равно рангу.
14. Ортогональное преобразование:
B = T−1AT ;
T−1 = T' (Т – ортогональная матрица).
1 Доказывается умножением обеих частей равенства на [A + BCB'] :
I = [A + BCB'] [A−1 − A−1B[C−1 + B'A−1B]−1B'A−1 = I − B[C−1 + B'A−1B]−1B'A−1 + BCB'A−1 − −BCB'A−1B[C−1 + B'A−1B]−1B'A−1 = I + B[C −[C−1 + B'A−1B]−1[I + CB'A−1B]]B'A−1 =
= I + BC[I − I]B'A−1 = I .
158
15. Симметричная идемпотентная матрица:
A2 = A ;
ее характеристический вектор xi :
A2 xi = Axi = λi xi , A2 xi = Aλi xi = λi2 xi , λi = 0 или 1.
Матрица
[I − A]2 = I2 − 2A + A2 = I − A также идемпотентна.
16.Обобщенное обращение (псевдообращение):
обозначение A(−1) ; определение A(−1) : AA(−1)A = A ;
если А квадратная невырожденная, то A(−1) = A−1 ; если A(−1)A = I(AA(−1) = I), то A(−1) – левая
17.След матрицы. Если соответствующие пары матриц согласованы (то есть соответствующие операции над ними определены), то
1)tr[A +B] = trA + trB ;
2)tr[AC] = tr[CA].
Доказательства этих результатов получаются непосредственной проверкой. Если А – симметричная матрица размера n ×n и λi (i =1,2,…,n) – ее соб-
ственные числа, то
3)trA = ∑λi ;
i=1n
n
4)tr[As ] = ∑λsi ;
i=1
5)tr[A−1 ] = ∑n= λ−1 (матрица А не вырождена).
i1 i
Доказательство. Поскольку матрица А симметрична, то существует такая вещественная ортогональная матрица Т, что T'AT = diag(λ1 ,λ2 ,…λn ) = Λ.
Поэтому ∑λi = trΛ = tr[T'AT] = tr[ATT'] = trA. |
Тогда (4) вытекает из соотноше- |
|||||||||||||||||||
ния Λs = (T'AT)×(T'AT)×…×(T'AT) = T'As T, |
а (5) вытекает из соотношения |
|||||||||||||||||||
Λ−1 = (T'AT)−1 = T'A−1T. (Заметим, что (3) выполняется для любой квадратной |
||||||||||||||||||||
матрицы. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Матричныйанализ. Основныеопределения |
||||||||||||||||||||
1. Производная по скалярному аргументу: |
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
dx1 |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
dt |
|
|
|
|
|
|
|
|
|
||||
|
dA |
|
daij |
dx |
. |
|
|
|
dx' |
dx |
|
dx |
|
|
||||||
|
|
|
|
|
|
|
r |
|||||||||||||
|
|
= |
|
|
; |
|
= . |
|
|
, |
|
= |
1 |
, |
, |
|
; |
|||
|
dt |
|
dt |
|
dt |
|
dt |
|||||||||||||
|
|
dt |
|
|
|
|
|
|
dt |
|
|
|||||||||
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
dxr |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
dt |
|
|
|
|
|
|
|
|
|
|
|
159
