Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
GD_100.doc
Скачиваний:
1
Добавлен:
14.07.2019
Размер:
1.37 Mб
Скачать

1.3. Аналіз методів і підходів до інформаційного синтезу комп’ютерізованих ск

Перша постановка задачі інформаційного синтезу слабо формалізованих систем, напевно, належить А. Богданову, який сучасним світовим науково-технічним загалом визнаний як автор біхеверистичного підходу до моделювання складних систем. Цей підхід на початку ХХ століття знайшов широке розповсюдження спочатку в психології, а згодом, паралельно з розвитком теорії інформації, на його основі сформувався сучасний кібернетичний підхід. Парадигмою біхеверистичного підходу є визначення функціонального стану складної системи шляхом аналізу її реакції на вплив різних факторів у тому числі і випадкових. Вирішальний вплив на становлення сучасного кібернетичного підходу у теоретичному плані мав розвиток теоретико інформаційного підходу, зокрема, формалізація статистичних інформаційних мір [163-168], а у практичному плані  інтенсивний розвиток у другій половині ХХ століття електронно-обчислювальної техніки та впровадження на її базі нових інформаційних технологій оброблення та аналізу даних.

Історично постановка та розробка методів інформаційного синтезу спочатку відбувалася для класу лінійних динамічних систем як це мало місце у працях І.В. Кузьміна [188], І.М. Сіндєєва [189], А.В. Солодова [190] та інших. Загальним для цих праць є конструювання функціоналу, чутливого до впливу як детермінованої складової  оператора оброблення даних, так і інформаційної міри невизначеності на вході та виході системи: Ф{W(s), J[p(m / l)]}, де W(s)  передатна функція системи; J[p(m /l ),t]  інформаційна міра, яка, у загальному випадку, є функцією часу t. Тут p(m / l)  апостеріорна ймовірність появи події m за умови прийняття гіпотези l, де m, l =  змінні числа функціональних станів системи. Тоді розв’язання задачі інформаційного синтезу полягає у знаходженні екстремальних параметрів функціонування системи {g}, , які забезпечують максимум функціоналу:

де G область допустимих значень параметрів функціонування.

Введення в контур СК ЕОМ, за умови її функціонування в інтерактивному, багато потоковому й асинхронному режимах, розв’язання задачі інформаційного синтезу в її класичній постановці викликало принципові ускладнення, пов’язані з відповідним сучасним рівнем математичної формалізації таких систем. Одночасно це дало поштовх для розвитку методів статистичного синтезу [118-123], які ставили за мету максимізацію (мінімізацію) статистичних критеріїв якості функціонування системи при заданих обмеженнях на саму систему або на сигнали та процеси, які впливають на неї. У цих працях оцінка ефективності СК здійснювалася за критеріями, які узагальнено або частково враховували випадковий характер потоків інформації на вході системи та процеси її оброблення, структурні особливості системи, характеристики її надійності, точнісні характеристики та інші показники ефективності. Так, у праці [191] оцінка ефективності СК здійснювалася на основі критерію середніх втрат [192], який у загальному випадку є математичним сподіванням економічних втрат, що обумовлені різними причинами втрати інформації:

, (1.3.1)

де  множина можливих станів системи;

()  функція, яка визначає економічні втрати залежно від можливих станів системи;

P()  функція розподілу ймовірностей функціональних станів системи.

Для конкретної СК, яка контролює n параметрів і складається з m функціональних блоків середні питомі (в одиницю часу) втрати на основі (1.3.1) подаються у вигляді:

, (1.3.2)

де j (t)  середні питомі втрати від дефекту j-го параметра;

pj(t)  щільність дефекту j-го параметра;

i,j знакова функція: i,j=1 при відмові і-го блока, яка викликає порушення контролю j-го параметра і  i,j=0 в протилежному випадку.

Тоді для оцінки ефективності СК пропонується така нормована величина:

,

де W  середні втрати, які мають місце при функціонуванні системи і які обчислюються за формулою (1.3.2);

W0  середні втрати у випадку, коли процес контролю або керування здійснюється без використання СК, ефективність якої оцінюється.

Запропонований у праці [191] метод статистичного синтезу систем контролю та керування має притаманний всім параметричним методам недолік, пов’язаний з необхідністю використання досить “багатої” статистики, яка повинна задовольняти основну статистичну гіпотезу, що на практиці не завжди виконується.

Вперше задачу інформаційного синтезу комп’ютерізованої СК було розглянуто у 1971 році в монографії І.В. Кузьміна [193], в якій пропонувалося оцінювати ефективність системи за узагальненим функціонально-статистичним критерієм. Цей критерій враховує як інформаційну спроможність, яка визначає найважливішу складову загальної ефективності системи  функціональну ефективність, так і зведені витрати на забезпечення прийнятних показників інших складових ефективності. Часткові критерії інформаційної спроможності комп’ютерізованої СК розглянуто у праціі [194]. Так само у працях вітчизняних авторів – В.І Скуріхіна і О.А. Павлова [195], О. Г. Івахненка [196-198], В.І. Костюка В.І. [78,79], В.І. Васильєва [63,89], Ю.П. Зайченка [90], Л.С. Ямпольського [199], І.Б. Сіроджи [96,97], А.С. Куліка [102,103], А.М. Сільвестрова [200], Е.Г. Петрова [60], Є.П. Путятіна [77] та інших і закордонних авторів, наприклад, [115, 201,202] закладено основи для переходу від методології визначення оператора оброблення даних до сучасної методології аналізу даних, яка знайшла своє втілення в об’єктно-орієнтованому проектуванні складних систем різної природи [203].

Cуттєві результати в рамках статистичного синтезу отримано у працях [119,120], де розроблено теоретичні основи оптимізації просторово-часових характеристик системи розпізнавання шляхом встановлення кількісних співвідношень між тривалістю процесів навчання. прийняття рішень і розмірністю простору ознак розпізнавання. При цьому мінімізація сумарної кількості реалізацій образу і ознак розпізнавання здійснюється з метою забезпечення достатнього гарантійного рівня достовірності розпізнавання при заданій допустимій міжкласовій відстані. Зупинимось на розробленому в праці [119] непараметричному вирішальному правилі, яке ґрунтується на використанні операторних оцінок як одномірних, так і багатовимірних функцій щільності ймовірностей, отриманих за апріорно класифікованими навчальними вибірками довільних обсягів із генеральних сукупностей значень ознак розпізнавання з апріорно невідомими функціями розподілу класів розпізнавання . З метою встановлення аналітичного зв’язку між точнісними характеристиками розпізнавання і операторними параметрами апроксимації емпіричних функцій щільності в праці [119] основну увагу приділено знаходженню розподілу оцінок відношення правдоподібності, яке має вигляд:

, (1.3.3)

де n1, n2  обсяги навчальних виборок класів відповідно;

 операторні оцінки умовних щільностей імовірностей для вибірки значень і-ї ознаки класів відповідно;

N  кількість ознак розпізнавання.

Вирішальне правило з урахуванням (1.3.3) має вигляд:

{ } , якщо

{ } , якщо

де с  вибраний поріг прийняття рішень.

На жаль, у праці [119] не вдалося встановити аналітичну залежність порогу с від точнісних характеристик розпізнавання, а тільки встановлено на нього обмеження: , де

=

де k  напіврозмах апроксимації функції розподілу навчальної вибірки:

k= [1, max{n1 , n2}]/2;

  ваговий коефіцієнт операторної апроксимації, 0 1.

Таким чином, авторам праць [119,120] вдалося встановити наближений зв’язок між обсягом навчальної вибірки, потужністю словника ознак розпізнавання і точнісними характеристиками розпізнавання. Але отримані результати мають декілька вагомих недоліків, які зменшують їх практичне значення. По-перше, спрощення, пов’язане з вибором однакових операторних параметрів апроксимації k,  і h, де h  інтервал групування спостережень навчальної вибірки, значно впливає на достовірність розпізнавання на екзамені, оскільки щільність імовірностей оцінок розподілу відношення правдоподібності залежить від значень цих параметрів і потребує у загальному випадку їх адаптації. Виправданням такого спрощення може бути тільки умова наявності однакових дисперсій для всіх ознак розпізнавання в апріорно класифікованих навчальних вибірках, що на практиці, як правило, не має місця і потребує для її забезпечення спеціально організованих заходів. По-друге, якщо головною задачею теорії є побудова алгоритму розпізнавання, який забезпечує збіжність операторної оцінки до апріорної щільності, то питання отримання задовільної точності оцінювання при скінчених обсягах навчальних вибірок залишилось відкритим, оскільки відсутня однозначна залежність між точнісними характеристиками і операторними параметрами. До речі, мова тут може йти тільки про прийняття компромісного рішення при відомих обмеженнях на параметри апроксимації функції щільності. По-третьє, одним із шляхів покращення збіжності операторної оцінки до апріорної щільності є вимога h  0, яка без врахування обмеження для параметра h зліва, може при операторній обробці екзаменаційної (контрольної) вибірки скінченого обсягу призвести до появи порожніх або нерепрезентативних інтервалів групувань даних. Оскільки об’єднаня таких інтервалів виключається запропонованим алгоритмом розпізнавання, то це призведе навпаки до зменшення достовірності розпізнавання і навіть до появи псевдо багатомодальності функції щільності для екзаменаційної вибірки, що виходить за обмеження методу. Один із шляхів подолання цього недоліку полягає в збільшенні обсягу екзаменаційної вибірки, але це суперечить поставленій авторами задачі мінімізації сумарного обсягу навчальних і екзаменаційних вибірок, що забезпечує потрібний гарантований рівень достовірності розпізнавання. І, нарешті, основне обмеження, яке пов’язано з методологією статистичної теорії прийняття рішень і значно звужує практичне значення цього методу синтезу, полягає у виключенні з розгляду гіпотези нечіткої компактності реалізацій образу, яка допускає перетин класів розпізнавання, що є характерним для практичних задач контролю та керування.

У праці [61] розроблено алгоритми оптимізації обсягу та структури екзаменаційної вибірки у задачах контролю та керування складними системами за критеріями максимуму достовірності, мінімуму середніх витрат і за мінімаксними критеріями. Незважаючи на модельність та незавершеність розробки статистичних методів аналізу та синтезу складних систем, застосування теоретико-статистичного підходу до проектування здатних навчатися інтелектуальних систем у науково-методологічному плані є прогресивним, оскільки він орієнтований на розробку методів корекції вхідного математичного опису за умови отримання прийнятної гарантованої достовірності розпізнавання на екзамені. При цьому необхідно підкреслити, що пріоритетність такої постановки і реалізації задачі належить українській школі академіка Івахненка О.Г, яким запропоновано вирішувати проблему моделювання складних систем у рамках методу групового врахування аргументів шляхом пошуку моделі оптимальної складності за допомогою відбору множини моделей-претендентів за критеріями самоорганізації [196-–198].

Одним із способів формалізації процесу функціонування СК є подання математичних моделей як систем масового обслуговування [204, 205]. Але наявний аналітичний апарат теорії масового обслуговування дозволяє розв’язувати прикладні задачі лише для випадків, коли основна статистична гіпотеза є достатньо обґрунтованою. Тому при дослідженні слабо формалізованих процесів доводиться вводити суттєві спрощення, що знижує достовірність отриманих результатів. У 60-ті роки ХХ століття М. П. Бусленко [206] запропонував для підвищення ефективності дослідження складних систем здійснювати кібернетичний експеримент, який полягає у побудові імітаційної моделі системи та її дослідженні на ЕОМ методом статистичних випробувань. Поєднання методів теорії масового обслуговування та статистичного моделювання для розв’язання задачі структурного синтезу СК здійснено у праці [125]. Але на практиці такий підхід передбачає необхідність проведення розвідувального репрезентативного статистичного аналізу, наприклад, технологічних процесів з метою дослідження потоків інформації та визначення їх імовірнісних характеристик, що за реальних умов виробництва є досить складним.

Значні зрушення до вирішення проблеми аналізу та синтезу СППР, що базуються на моделях і методах інженерії знань, відбулися з появою праць [96,97,154], в яких вперше запропоновано лінгвістичні форми подання критеріїв якості, що визначають різні форми задач оптимального керування. У праці [154] процес керування подається як набір лінгвістичних продукційних моделей, що дозволило розглядати задачу синтезу СППР у просторі лінгвістичних змінних.

Оскільки здатні навчатися СК є суттєво нелінійними, дискретними за часом і рівнем системами, які функціонують у режимі моніторингу за умов невизначеності та ненульових довільних початкових умов у момент зняття інформації, то основними якісними показниками, що пред'являються до таких систем, є забезпечення високої достовірності машинних рішень, оперативності їх прийняття і надійності функціонування системи. Відносно СК, у контур управління яких входить обробка та розпізнавання зорових зображень, специфіка полягає у тому, що процедура оброблення сигналів та класифікації зображень повинна бути стійкою до геометричних деформацій поточних зображень і видавати надійні результати з урахуванням характеристик оптичних систем, що можуть працювати у різних діапазонах довжини хвиль. Крім того, процеси формування та розпізнавання зображень повинні протікати за мінімально можливий час.

Таким чином, до СПР у складі таких СК пред'являються суперечливі вимоги, пов'язані, з одного боку, із забезпеченням високої швидкодії, а з іншого боку  з вимогами оброблення і аналізу великих обсягів відіоінформації з високою стійкістю, точністю і надійністю [207-209]. Тому визначення необхідних просторово-часових і точнісних характеристик СК, що здатні навчатися розпізнавати образи різної природи, доцільно здійснювати як з точки зору конструктивного удосконалення самих систем, так і розробки найбільш ефективних машинних методів автоматичної класифікації.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]