Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
диплома / ЗМІСТ_ДИП.doc
Скачиваний:
8
Добавлен:
09.02.2016
Размер:
6.02 Mб
Скачать

1.4. Методи обробки сигналів багатопараметричних сенсорів

Останнім часом все більше розповсюдження отримують багатопараметричні сенсори [54], тобто сенсори, які мають змогу одночасно вимірювати кілька фізичних величин. Для традиційних сенсорів вихідний сигнал залежить в основному від однієї, вимірюваної, фізичної величини. Залежність вихідного сигналу не від вимірюваної фізичної величини вважають недоліком, який зумовлює похибку сенсора. В багатопараметричних сенсорах вихідний сигнал цілеспрямовано залежить від декількох фізичних величин. Їх виготовляють часто за тонкоплівковою та інтегральною технологією і використовують в хімічній промисловості, різноманітних системах безпеки, екологічному моніторингу та в інших областях. В цих галузях вони мають суттєві переваги – можливість вимірювання великої кількості фізичних величин, які часто не можна виміряти іншими сенсорами, простота, відносно мала ціна. Характеристика перетворення багатопараметричних сенсорів є поверхнею у межах зміни вхідних фізичних величин [55 56]:

Для обробки сигналив багатопараметричних сенсорів необхідно ідентифікувати (визначити) поверхню їх перетворення у кожній точці відповідно до значень фізичних величин, що сприймаються сенсором.

Розглянемо методи обробки сигналів багатопараметричних сенсорів. Аналіз методів розпізнавання вихідних сигналів багатопараметричних сенсорів здійснювався дослідниками на багатьох типах вхідних даних [87, 88, 91] та у специфічних предметних областях [89, 90].

Наприклад, Дерде та Массарт [87] проводять якісний аналіз методів класифікації популярних в загальній хімометрії, зокрема методів гнучкого незалежного моделювання аналогій класу (Soft Independent Modeling of Class Analogy) і дискримінантного лінійного аналізу за критеріями оптимальних границь рішень, областей перекриття, точності визначення, викидів. Основні висновки цих дослідників - вибір кращого методу розпізнавання залежить від сфери застосування; кращі результати дає використання змішаних підходів.

Найбільш повний аналіз методів розпізнавання вихідних сигналів багатопараметричних сенсорів здійснено в [88]. Автори проаналізували 23 методи розпізнавання, базовані на машинному навчанні, статистичних та нейромережевих підходах і порівняли їх кількісно та якісно. Їх висновки зводяться до того, що нейромережеві методи дають найкращі показники, проте вимагають довгого часу навчання та інтуїції експерта-дослідника для цілеспрямованого застосування.

Найпростішим методом є метод найближчого сусіда (Nearest Neighbor) [92], що базується на обчисленні Евклідової відстані. Метод не потребує фази навчання, розпізнавання нового патерна відбувається на основі мінімальної Евклідової відстані між новим патерном та кожним існуючим паттерном. Розвитком цього методу є методи локального К - найближчого сусіда (Local KNN) [124] та дискримінантного адаптивного найближчого сусіда (Discriminant adaptive nearest neighbor) [125].

Метод статистичного розпізнавання [93] - лінійний дискримінантний аналіз Махаланобіса (Mahalanobis Linear Discriminant Analysis), подібно до попереднього методу, базується на обчисленні відстані Махаланобіса між вектором патерна та усередненим вектором патерна такого ж класу. Розпізнавання нового патерну відповідає знаходженню мінімальної відстані Махаланобіса до найближчого усередненого патерна.

Метод лінійного дискримінантного аналізу Баєса (Bayes Linear Discriminant Analysis) базується на Баєс-стратегії мінімізації риску [92, 93]. Навчання здійснюється шляхом використання усередненого вектора для кожного класу задач і загальної коваріаційної матриці для позиціювання дискримінанту (зваженого вектора) і задоволення Баєсовського критерію. Класифікація нового патерна до певного класу базується на розмірі дискримінанту – скалярний добуток вектора нового патерну з кожним зваженим вектором. Класифікація здійснюється до класу, дискримінант якого має максимальне значення.

Метод аналізу головних компонентів (Principal component analysis, PCA) [119] вибирає матрицю А, яка зменшує середньоквадратичну відстань між початковими (вхідними) даними і тими, що відтворюються (реконструюються) із скорочених даних. В [120] показано, що така матриця А визначається з урахуванням власних векторів коваріантної матриці відповідно до m першого домінантного власного значення, де m - результуюча розмірність. Із дискримінантного аналізу (Discriminant analysis, DA) [114] відомо, що проекційними напрямками є ті, які підтримують максимальну відокремленість (розділеність) класів у результуючому просторі. Тут, для оцінки класу відокремленості (розділеності), був використаний критерій Фішера [121], а напрямки проекції обрані як результат, що отримано при рішенні проблеми знаходження власних значень – власних векторів (eigenvalue-eigenvector) [120].

Дискримінантний компонентний аналіз (Discriminant component analysis, DCA) є відносно новим методом [122], який перетворює вихідний простір в ортонормований простір таким чином, що для кожного напряму власне значення відображає степінь дискримінанти проекції у цьому напрямку, що досягається використанням ітераційного методу.

Метод нейронних мереж (Neural network) [94, 115] є частково параметричним класифікаційним методом. У роботі [111] розглянуто нейрону мережу прямого поширення, яка базується на стандартному персептроні [94, 117], із двома прихованими шарами, кожен з яких містить 10 нейронів. В якості активаційної функції використано логістичну функцію, вихідний шар містить один нейрон. Навчання кожної із мереж зупинялось ще до перенавчання (використано набір перехресної перевірки), або коли була досягнута необхідна точність (досягнуто мінімальне значення помилки тренування). Для навчання нейронних мереж було використано метод оптимізації, який має назву – реактивний пошук Табу (reactive Tabu search, RTS) [118]. Даний метод, на відміну від стандартних еволюційних методів, таких, як алгоритм зворотного розповсюдження (back-propagation) [94], дозволяє швидко вийти із локального оптимуму, попереджує циклічні повтори та є дуже надійним у формуванні початкової конфігурації, що призводить до більш ефективного навчання. Ще більш ефективним є метод Левенберга-Маркуарта, який реалізовано в пакеті MathCad.

Проведений аналіз продуктивності у [111] показав, що розглянуті методи мають майже однаковий рівень розпізнавання, але що стосується обчислювальних ресурсів, ці методи є дуже різними. Проведений у [111] аналіз показав, що розглянуті методи оброки сигналів багатопараметричних сенсорів незначно підвищують точність, вони складні у реалізації, вимагають багато обладнання, мають високу трудомісткість, малу надійність та високу ціну. Доцільно розробляти нові методи, які би покращили перелічені критерії. Перспективною технологією є використання нейронних мереж.

Соседние файлы в папке диплома