
- •Введение
- •1.2. Задачи оценки технического уровня машин
- •Технический уровень и экономическая эффективность техники
- •Контрольные вопросы к главе 1
- •2. Методические основы оценки технического уровня машин
- •2.1. Методы оценки технического уровня машин
- •2.2. Информационные технологии при оценке технического уровня машин
- •1 Этап. Построение информационной модели исследуемого объекта
- •2 Этап. Определение стран, по которым исследуется информация
- •3 Этап. Деление рефератов по элементам информационной модели
- •4 Этап. Патентный поиск
- •5 Этап. Фирменный поиск
- •6 Этап. Анализ по элементам информационной модели
- •2.3. Выбор базы для сравнения при оценке технического уровня изделий
- •2.4. Оценка технического уровня выпускаемой продукции
- •2.5. Оценка технического уровня экспертно-расчетным методом
- •2.6. Показатели технического уровня техники (машин, приборов, аппаратов)
- •3. Прогнозирование технического уровня машин
- •3.1. Методы прогнозирования показателей технического уровня машин
- •3.2. Прогнозирование затрат при оценке технического уровня продукции
- •3.3. Прогнозирование потребности в продукции производственно-технического назначения и товаров народного потребления
- •3.4. Прогнозирование параметров технического уровня новой продукции на основе нейро-сетевых технологий
- •Контрольные вопросы к главе 3:
- •4. Повышение технического уровня
- •4.1. Функционально-стоимостный анализ как метод повышения технического уровня продукции
- •4.2. Методика проведения функционально-стоимостного анализа
- •Информационный этап
- •Аналитический этап
- •Исследовательский этап
- •Рекомендательный этап
- •Внедрение
- •4.3. Управление техническим уровнем продукции на основе функционально-стоимостного анализа
- •Заключение
- •Глоссарий
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
3.4. Прогнозирование параметров технического уровня новой продукции на основе нейро-сетевых технологий
При оценке технического уровня новой продукции возникает необходимость прогнозирования ее технико-экономических параметров. В основе прогнозирования параметров лежит нормативно-параметрический метод. Результатом нормативного прогноза, как правило, является перспективная оценка экономических средств (цены, себестоимости), обеспечивающих достижения определенных значений показателей технического уровня продукции. Нормативно-параметрическое прогнозирование реализуется с помощью нейронных сетей, к которым в последнее десятилетие наблюдается возрастание интереса, и которые успешно применяются в самых различных областях: в бизнесе, медицине, технике, геологии, физике. Принято следующее определение искусственной нейронной сети: «… это параллельно распределенный процессор, который обладает способностью к сохранению и репрезентации опытного знания». Нейронные сети входят в практику там, где нужно решать задачи прогнозирования, классификации или управления. Такая востребованность определяется несколькими причинами:
1) Высокая скорость выполнения сложных логических конструкций – предикатов с высоким параллелизмом действий;
2) Простота алгоритмов логических действий мозга, основанная не на численном манипулировании, а на принципах ассоциативного мышления. При этом от пользователя, конечно, требуется какой-то набор эвристических знаний о том, как следует отбирать и подготавливать данные, выбирать нужную архитектуру сети и интерпретировать результаты, однако уровень знаний, необходимый для успешного применения нейронных сетей, гораздо скромнее, чем, например, при использовании традиционных методов статистики.
3) Возможность решения трудно формализуемых задач, в которых совместно используются данные логически несовместимой природы, противоречивые, неполные, некорректные.
4) Устойчивость работы, совместимая с расширением, трансформированием и совершенствованием знаний;
5) Надежность, обеспечиваемая наличием многих путей логического вывода и способностью восстановления утраченных данных;
6) Возможность построения самообучающихся и самонастраивающихся систем;
7) Сочетаемость с традиционными «вычислительными» алгоритмами обработки информации, позволяющая строить сложные системы управления, — с максимальной надежностью, адаптивностью и с минимумом расходуемых ресурсов;
8) Отсутствие требований к «традиционно» развиваемым вычислительным средствам.
Нейронные сети привлекательны с интуитивной точки зрения, ибо они основаны на примитивной биологической модели нервных систем. Класс задач, которые можно решить с помощью нейронной сети, определяется тем, как сеть работает и тем, как она обучается. При работе нейронная сеть принимает значения входных переменных и выдает значения выходных переменных. Таким образом, сеть можно применять в ситуации, когда имеются определенные данные, и требуется из них получить некоторую пока не известную информацию. Иначе говоря, между известными входными значениями и неизвестными выходами имеется определенная связь, которую можно представить в виде некой функции. Эта функция называется «функция активации» или «передаточная функция» нейрона (табл. 3.3).
Как правило, нейронная сеть используется тогда, когда неизвестен точный вид связей между входами и выходами. Если бы он был известен, то связь можно было бы моделировать непосредственно. Другая существенная особенность нейронных сетей состоит в том, что зависимость между входом и выходом находится в процессе обучения сети.
Можно предположить, что в результате изучения таких областей, а именно процедуры оценки и прогнозирования технического уровня конверсионной продукции, исследователем должна быть разработана модель прогнозирования, ключевыми составляющими которой должны стать: набор входных переменных; метод формирования входных признаков x; метод формирования обучающего правила y; архитектура нейросети (ей); метод обучения нейросети (ей).
Для решения задачи прогнозирования находим такую нейронную сеть или комитет нейроэкспертов, который бы наилучшим образом строил отображение f: x=>y. Поиск такой нейронной сети или комитета нейроэкспертов осуществляется при помощи одного или нескольких алгоритмов «обучения».
Таблица 3.3
Перечень функций активации нейронов
Название |
Формула |
Область значений |
Номер формулы |
Пороговая |
f(s)=0, s<0 f(s)= 1, s≥0 |
0, 1 |
(1) |
Знаковая (сигнатурная) |
f(s)=1, s>0 f(s)=-1, s≤0 |
-1, 1 |
(2) |
Сигмоидальная (логистическая) |
f(s)= |
(0, 1) |
(3) |
Полулинейная |
f(s)=s, s>0 f(s)=0, s≤0 |
|
|
Линейная |
f(s)=s |
(-∞, ∞) |
(5) |
Радиальная базисная (гауссова) |
f(s)= |
(0, 1) |
(6) |
Продолжение табл. 3.3 | |||
Полулинейная с насыщением |
f(s)= 0, s≤0 f(s)=s, 0<s<1 f(s)=1, s ≥1 |
(0, 1) |
(7) |
Линейная с насыщением |
f(s)= -1, s≤-1 f(s)=s, -1<s<1 f(s)=1, s ≥1 |
(-1; 1) |
(8) |
Гиперболический тангенс (сигмоидальная) |
f(s)= |
(-1; 1) |
(9) |
Треугольная |
f(s)=1-|s|, |s|≤1 f(s)=0, |s|≥0 |
(0, 1) |
(10) |
В нейронной сети многочисленные факторы взаимодействуют весьма сложным образом, и успех пока приносит только эвристический подход. Типичная последовательность действий при решении задачи прогнозирования финансово-экономических показателей с помощью нейросетевой архитектуры показана на рис. 3.7.
Далее рассматриваются основные этапы этой технологической цепочки на примере определения цены нового изделия, а именно горизонтального химического электронасосного агрегата (ХГН), производимого на ФГУП «Турбонасос»:
а) Выбор базовых параметров, которые определяются спецификой данного изделия. Базу данных на 22 насоса (табл. 3.4), с технико-экономическими показателями продукции предприятия, размещенные в буклетах и на сайте (www.turbonasos.ru).
б) Определение набора входных величин (подача; напор; мощность на воде; частота вращения; масса) – 5 единиц и прогнозируемую величину (цена) – 1 единица.
Таблица 3.4
Основные параметры электронасосных агрегатов
Обозначение насоса |
Наименование параметра | |||||
Подача м3/ч |
Напор, м |
Мощность на воде, КВт |
Частота вращения, об/мин |
Масса, кг |
Цена, тыс. $ | |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
ХГН50.32 |
50,00 |
32,00 |
10,00 |
1450,00 |
420,00 |
24,00 |
ХГН50.50 |
50,00 |
50,00 |
15,00 |
1450,00 |
420,00 |
24,00 |
ХГН90.32 |
90,00 |
32,00 |
15,00 |
1450,00 |
450,00 |
25,00 |
ХГН200.14 |
200,00 |
14,00 |
18,00 |
1450,00 |
600,00 |
25,00 |
ХГН200.32 |
200,00 |
32,00 |
31,00 |
1450,00 |
600,00 |
26,00 |
ХГН315.50 |
315,00 |
50,00 |
62,00 |
2950,00 |
1010,00 |
28,00 |
ХГН315.80 |
315,00 |
80,00 |
97,00 |
2950,00 |
1600,00 |
29,00 |
ХГН400.72 |
400,00 |
72,00 |
108,00 |
2950,00 |
1665,00 |
39,00 |
ХГН400.32 |
400,00 |
32,00 |
63,00 |
1450,00 |
1665,00 |
38,00 |
ХГН500.32 |
500,00 |
32,00 |
70,00 |
1450,00 |
1320,00 |
46,00 |
ХГН100.80 |
100,00 |
80,00 |
33,00 |
2950,00 |
450,00 |
25,00 |
ХГН160.32 |
160,00 |
32,00 |
25,00 |
2950,00 |
545,00 |
26,00 |
ХГН200.50 |
200,00 |
50,00 |
55,00 |
1450,00 |
600,00 |
26,00 |
Продолжение табл. 3.4 | ||||||
ХГН12,5.32 |
12,50 |
32,00 |
3,00 |
2950,00 |
100,00 |
12,00 |
ХГН25.32 |
25,00 |
32,00 |
5,00 |
2950,00 |
110,00 |
16,00 |
ХГН25.50 |
25,00 |
50,00 |
7,00 |
2950,00 |
110,00 |
16,00 |
ХГН10.85 |
8,00 |
85,00 |
8,00 |
2950,00 |
290,00 |
5,00 |
ХГН10.40 |
8,00 |
40,00 |
4,00 |
2950,00 |
220,00 |
5,00 |
ХГН20.35 |
20,00 |
35,00 |
7,00 |
2950,00 |
250,00 |
14,00 |
ХГН20.50 |
20,00 |
50,00 |
9,00 |
2950,00 |
250,00 |
15,00 |
ХГН50.50 |
50,00 |
50,00 |
15,00 |
2950,00 |
320,00 |
24,00 |
ХГН60.35 |
60,00 |
35,00 |
13,00 |
2950,00 |
320,00 |
24,00 |
в) Формирование образов, подаваемых непосредственно на вход нейросети, с последующим созданием обучающих и тестовых множеств (табл. 3.5).
г) Формирование архитектуры нейросети – многослойный персептрон с одним скрытым слоем, содержащий 3 нейрона. Это одна из наиболее распространенных разновидностей нейросети реализует нелинейное преобразование входного пространства в выходное в соответствии с формулой:
y(w,x)=,
(3.23)
Рис. 3.7. Блок-схема технологического цикла прогнозирования параметров новых изделий на основе нейросетевой архитектуры
где xRn– входной вектор сети,
составленный из значений xj;
q– количество нейронов
единственного скрытого слоя; w
Rs– вектор всех весов и
порогов сети; wij –
вес соединенияj-го
входа иi-го нейрона
скрытого слоя;Хi –
вес нейрона выходного слоя,
соответствующийi-му
нейрону скрытого слоя; bi,b0– пороги нейронов
скрытого слоя и выходного нейрона; fσ– функция активации.
Внутри нейросети процесс вычисления
выполняется в следующей последовательности:
1. Входные сигналы, или значения входных переменных, распараллеливаются и «движутся» по соединениям соответствующего входа со всеми нейронами скрытого слоя. При этом они могут усиливаться или ослабевать, что реализуется путем умножения на соответствующий коэффициент, называемый весом соединения.
2. Сигналы, пришедшие в тот или иной нейрон скрытого слоя, суммируются и подвергаются нелинейному преобразованию с использованием так называемой функции активации.
3. Далее они следуют к выходу сети. При этом сигналы также умножаются на определенный вес. Сумма взвешенных значений выходов нейронов скрытого слоя и представляет собой результат функционирования нейросети. Искусственные нейронные сети такой структуры обладают универсальной аппроксимационной способностью, то есть позволяют приблизить произвольную непрерывную функцию с любой заданной точностью.
д) Основным этапом в использовании искусственных нейронных сетей для решения практических задач является обучение нейросетевой модели, которое представляет собой процесс итерационной подстройки весов сети на основе обучающего множества (выборки).
Используем один из самых распространенных алгоритмов обучения - алгоритм Левенберга - Маркардта (обратного распространения ошибки), рис. 2. Это итеративный градиентный алгоритм обучения, который используется с целью минимизации среднеквадратичного отклонения текущего выхода и желаемого выхода многослойных нейронных сетей.В алгоритме обратного распространения вычисляется вектор градиента поверхности ошибок. Этот вектор указывает направление кратчайшего спуска по поверхности ошибок из данной точки.
Выход (output) сети σ = f(net) определяется функцией сигмоидного типа:
где xT = (x1,…, xn) – вектор входных сигналов, wT = (w1,…, wn) – вектор весов сети, «Т» - символ транспонирования.
Таблица 3.5
Образы, подаваемые на выходы нейросети
VAR 1 |
VAR 2 |
VAR 3 |
VAR 4 |
VAR 5 |
VAR 6 |
50 |
32 |
10 |
1450 |
420 |
24 |
50 |
50 |
15 |
1450 |
420 |
24 |
90 |
32 |
15 |
1450 |
450 |
25 |
200 |
14 |
18 |
1450 |
600 |
25 |
200 |
32 |
31 |
1450 |
600 |
26 |
315 |
50 |
62 |
2950 |
1010 |
28 |
315 |
80 |
97 |
2950 |
1600 |
29 |
400 |
72 |
108 |
2950 |
1665 |
39 |
400 |
32 |
63 |
1450 |
1665 |
38 |
500 |
32 |
70 |
1450 |
1320 |
46 |
100 |
80 |
33 |
2950 |
450 |
25 |
160 |
32 |
25 |
2950 |
545 |
26 |
200 |
50 |
55 |
1450 |
600 |
26 |
13 |
32 |
3 |
2950 |
100 |
12 |
25 |
32 |
5 |
2950 |
110 |
16 |
25 |
50 |
7 |
2950 |
110 |
16 |
8 |
85 |
8 |
2950 |
290 |
5 |
8 |
40 |
4 |
2950 |
220 |
5 |
20 |
35 |
7 |
2950 |
250 |
14 |
20 |
50 |
9 |
2950 |
250 |
15 |
50 |
50 |
15 |
2950 |
320 |
24 |
60 |
35 |
13 |
2950 |
350 |
24 |
Для обучения сети может быть использована выборка:
X1=
X2=
……………………….
XN=
где yk – значение желаемого (целевого) выхода
В качестве функции ошибки для k-го образца (k-го элемента обучающей выборки) примем величину, пропорциональную квадрату разности желаемого выхода сети:
Соответственно,
суммарная функция ошибки по всем
элементам выборки:
Очевидно,
как Ek,
так и E являются функциями векторов
весов w.
Задача обучения сети сводится в данном
случае к подбору такого вектора w,
при котором, достигается минимум E.
Данная задача (оптимизации) решается
градиентным методом, используя
соотношение:
где := – оператор присвоения, Ekw) – обозначение вектора градиента, – некоторая константа.
Подставляя
данный вектор в развернутом виде и
учитывая одно из ценных свойств
сигмоидной функции (простое выражение
для ее производной
),
получим:
Это дает возможность записать алгоритм коррекции (подстройки) вектора весовых коэффициентов сети в форме:
где
=
Полученные математические выражения полностью определяют алгоритм рассматриваемой нейронной сети, который теперь может быть представлен в следующем виде:
1. Задаются некоторые w1 (0 < w1 < 1), Emax и некоторые малые случайные веса wi сети.
2. Задаются k=1 и E=0.
3. Вводится очередная обучающая пара (xk,yk). Производятся обозначения:
x:= xk, y:= yk
и вычисляется величина выхода сети.
4. Обновляются веса.
5. Корректируется (наращивается) значение функции ошибки:
6. Если k < N, тогда k:= k+1 и переход к шагу 3, в противоположном случае – переход на шаг 7.
7. Завершение цикла обучения. Если E < Emax, то окончание всей процедуры обучения. Если E ≥ Emax, тогда начинается новый цикл обучения переходом к шагу 2.
В рассматриваемом случае, в процессе обучения был найден локальный минимум на поверхности ошибок, характеризуемый малой величиной модуля вектора градиента и, как следствие, выполнение условия окончания поиска. В результате обучения были найдены следующие значения нейросетевых зависимостей (табл. 3.7).
е) Убедившись в том, что нейронные сети обучены, мы можем провести адаптивное предсказание - расчет цены нового изделия, который планируется освоить на ФГУП «Турбонасос». Прогнозирование осуществляется по тому же принципу, что и формирование обучающей выборки.
Рис. 3.8. Иллюстрация процесса обучения нейронных сетей
Таблица 3.6
Результаты обучения нейронных сетей
Обозначение насоса |
Цена насоса, тыс. $ |
Величина ошибки | ||
Расчетная |
Фактическая |
Абсолютная |
Относительная | |
ХГН50.32 |
24.00677 |
24.00000 |
0.00677 |
0.000165 |
ХГН50.50 |
24.38349 |
24.00000 |
0.3834897 |
0.009353 |
ХГН90.32 |
24.61394 |
25.00000 |
-0.3861 |
0.009416 |
ХГН200.14 |
24.99948 |
25.00000 |
-0.0005238 |
1.278e-05 |
ХГН200.32 |
25.86667 |
26.00000 |
-0.1333 |
0.003252 |
ХГН315.50 |
27.99836 |
28.00000 |
-0.001641 |
4.002e-05 |
ХГН315.80 |
29.01263 |
29.00000 |
0.01263 |
0.000308 |
ХГН400.72 |
38.99065 |
29.00000 |
-0.009354 |
0.0002282 |
Продолжение табл. 3.6 | ||||
ХГН400.32 |
38.00669 |
38.00000 |
0.006686 |
0.0001631 |
ХГН500.32 |
45.99992 |
46.00000 |
-8.078e-05 |
1.97e-06 |
ХГН100.80 |
24.96634 |
25.00000 |
-0.03366 |
0.0008209 |
ХГН160.32 |
26.1052 |
26.00000 |
0.1051961 |
0.002566 |
ХГН200.50 |
26.11834 |
26.00000 |
0.1183356 |
0.002886 |
ХГН12,5.32 |
11.78742 |
12.00000 |
-0.2126 |
0.005185 |
ХГН25.32 |
16.23699 |
16.00000 |
0.236993 |
0.00578 |
ХГН25.50 |
15.99887 |
16.00000 |
-0.001131 |
2.759e-05 |
ХГН10.85 |
4.996728 |
5.00000 |
-0.003272 |
7.981e-05 |
ХГН10.40 |
5.056661 |
5.00000 |
0.05666 |
0.001382 |
ХГН20.35 |
13.97606 |
14.00000 |
-0.02394 |
0.0005839 |
ХГН20.50 |
15.01541 |
15.00000 |
0.01541 |
0.0003759 |
ХГН50.50 |
23.81794 |
24.00000 |
-0.1821 |
0.00444 |
ХГН60.35 |
24.04546 |
24.00000 |
0.04546 |
0.001109 |
Таблица 3.7
Адаптивное предсказание цены нового изделия
Обозначение насоса |
Наименование параметра | |||||
Подача, м3/ч |
Напор, м |
Мощность на воде, кВт |
Частота вращения, об/мин |
Масса, кг |
Расчетная цена, тыс. $ | |
ХГН70.32 |
70,00 |
32,00 |
15,00 |
1450,00 |
440,00 |
27,56717 |
Таким образом применение перспективных нейросетевых технологий способно существенно сократить сроки создания новой конверсионной продукции и формировать принципиально новые интеллектуальные системы технико-экономической диагностики и контроля качества на наукоемких предприятиях