Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
242
Добавлен:
31.05.2015
Размер:
2.09 Mб
Скачать

3.4. Прогнозирование параметров технического уровня новой продукции на основе нейро-сетевых технологий

При оценке технического уровня новой продукции возникает необходимость прогнозирования ее технико-экономических параметров. В основе прогнозирования параметров лежит нормативно-параметрический метод. Результатом нормативного прогноза, как правило, является перспективная оценка экономических средств (цены, себестоимости), обеспечивающих достижения определенных значений показателей технического уровня продукции. Нормативно-параметрическое прогнозирование реализуется с помощью нейронных сетей, к которым в последнее десятилетие наблюдается возрастание интереса, и которые успешно применяются в самых различных областях: в бизнесе, медицине, технике, геологии, физике. Принято следующее определение искусственной нейронной сети: «… это параллельно распределенный процессор, который обладает способностью к сохранению и репрезентации опытного знания». Нейронные сети входят в практику там, где нужно решать задачи прогнозирования, классификации или управления. Такая востребованность определяется несколькими причинами:

1) Высокая скорость выполнения сложных логических конструкций предикатов с высоким параллелизмом действий;

2) Простота алгоритмов логических действий мозга, основан­ная не на численном манипулировании, а на принципах ассоци­ативного мышления. При этом от пользователя, конечно, требуется какой-то набор эвристических знаний о том, как следует отбирать и подготавливать данные, выбирать нужную архитектуру сети и интерпретировать результаты, однако уровень знаний, необходимый для успешного применения нейронных сетей, гораздо скромнее, чем, например, при использовании традиционных методов статистики.

3) Возможность решения трудно формализуемых задач, в кото­рых совместно используются данные логически несовместимой природы, противоречивые, неполные, некоррек­тные.

4) Устойчивость работы, совместимая с расширением, транс­формированием и совершенствованием знаний;

5) Надежность, обеспечиваемая наличием многих путей логи­ческого вывода и способностью восстановления утраченных дан­ных;

6) Возможность построения самообучающихся и самонастраи­вающихся систем;

7) Сочетаемость с традиционными «вычислитель­ными» алгоритмами обработки информации, позволяющая стро­ить сложные системы управления, — с максимальной надеж­ностью, адаптивностью и с минимумом расходуемых ресурсов;

8) Отсутствие требований к «традиционно» развиваемым вы­числительным средствам.

Нейронные сети привлекательны с интуитивной точки зрения, ибо они основаны на примитивной биологической модели нервных систем. Класс задач, которые можно решить с помощью нейронной сети, определяется тем, как сеть работает и тем, как она обучается. При работе нейронная сеть принимает значения входных переменных и выдает значения выходных переменных. Таким образом, сеть можно применять в ситуации, когда имеются определенные данные, и требуется из них получить некоторую пока не известную информацию. Иначе говоря, между известными входными значениями и неизвестными выходами имеется определенная связь, которую можно представить в виде некой функции. Эта функция называется «функция активации» или «передаточная функция» нейрона (табл. 3.3).

Как правило, нейронная сеть используется тогда, когда неизвестен точный вид связей между входами и выходами. Если бы он был известен, то связь можно было бы моделировать непосредственно. Другая существенная особенность нейронных сетей состоит в том, что зависимость между входом и выходом находится в процессе обучения сети.

Можно предположить, что в результате изучения таких областей, а именно процедуры оценки и прогнозирования технического уровня конверсионной продукции, исследователем должна быть разработана модель прогнозирования, ключевыми составляющими которой должны стать: набор входных переменных; метод формирования входных признаков x; метод формирования обучающего правила y; архитектура нейросети (ей); метод обучения нейросети (ей).

Для решения задачи прогнозирования находим такую нейронную сеть или комитет нейроэкспертов, который бы наилучшим образом строил отображение f: x=>y. Поиск такой нейронной сети или комитета нейроэкспертов осуществляется при помощи одного или нескольких алгоритмов «обучения».

Таблица 3.3

Перечень функций активации нейронов

Название

Формула

Область

значений

Номер

формулы

Пороговая

f(s)=0, s<0

f(s)= 1, s≥0

0, 1

(1)

Знаковая

(сигнатурная)

f(s)=1, s>0

f(s)=-1, s≤0

-1, 1

(2)

Сигмоидальная

(логистическая)

f(s)=

(0, 1)

(3)

Полулинейная

f(s)=s, s>0

f(s)=0, s≤0

Линейная

f(s)=s

(-∞, ∞)

(5)

Радиальная

базисная

(гауссова)

f(s)=

(0, 1)

(6)

Продолжение табл. 3.3

Полулинейная с насыщением

f(s)= 0, s≤0

f(s)=s, 0<s<1

f(s)=1, s ≥1

(0, 1)

(7)

Линейная с

насыщением

f(s)= -1, s≤-1

f(s)=s, -1<s<1

f(s)=1, s ≥1

(-1; 1)

(8)

Гиперболический тангенс

(сигмоидальная)

f(s)=

(-1; 1)

(9)

Треугольная

f(s)=1-|s|, |s|≤1

f(s)=0, |s|≥0

(0, 1)

(10)

В нейронной сети многочисленные факторы взаимодействуют весьма сложным образом, и успех пока приносит только эвристический подход. Типичная последовательность действий при решении задачи прогнозирования финансово-экономических показателей с помощью нейросетевой архитектуры показана на рис. 3.7.

Далее рассматриваются основные этапы этой технологической цепочки на примере определения цены нового изделия, а именно горизонтального химического электронасосного агрегата (ХГН), производимого на ФГУП «Турбонасос»:

а) Выбор базовых параметров, которые определяются спецификой данного изделия. Базу данных на 22 насоса (табл. 3.4), с технико-экономическими показателями продукции предприятия, размещенные в буклетах и на сайте (www.turbonasos.ru).

б) Определение набора входных величин (подача; напор; мощность на воде; частота вращения; масса) – 5 единиц и прогнозируемую величину (цена) – 1 единица.

Таблица 3.4

Основные параметры электронасосных агрегатов

Обозначение насоса

Наименование параметра

Подача

м3

Напор,

м

Мощность

на воде,

КВт

Частота вращения,

об/мин

Масса,

кг

Цена,

тыс. $

1

2

3

4

5

6

7

ХГН50.32

50,00

32,00

10,00

1450,00

420,00

24,00

ХГН50.50

50,00

50,00

15,00

1450,00

420,00

24,00

ХГН90.32

90,00

32,00

15,00

1450,00

450,00

25,00

ХГН200.14

200,00

14,00

18,00

1450,00

600,00

25,00

ХГН200.32

200,00

32,00

31,00

1450,00

600,00

26,00

ХГН315.50

315,00

50,00

62,00

2950,00

1010,00

28,00

ХГН315.80

315,00

80,00

97,00

2950,00

1600,00

29,00

ХГН400.72

400,00

72,00

108,00

2950,00

1665,00

39,00

ХГН400.32

400,00

32,00

63,00

1450,00

1665,00

38,00

ХГН500.32

500,00

32,00

70,00

1450,00

1320,00

46,00

ХГН100.80

100,00

80,00

33,00

2950,00

450,00

25,00

ХГН160.32

160,00

32,00

25,00

2950,00

545,00

26,00

ХГН200.50

200,00

50,00

55,00

1450,00

600,00

26,00

Продолжение табл. 3.4

ХГН12,5.32

12,50

32,00

3,00

2950,00

100,00

12,00

ХГН25.32

25,00

32,00

5,00

2950,00

110,00

16,00

ХГН25.50

25,00

50,00

7,00

2950,00

110,00

16,00

ХГН10.85

8,00

85,00

8,00

2950,00

290,00

5,00

ХГН10.40

8,00

40,00

4,00

2950,00

220,00

5,00

ХГН20.35

20,00

35,00

7,00

2950,00

250,00

14,00

ХГН20.50

20,00

50,00

9,00

2950,00

250,00

15,00

ХГН50.50

50,00

50,00

15,00

2950,00

320,00

24,00

ХГН60.35

60,00

35,00

13,00

2950,00

320,00

24,00

в) Формирование образов, подаваемых непосредственно на вход нейросети, с последующим созданием обучающих и тестовых множеств (табл. 3.5).

г) Формирование архитектуры нейросети – многослойный персептрон с одним скрытым слоем, содержащий 3 нейрона. Это одна из наиболее распространенных разновидностей нейросети реализует нелинейное преобразование входного пространства в выходное в соответствии с формулой:

y(w,x)=, (3.23)

Рис. 3.7. Блок-схема технологического цикла прогнозирования параметров новых изделий на основе нейросетевой архитектуры

где xRn– входной вектор сети, составленный из значений xj; q– количество нейронов единственного скрытого слоя; wRs– вектор всех весов и порогов сети; wij – вес соединенияj-го входа иi-го нейрона скрытого слоя;Хi – вес нейрона выходного слоя, соответствующийi-му нейрону скрытого слоя; bi,b0– пороги нейронов скрытого слоя и выходного нейрона; fσ– функция активации. Внутри нейросети процесс вычисления выполняется в следующей последовательности:

1. Входные сигналы, или значения входных переменных, распараллеливаются и «движутся» по соединениям соответствующего входа со всеми нейронами скрытого слоя. При этом они могут усиливаться или ослабевать, что реализуется путем умножения на соответствующий коэффициент, называемый весом соединения.

2. Сигналы, пришедшие в тот или иной нейрон скрытого слоя, суммируются и подвергаются нелинейному преобразованию с использованием так называемой функции активации.

3. Далее они следуют к выходу сети. При этом сигналы также умножаются на определенный вес. Сумма взвешенных значений выходов нейронов скрытого слоя и представляет собой результат функционирования нейросети. Искусственные нейронные сети такой структуры обладают универсальной аппроксимационной способностью, то есть позволяют приблизить произвольную непрерывную функцию с любой заданной точностью.

д) Основным этапом в использовании искусственных нейронных сетей для решения практических задач является обучение нейросетевой модели, которое представляет собой процесс итерационной подстройки весов сети на основе обучающего множества (выборки).

Используем один из самых распространенных алгоритмов обучения - алго­ритм Левенберга - Маркардта (обратного распространения ошибки), рис. 2. Это итеративный градиентный алгоритм обучения, который использу­ется с целью минимизации среднеквадратичного отклонения теку­щего выхода и желаемого выхода многослойных нейронных сетей.В алгоритме обратного распространения вычисляется вектор градиента поверхности ошибок. Этот вектор указывает направление кратчайшего спуска по поверхности ошибок из данной точки.

Выход (output) сети σ = f(net) определяется функцией сигмоидного типа:

где xT = (x1,…, xn) – вектор входных сигналов, wT = (w1,…, wn) – вектор весов сети, «Т» - символ транспонирования.

Таблица 3.5

Образы, подаваемые на выходы нейросети

VAR 1

VAR 2

VAR 3

VAR 4

VAR 5

VAR 6

50

32

10

1450

420

24

50

50

15

1450

420

24

90

32

15

1450

450

25

200

14

18

1450

600

25

200

32

31

1450

600

26

315

50

62

2950

1010

28

315

80

97

2950

1600

29

400

72

108

2950

1665

39

400

32

63

1450

1665

38

500

32

70

1450

1320

46

100

80

33

2950

450

25

160

32

25

2950

545

26

200

50

55

1450

600

26

13

32

3

2950

100

12

25

32

5

2950

110

16

25

50

7

2950

110

16

8

85

8

2950

290

5

8

40

4

2950

220

5

20

35

7

2950

250

14

20

50

9

2950

250

15

50

50

15

2950

320

24

60

35

13

2950

350

24

Для обучения сети может быть использована выборка:

X1=

X2=

……………………….

XN=

где yk – значение желаемого (целевого) выхода

В качестве функции ошибки для k-го образца (k-го элемента обучающей выборки) примем величину, пропорциональную квадрату разности желаемого выхода сети:

Соответственно, суммарная функция ошибки по всем элементам выборки:

Очевидно, как Ek, так и E являются функциями векторов весов w. Задача обучения сети сводится в данном случае к подбору такого вектора w, при котором, достигается минимум E. Данная задача (оптимизации) решается градиентным методом, используя соотношение:

где := – оператор присвоения, Ekw) – обозначение вектора градиента, – некоторая константа.

Подставляя данный вектор в развернутом виде и учитывая одно из ценных свойств сигмоидной функции (простое выражение для ее производной ), получим:

Это дает возможность записать алгоритм коррекции (подстройки) вектора весовых коэффициентов сети в форме:

где =

Полученные математические выражения полностью определяют алгоритм рассматриваемой нейронной сети, который теперь может быть представлен в следующем виде:

1. Задаются некоторые w1 (0 < w1 < 1), Emax и некоторые малые случайные веса wi сети.

2. Задаются k=1 и E=0.

3. Вводится очередная обучающая пара (xk,yk). Производятся обозначения:

x:= xk, y:= yk

и вычисляется величина выхода сети.

4. Обновляются веса.

5. Корректируется (наращивается) значение функции ошибки:

6. Если k < N, тогда k:= k+1 и переход к шагу 3, в противоположном случае – переход на шаг 7.

7. Завершение цикла обучения. Если E < Emax, то окончание всей процедуры обучения. Если E ≥ Emax, тогда начинается новый цикл обучения переходом к шагу 2.

В рассматриваемом случае, в процессе обучения был найден локальный минимум на поверхности ошибок, характеризуемый малой величиной модуля вектора градиента и, как следствие, выполнение условия окончания поиска. В результате обучения были найдены следующие значения нейросетевых зависимостей (табл. 3.7).

е) Убедившись в том, что нейронные сети обучены, мы можем провести адаптивное предсказание - расчет цены нового изделия, который планируется освоить на ФГУП «Турбонасос». Прогнозирование осуществляется по тому же принципу, что и формирование обучающей выборки.

Рис. 3.8. Иллюстрация процесса обучения нейронных сетей

Таблица 3.6

Результаты обучения нейронных сетей

Обозначение насоса

Цена насоса, тыс. $

Величина ошибки

Расчетная

Фактическая

Абсолютная

Относительная

ХГН50.32

24.00677

24.00000

0.00677

0.000165

ХГН50.50

24.38349

24.00000

0.3834897

0.009353

ХГН90.32

24.61394

25.00000

-0.3861

0.009416

ХГН200.14

24.99948

25.00000

-0.0005238

1.278e-05

ХГН200.32

25.86667

26.00000

-0.1333

0.003252

ХГН315.50

27.99836

28.00000

-0.001641

4.002e-05

ХГН315.80

29.01263

29.00000

0.01263

0.000308

ХГН400.72

38.99065

29.00000

-0.009354

0.0002282

Продолжение табл. 3.6

ХГН400.32

38.00669

38.00000

0.006686

0.0001631

ХГН500.32

45.99992

46.00000

-8.078e-05

1.97e-06

ХГН100.80

24.96634

25.00000

-0.03366

0.0008209

ХГН160.32

26.1052

26.00000

0.1051961

0.002566

ХГН200.50

26.11834

26.00000

0.1183356

0.002886

ХГН12,5.32

11.78742

12.00000

-0.2126

0.005185

ХГН25.32

16.23699

16.00000

0.236993

0.00578

ХГН25.50

15.99887

16.00000

-0.001131

2.759e-05

ХГН10.85

4.996728

5.00000

-0.003272

7.981e-05

ХГН10.40

5.056661

5.00000

0.05666

0.001382

ХГН20.35

13.97606

14.00000

-0.02394

0.0005839

ХГН20.50

15.01541

15.00000

0.01541

0.0003759

ХГН50.50

23.81794

24.00000

-0.1821

0.00444

ХГН60.35

24.04546

24.00000

0.04546

0.001109

Таблица 3.7

Адаптивное предсказание цены нового изделия

Обозначение

насоса

Наименование параметра

Подача, м3

Напор, м

Мощность на воде, кВт

Частота вращения, об/мин

Масса,

кг

Расчетная цена,

тыс. $

ХГН70.32

70,00

32,00

15,00

1450,00

440,00

27,56717

Таким образом применение перспективных нейросетевых технологий способно существенно сократить сроки создания новой конверсионной продукции и формировать принципиально новые интеллектуальные системы технико-экономической диагностики и контроля качества на наукоемких предприятиях

Соседние файлы в папке Metody_ocenki_tekhnicheskogo_urovnja