книги / Нейронные сети для обработки информации
..pdfРис. 12.8. Процесс уточнения параметров нечетюЛ сет:
а) центры С{функции принадлежности; б) параметры (7с, о) показатели степени 6/
НеноткиО алюрити при 40нейронах- начальное состояние
0.Г.---------------.---------------<-------.---------------•-------
0,65 •
4 6 -
а5 в -
0.6■
0.45 |
■ |
0,4 |
|
0.05 |
■ |
0.3 |
• • |
0,25 |
|
<1^1 |
. |
. |
. |
. |
. |
. |
. |
|
|
' 0.25 |
0,3 |
0.35 |
0.4 |
0,45 |
|
0.5 |
0.55 |
0,0 |
0.55 |
0) Нечетки!} алюрити при 40нейронах- конечно»состояние
0,7--------- ,--------- .--------- .------------- -------------- ■------------- .------------- г— |
|
||||||||
5165 |
|
|
|
|
|
|
|
|
|
0,0 |
- |
|
|
|
|
|
|
|
|
0.55 |
- |
|
|
|
|
|
|
|
|
0.5 |
■ |
|
|
|
|
|
|
|
|
0,45- |
|
|
|
|
|
|
|
|
|
0,4. |
|
|
|
|
|
|
|
|
|
0.35 |
|
|
|
|
|
|
|
|
|
0,3 |
■ |
|
|
|
|
|
|
|
|
0.25 |
|
|
|
|
|
|
|
|
|
°'0 ,2 5 |
0,3 |
0.35 |
0.4 |
0.45 |
0.5 |
0,65 |
0.6 |
4 6 5 |
Рис. 12.9. Р езул ьтат восстановления обучающих данных с рис. 9.2 нечеткой неЛронкоП сетью с самоорганизацией, состоящей из 4 0 нейронов:
л) исходное состояние после разностного группирования; 6) окончательное размещение упорядоченных нейронов
12.10, относятся к начальному состоянию процесса обучения при исполь зовании алгоритма разностного группирования (рис. 12.10а) и результирующего состояния (рис. 12.106). Анвлнз пехотного расположения нейронов пока зывает, что алгоритм разностного группирования обеспечивает весьма точное позиционирование центров нечетких функций. Алгоритм самоорганизации очень быстро приводит к их оптимальному размещению. Результаты, достигнутые с применением нечеткой сети, оказываются конкурентоспособными по отношению к наилучшим результатом, полученным на сети Кохонена. При использовании 4 0 нейронов погрешность квантования в нечеткой сети составила 0 ,0 0 0 3 5 (илилучший результат в сети Кохонена был равен 0 ,0 1 7 4 ), а при 2 0 0 нейронах
погрешность квантования не превысила 0,000172 (в сети Кохонена - 0,0070$). Различие в уровне погрешности достаточно велико; око обусловлено разными способами представления данных в классической системе и в нечеткой сети. В системе Кохонена каждую точку данных в многомерном пространстве
а) Нечеткийшлюроти при 200ивОрон»х- ммалыюе состоянии
0,7 |
|
-------■-------- . . .------------- ---------------------------------- |
|||||||
0.05 ■ |
|
|
|
|
|
|
|
|
|
0.6 |
• |
|
|
|
|
|
|
|
|
0.55 |
■ |
|
|
|
|
|
|
|
|
0.5 |
•. |
|
|
|
|
|
|
|
|
0.45 |
|
|
|
|
|
|
|
|
|
0.4 . |
|
|
|
|
|
|
|
|
|
0.35 ■ |
|
|
|
|
|
|
|
|
|
0.3 |
• |
|
|
|
|
|
|
|
|
0.25 |
|
|
|
|
|
|
|
|
|
рэ! |
------ |
■----- |
1--------- |
■------- |
•------- |
1____ _____ ■ |
|
||
0,25 |
0.3 |
0.35 |
0.4 |
0.45 |
0.5 |
0.55 |
0.5 |
0.05 |
6) Нечеткий епшоритипри 200нейронах- лонвчнов состояние
Рис. 12.10. Результаты восстановления обучающих данных с рис. 9.2 нечеткой нейронной сетью с самоорганизацией, состоящей из 200 нсГфонов:
а) исходное состояние после разностного группирования; б) окончательное размещение упорядоченных нейронов
представляют веса только одного нейрона, тогда как в нечеткой сети с самоорганизацией - множество нейронов, расположенных поблизости друг от друга. Благодаря этому становится возможным лучшее и более точное отображение использованных при обучении исходных данных.
Эта разница наиболее отчетливо заметна при представлении данных, соответствующих простой одномерной функции, например, синуса.
На рис. 12.11 демонстрируется аппроксимация этой функции с исполь зованием 20 нейронов. Рис. 12.11л отображает работу нечеткой сети, а рис. 12.116 - сети Кохонена. Классическая сеть Кохонена аппроксимирует функцию отрезками прямой, а нечеткая сеть - непрерывкой кривой линией. Уровни погрешности восстановления различаются при этом в среднем в 2,5 раза.
Очень хорошие результаты получены при использовании нечеткой сети Т8К для распознавания компонентов газовых смесей. Исследования проводились на тех же обучающих н тестовых выборках, которые применялись в экспериментах с гибридной сетью, описанных в разделе 9. Применялась
я) Аппрокашеция функции « т у е с применением нечеткойсети
Рис. 12.11. Иллюстрация способа аппроксимации синусоидальной функции
а) сетью с нечеткой самоорганизацией; б) сетью Кохонена
пятивходопая сеть Т8К <дпи учета показаний пяти полупроводниковых датчиков) сг пятью нечеткими правилами. Количество выходных нейронов было равно четырем (смесь состояла из четырех газовых компонентов)* Обучение проводилось по гибридному алгоритму подбора параметров ссп<, объединенному с предварительной пннциализацней цс1ггров нечетких функций, основанной на механизме самоорганизации по принципу разностного группирования. Этот принцип позволил получить практически идеальное начальное размещение центров, благодаря чему адаптированный к сети Т8К гибридный алгоритм уже после первого прохода (выполнение декомпозиции 8\Ш) перевел сеть в обученное состояние. На рис. 12.12 представлены результаты тестирования натренированной сети Т5К на тех же данных, которые применялись в экспериментах с гибридной сетью. Эти результаты представляют собой графики относительной погрешности опреде ления четырех газовых компонентов (1 -двуокись углерода, 2-мстан, 3-метоиол, 4 - пропаи/бутаи). Среднее значение относительной погрешности по резуль татам экспсримстов составило 0,23%, что свидетельствует1 о существенном прогрессе по отношению к Показателям, достигнутым с помощью гибрид ной сети.
Тестовые выборки |
Тестовые выборки |
Рис. 12.12. Распределение относительны х |
погреш ностей определения четырех |
компонентов газовой смеси, полученных с использованием нечеткой сети Т 8К.
12.5. Адаптивный алгоритм самоорганизации нечеткой сети
Представленный в предыдущем подразделе алгоритм самоорганизации требует априорного знания количества центров (нечетких нейронов), которые будут предоставлять данные. С этой точки зрения наиболее универсальным представляется адаптивный алгоритм, автоматически добав ляющий новые центры в режиме онлайн в зависимости от распредслвши входных данных х.
Адаптивный алгоритм был сформулирован только для гауссовской функции (6 = I) с использованием обобщенной модели Ванга-Менделя [160]. В результате его реализации определяются: количество центров и их расположение в части, соответствующей условиям (множество векторов х>) и заключениям (множество скалярных ожидаемых значений 4). Этот алгоритм можно
описать |
следующим образом. |
|
|
|
||
1. При |
сторте |
с |
первой пары данных |
(л*|, 4 ) создастся |
первый кластер |
|
с центром |
С |=Х |. Принимается, что 1Н|=</] |
и что |
мощность мно |
|||
жества 1 .|- 1 . |
Пусть г обозначает |
предельное |
эвклидово расстояние |
между вектором х и центром, при котором данные будут трактоваться как принадлежащие к созданному кластеру. Для сохранения общности решения принимается, «по в момент иачпла обучения существует М клас
теров |
с центрами С|, С2, ..., сц и соответствующие нм значения |
и |
/,*(/= |
1,2,.... ЛЯ. |
|
2.После считывания Л-й обучающей пары (х*. «/*) рассчитываются рас стояния между вектором дд и всеми существующими цстрвмп ||х*-су|| для / - 1, 2, ..., М. Допустим, что ближайший центр - это с/,. В таком случае в зависимости от значения ||**-с/,|| может возникнуть одна из двух
ситуаций: |
|
|
|
• сели ||** —с ,,|| > г, то создается новый кластер сагм |
= |
**, при |
|
чем |
Ц м(к)° I. Параметры созданных до этого кластеров нс |
||
изменяются, |
т.е. 1У/(Л)=Щ/(Л-1), 1/(&)=1/(Л-1) для I = |
I, |
2...... М. |
Количество |
кластеров М увеличивается на 1 (Л/<-Л/+1); |
|
|
•сели || ** - с;, || ^ г, то дпнные включаются в /*-Я кластер, параметры которого следует уточнить в соответствии с формулами [60]:
(* - !) + </* , |
(12.48) |
М * )= М * -1 > + 1 « |
(12.49) |
|
|
с ,,(* -1 )^ (* -!)+ ** |
(12.50) |
сЛк) |
Ч<*)
В другой версии алгоритма фиксируется положение центров |
поело |
инициализации, н их координат уже ке изменяются. Во мкопех случаях такой прием улучшает результаты адаптации.
3.После уточнения параметров нечеткой системы функция, аппрокси мирующая входные данные системы, определяется в виде
|
|
(12.51) |
тоща как остальные кластеры не изменяются, т.с. при Г*/* |
1У|(Л)в и ^ Л - 1 ), |
|
*./(*) - М * - 1) и |
с,(*) = с,(к-1), для 1= I ,2,.... М. |
|
При повторении |
перечисленных этапов алгоритма до |
к= р с уточне- |
1шем каждый раз значения М пространство данных разделяется на М клас
теров, |
при этом мощность каждого нэ них определяется как 1/ = Ц(к), |
центр - |
как с/ = С{(к),а значение приписанной ему накопленной функции в - |
как IV/ = и-/(к). |
Этот алгоритм называется самоорганизующимся, поскольку разделение пространства данных на кластеры происходит самостоятельно и без участия человека, в соответствии с заданным значением порога г. При малом зна чении г количество кластеров возрастает, в результате чего аппроксимация данных становится более точкой, однако это достигается за счет болес сложной функции и увеличения объема необходимых вычислений при одновременном ухудшении обобщающих свойств сети. Если значение г слишком велико, то вычислительная сложность уменьшается, однако возрастает погрешность аппроксимации. При подборе оптимальной величины порога г должен соблюдаться компромисс между точностью отображения к вычислительной сложностью. Как правило, оптимальное значение г подбирается методом проб и ошибок с использованием вычислительных экспериментов.
На рис. 12.13 представлены результаты аппроксимации кривой / ( х ) = 0,1 81п(0,2ях>+ 0,2 $1п (0,3 п х ) + 0,б5Й1 (0,9 пх) +
+ 1,1$1п( 1,9л х) + 2,3 ып( 3,7л х)
нечеткой сетью с самоорганизацией при использовании адаптивного алго ритма обучения. Рис. 12.13 а иллюстрирует результаты, полученные при величине порога г = 0,2, а рис. 12.136 соответствует порогу г = 0,0$. Пунк тирная линия обозначает ожидаемые значения, а непрерывная линия — фактические значения, сгенерированные нейронной моделью. Алгоритм сам подбирал количество нейронов, отвечающее установленному значению порога г. В первом случае зафиксированное алгоритмом количество ней ронов было равно 12, а во втором - 19. Для обучения использовались только 500 первых реализаций сигнала. Оставшиеся 500 значений приме нялись исключительно для тестирования.
Адаптивныйивтодпри г= о,2
Рис. 12.13. Пример отображения данных нечеткой сетью с самоорганизацией при использовании адаптивного алгоритма обувшим: а) порог г =0,2; б) порог г = 0,05
Следует обратить внимание, что алгоритм самоорганизации нечеткой сети позволяет одновременно определять как параметры сети, так н ее структуру (количество нейронов скрытого слоя). Его реализация подобна модели Ванга-Менделя, олисывпемой формулой (12.7), в которой можно выделить центры с/, соответствующие множеству векторов дг, н коэффиЦИС1ГГЫ(V/, связанные с положением центров через последовательность заданных функций (</). В связи с накопительным характером формирования пара метров и»/ (формула (12.48)), в знаменателе выражения (12.51) суммирование производится с весами Ц%отражающими количество уточнений параметров конкретных групп данных (размерность кластера).
Литература
1. |
Ватт А. Я. Арргохипабоп ап<) езНтаПоп Ьоипйз Гог агИПс1а1 |
пеига1 пе1\уогк5. |
|
М асМ пс к а т ш е . - У о1.14,1994 . - Рр. 115-133. |
|
2. |
ВпиЬепМ К., ОхотЫ 5. Са$ апа1у$|$ $ уз(ет с о т р о зе й о Г а |
зо1н1 $(а1е зспзог |
вггау вш) ЬуЬп<1 пеша! псЬуоЛ з(гис(иге. Зепзогз апс! АсШ я1оге-В55,1999. - Рр. 3 8 -4 6 .
3.СагАию 3. Е, Ве!оис1\гат А., (.акеМ В. А псзу сошрозКе сгИепоп Гог 0|1ар([уе
аш1 а1сга1аус |
Ъ1ш4 зоигсс зсрагаИоп И Ргос. 1СА38Р-94. - А б а к к с . Уо1. IV. - |
Рр. 2 7 3 -2 7 6 . |
|
4.С Ы С. К. А п ш<го<1ис1юп (о \уауе1е1з. N . V.: Асабепис Ргея, 1992.
5.СоигсП А/., СкагА В., агагА У, МиНег С.. Лоиие( Р. ОаНу е1сс(пса1 роигсг сипгс: с!аз-
8|Пса110п ап<1 ГогссазИпе изш^ а КоЬопеп шар // Р гот Ка!ига1 1о Л(||Г|С1а1 Исип11
|
Соглри(аНоп / У М йа, Р. Запбоуа!. е6$. - Ма1ава: М ЛЫ И, 1995. - Рр. 1107-1113. |
|
|||||||||||||||
6. |
СоигсП |
С., |
Мипго Р., 2\р$ег О. 1та§;е |
сотргсззю п |
Ьу Ьаск |
ргара§аИоп: |
|||||||||||
|
ал ехатр1е оГ ех(епзюла1 р г о й г а т т т з. - ТссЬпка! Керог! 1С8 гсроП 87 0 2 ,1С 5-17С 50, |
||||||||||||||||
|
8 ап 01еБ0, СаИГогша, 1)8А, РеЪгиагу 1987. |
|
|
|
|
|
|
|
|
|
|
|
|||||
7. |
СНаиу{» У. А Ьаск ргораеаП'оп а1^оп11пл ч\а*К ор1йла1 изо оГ ЬнЫсл ип1(з ИАОуалсез |
||||||||||||||||
|
т № Р 82 / О. Тоиге1гку, Еб. - |
Зал Мв1ео: Мог^ал КаиГтапл, 1989. • Рр. 51 9 -5 2 6 . |
|||||||||||||||
8. |
СЛем 8., Сопгап С.Е, Огам Р.М. ОпЬоцола! 1еаз1 |
зциагез к а г л т е |
|
а^ оп сИ т |
|||||||||||||
|
Гог га<Иа1 Ьазгз ГипсЛоп пе№огк$ Н 1ЕЕЕ Тгвла. Ысига! Ыскуогкз, |
1991. |
• |
Уо1. 2. |
|||||||||||||
|
Рр. 3 0 2 -3 0 9 . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
9 . |
СНеп О.. Зат С. А |
гоЬизг Ьаск |
ргорвда110п (еатш |> |
а^опИ ил |
Гог |
ГилсИоп |
|||||||||||
|
аррсохилабол // Ш ЕЕТгалз. №ига1 Ыейуогка, 1994. - |
Уо1.5. - |
Рр. 467 -4 7 9 . |
|
|||||||||||||
10. |
СНенв УН., Ип С.8 |
Ьеаплпз а^олОил |
Гог гасНа! Ьаз1$ |
ГилсОол |
пе№огк |
«ИЬ |
|||||||||||
|
1Ье сараЪШ(у оГ аМ ш в влб ргипт^ лсиголз: Ргос. 1994 СолГ. 1С1Ч7Ч. Ог1ал<1о: 1994. - |
||||||||||||||||
|
Рр. 797-В 01. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
11. |
СМнгш18теп& С„ 5сдтп |
С.Н. |
О рЛ та! |
вЛарЛуе |
К -т еа л з |
а1&оп1Ьт |
ууНЬ |
||||||||||
|
булалЛс аб]и$1теп( оГ к ап и щ га!е // ШЕЕ Тгапз. №ига1 ЫеГиогкз, |
1995. - Уо1. 6. |
|||||||||||||||
|
- Рр. 157 -169 . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
12. |
С/сА ос*/ |
А.. |
Во&пег |
Я., |
Молсхумк! |
1.,Роре |
К. |
МосНПеб |
|
НсгоиН-ГиНел |
|||||||
|
а1^оп1Ьл15 Гот Ы Ы зерага!юл оГ зоигсез // 0!в|1а1 318ла1 Ргосеззшв, |
1997. - Уо1. 7. |
|||||||||||||||
|
- Рр. 80-93. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
13. |
СккосЫ А.. Мохгсгуткх Ь. ВЗ-рговпип оГ ЬИпб зерагаИол оГ зоигсез. - |
ЭДызгахуа: |
|||||||||||||||
|
Ро№есНп1ка М№зга«узка, 1994. • |
|
|
|
|
|
|
|
|
|
|
|
|
||||
14. |
СкЬоскх А., |
ШЬеЬаиен Я. |
ЗС |
пеига! |
пе1жогкз |
Гог |
«ИЛсгспЛа! орГшлгаГюл |
// ГлС. Г. С. Т. Арр!., 1991. - У о1.19. • Рр. 161-187 .
15. |
С1скоск\ А.. ЦпМимеп А |
№ига1 лс1\Уогк$ Гог 5о1уйц; $у$(спк оГ Нпеаг еяиаНопз |
|||||||||||||||
|
ап<1 гс1аЫ ргоЫсгш // 1ЕЕЕ Тгапз. С А 5 ,1992. - Уо1. 39. - Рр. 124-138. |
|
|
|
|||||||||||||
16. |
СмскосМ А.. |
1/икекаиен |
Я. |
№ ига! |
|
пс(\Уогкз |
Гог |
орНпигаПоп |
|
алД |
$|^па1 |
||||||
|
ргосенш в. N. V.: М/Лсу, 1993. |
|
|
|
|
|
|
|
|
|
|
|
|
||||
17. |
Сёскоскг А., ИпЬекачеп А , |
Мохгсгучик! I., |
НиттеП Е. А пе№ оп-Ипе аДаркуе |
||||||||||||||
|
1саш тв а^огШип |
Гог Ы тД |
зсрагвДоп |
оГ зоигсс $1§па1$. I5ЛNN. - |
Тыкал, |
1994. |
|||||||||||
|
-Р р . 421 -427 . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
18. |
Сёскоскг А., Атап 8 АДарНуе ЫшД 31§па1 ргосе$5Ш§ • леига I пеКУогк арргоасЬез |
||||||||||||||||
|
П РгосссД|пв$ оПЕПЕ, 1998. - Уо1.86. • Рр. 2026-2048. |
|
|
|
|
|
|
|
|||||||||
19. |
Сокеп М.А., СгохзЬег$ А |
ЛЬзо1и(е |
з1аЬНа1у оГ |
§1оЪв1 р аК ет |
ГогтаГюп апД |
||||||||||||
рагаНе! тсш огу |
&(ога§с Ьу сошре(к‘|Ус леига! пеЬУогкз // |
1ЕЕЕ |
Тгапз. ЗМС, 1983. • |
||||||||||||||
|
Ув1.13. - Рр. 815 -826 . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
20. |
Са\'сг Т. Ссотс1гка1 апД |
5(аД$1ка! ргорсПк* оГ зуМ стз |
оГ |
Ппеаг |
|
теяиаШ кз |
|||||||||||
|
ккк аррИсаНопа т раИ ет гссоетКоп // ШЕЕ Тгапз. Е кскопк Сотрикгз, 1965. - |
||||||||||||||||
|
Уо1. 14. - Рр. 326 -334 . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
21. |
Сго^а/а Е., РеАгусг 1К Е1стсп1у I тс1оДу 1сот гЫогук гогтуГусЬ. - МУагаака: Р М 4, |
||||||||||||||||
|
1985. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
22. |
Оагкеп С , |
МооАу 1 Ьсапйпв |
зсЬеДикз |
Гог $1ос1|аМк орИткаДоп |
И Ргос. |
1990 |
|||||||||||
|
1ЕЕЕ СопГ. N № 5 // №1ига1 апД 5уп1с1к, 1990. - Рр. 518-523. |
|
|
|
|
|
|
||||||||||
23. |
ОаиЬссЫез /. Теп 1ес1игсз оп чувус1с15. СВМ5- N 5? Кс$лопз1 СопГ. Зспсз т ЛррИсД |
||||||||||||||||
|
МаДгстаДсз, Моп(рс1кг: Сарка! Ску Гге55,1992. - УЫ. 61. |
|
|
|
|
|
|
||||||||||
24. |
ОетагНнех Р. Лпа1у$е Дс Доппсез раг гсзсаих Де пеигопсз |
аыо-огвапксз, |
0|$>. |
||||||||||||||
|
Де ПлЫки! № 1юпа| Ро1у(ссНп1цис Де СгепоЫе. - СгепоЫе: 1994. |
|
|
|
|
|
|||||||||||
25. |
ОемаШпез Р, в/ауо Р. Кокопсп $е!Г огвап1гшв тара: |
к |
1ке |
погтаМгаНоп |
|||||||||||||
|
лессззагу?// С о т р к х 5у5 к т $ , 1992. - УЫ.6. • Рр. 105-123. |
|
|
|
|
|
|
||||||||||
26. |
ОемаШпез |
Р., Негаик Л |
Ксргс5еп1о(1оп оГ лопНлеаг Да(а $(гис(иге5 (Нгои^Ь |
||||||||||||||
|
Га$( У(}Р леига! гс!\Уогк // Ргос. Ысигопютез. • М т с з, Ргапсе, 1993. - Рр. |
1-18. |
|
||||||||||||||
27. |
Оетигк II.. Веа1е М. Ыеига! ЫсЬуогк Тоо1Ьох Гог изс |
«л»Ь Ма(1вЬ. - |
№ 1кк: ТНе |
||||||||||||||
|
Ма1Ь\Уогкз, 1пс., 1992. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
28. |
Оепоеиж Л . Ш$а\1е К. 1пШп1шпв Ъаск ргораваПоп |
леЬУОгкз «гПЬ |
ргоЮ1урсз |
||||||||||||||
|
//№ и га! № 1*огкз, 1993. - Уо! 6. - Рр. 351-363. |
|
|
|
|
|
|
|
|
||||||||
29. Октан/апи |
К., |
Кипя 8. |
Рппара! сотролсп! леига! пе1\уогк$, 1кеогу апД |
||||||||||||||
|
аррНса(1оп$. - N. У.: \УНеу, 1996. |
|
|
|
|
|
|
|
|
|
|
|
|
||||
30. |
ОтЬ Ы&Ма Оо. ОхоткI 8. 51тре гссо§пк|оп ш т в |
РРТ ргергосеззтв |
апД |
леига! |
|||||||||||||
|
ле1\У01к // С отрс1. 1998. - У о1.17, N 0 5/6. - Рр. 658-666. |
|
|
|
|
|
|
|
|||||||||
31. |
ОтЬ N$111(1 |
Оо. |
3 |с с 1 псигопооте |
гв1»050жвл1и |
До гогрогпа\уал1а лухогсож |
||||||||||||
|
Д\уи«уут1ого\уусЬ,: Когрпмъ Док1огака. - |
\Уагага\ул: 1>о1!1ссНп1кп \Уагзга\У5ка, 1999. |
|||||||||||||||
32. ОиЬогх О. РгаАе И. Риггу $ей апД ауМел». - |
N . V.: А саД етк Рге$з, 1980. |
|
|
|
|||||||||||||
33. |
РаМтап 8.Е. Рлз(ег 1еагл1лв уаг1лНои& |
оп |
Ьаскргора&аиоп: ел сп\р1пса1 |
$тДу |
|||||||||||||
|
// Ргос. 1988 |
СоплесНопк! |
М оДек Зиш тег |
5скоо1. - |
Ьоз |
Ако$, |
113А: Могвал |
||||||||||
|
КоиГталп, |
1988. • Рр. 38 -51 . |
|
|
|
|
|
|
|
|
|
|
|
|