
- •1. Системный анализ в структуре современных исследований.
- •2. Системное описание задачи оптимизации
- •3. Системный анализ транспортных моделей. Метод потенциалов.
- •4.Алгоритм решения транспортной задачи при получении максимального значения функции
- •5. Решение транспортных задач методом Фогеля (приведите пример).
- •6.Оптимизация назначений максимальное и минимальное значения функции (примеры)
- •7.Динамическое программирование. Принцип оптимальности Беллмана.
- •8.Постановка задачи распределения инвестиций и алгоритм ее решения методом динамического программирования
- •9. Задача о бинарном рюкзаке. Метод динамического программирования(см 10)
- •10. Метод динамического программирования. Задача о рюкзаке с неограниченным количеством элементов.
- •11. Постановка задачи о замене оборудования и алгоритм ее решения методом динамического программирования.
- •12. Принятие решения на основе расчета функции полезности
- •13. Экспертные методы в процессе прогнозирования и принятие управленческих решений
- •14.Метод ранжирования мнений экспертов
- •15. Методы определения согласованности экспертов
- •1 Случай – Отсутствие связанных рангов в матрице ранжировок.
- •16. Метод Паттерн
- •17. Методы групповой экспертной оценки
- •18. Метод Дельфи
- •19. Особенности принятия решений в условиях неопределенности (критерий Лапласа, вальда критерий максимакса)
- •20. Охарактеризовать критерии пессимизма-оптимизма (Гурвицы) и критерии минимального риска (Сэвиджа) ( привести пример)
- •21 Метод выбора альтернатив в условиях риска (дерево решений)
- •22 Пассивный метод поиска минимума функции одной переменной
- •23 Метод дихотомии(половинного деления) как метод оптимизации унимодальной функции
- •24 Численный метод оптимизации функции одной переменной -метод Фибоначчи
- •25. Численный метод оптимизации функции одной переменной – метод золотого сечения
- •1. Задаются ɛ, a,b( или в форме интервала), и f(X)
- •26. Градиентный метод оптимизации – метод с дроблением шага
- •27. Градиентный метод оптимизации – метод наискорейшего спуска
- •2. Определяется λк
- •4. Проверяется условие окончания вычислений
- •28. Градиентный метод оптимизации – метод ньютона
- •5. Проверяется условие окончания вычислений
- •30. Понятие нечеткого множества и операции над ними
- •31. Функции принадлежности элементов нечеткого множества их назначение и виды
- •32. Нечеткие отношения. Понятия и принципы композиции нечетких отношений
- •33. Понятие лингвистической переменной. Алгоритм Мамдани [из интернета]
-
Решение. Запишем матрицу выигрышей в виде 1 таблицы 3.8 и найдем наименьшее значение minаj, и наибольшее значение maxаj, для каждого ее строки.
-
Таблица 3.8. Матрица выигрышей игры
-
-
Определим максимум среди линейных комбинаций минимального и максимального выигрышей по формуле (3.19):
-
-
Таким образом, по критерию Гурвица при значении показателю оптимизма λ = 0,6 следует выбрать стратегию А3.
-
Заметим, что этот выбор оптимальной стратегии совпадает с выбором по критериям Вальда, оптимизма и Сэвиджа.
-
21 Метод выбора альтернатив в условиях риска (дерево решений)
-
Дерево решений — это графическое изображение процесса принятия решений, в котором отражены альтернативные решения, альтернативные состояния среды, соответствующие вероятности и выигрыши для любых комбинаций альтернатив и состояний среды.
-
Рисуют деревья слева направо. Места, где принимаются решения, обозначают квадратами □, места появления исходов — кругами ○,возможные решения — пунктирными линиями --------, возможные исходы — сплошными линиями ——.
-
Для каждой альтернативы мы считаем ожидаемую стоимостную оценку (EMV)
-
Ожидаемая стоимостная оценка EMV рассчитывается как сумма произведения вероятностей и кол-ой (денежной) оценки по каждому из возможных последствий.
-
Если дерево содержит большое кол-во альтернативных решений, можно оценивать только наиболее приоритетные ветки.
-
Двухуровневое дерево решений (пример из лекции!)
-
Перед руководством одной иностранной автомобильной компании стоит задча выпускать в России новую модель своего автомобиля или нет. Для этого необходимо решить, монтировать или нет на заводе новый конвейер по производству автомобиля, который сконструирован по новой технологии и отличается от уже существующих. Если новый конвейер будет работать безперебойно, то компания получит прибыль 600 млн. рублей. В противном случае, при отказе конвейера компания может потерять 470 млн. рублей. По предварительным оценкам руководства компании, существует вероятность 70%, что новый конвейер откажет. Есть предложение создать экспериментальный конвейер, а затем решить, монтировать или нет новый конвейер. Экспериментальный конвейер обойдется компании в 95 млн. рублей. Еще руководство компании считает, что существует 50% шансов, что экспериментальный конвейер будет работать нормально. Если экспериментальный конвейер будет работать, то с вероятностью 80% новый конвейер также будет работать. Если же экспериментальный конвейер откажет, то есть вероятность 40%, что новый конвейер заработает. Есть ли необходимость строить экспериментальный конвейер? Нужно ли монтировать новый конвейер? Какова ожидаемая стоимостная оценка наилучшего решения?
-
-
ЭТО ПРИНЦИП РЕШЕНИЯ, В ЛЕКЦИИ ЕГО НЕ БЫЛО
-
В узле F возможны исходы «конвейер работает» с вероятностью 0,3 (что приносит прибыль 600) и «конвейер не работает» с вероятностью 0,7 (что приносит убыток -470) следовательно оценка узла F. EMV( F) = 0,3 x 600 + 0,7 х ( -470) = -149. Это число мы пишем над узлом F.
-
EMV(G) = 0.
-
В узле 4 мы выбираем между решением «монтируем новый конвейер» (оценка этого решения EMV( F) = -149) и решением «не монтируем новый конвейер» (оценка этого решения EMV(G) = 0): EMV(4) = max {EMV( F), EMV(G)} = max {-149, 0} = 0 = EMV(G). Эту оценку мы пишем над узлом 4, а решение «монтируем новый конвейер» отбрасываем и зачеркиваем.
-
Аналогично:
-
EMV( B) = 0,8 х 600 + 0,2 х (-470) = 480 - 94 = 386.
-
EMV(С) = 0.
-
EMV(2) = max {EMV(В), EMV(С} = max {386, 0} = 386 = EMV(B). Поэтому в узле 2 отбрасываем возможное решение «не монтируем новый конвейер».
-
EMV(D) = 0,4 х 600 + 0,6 х (-470) = 240 — 282 = -42.
-
EMV( E) = 0.
-
EMV(3) = max {EMV(D), EMV(E)} = max {-42, 0} = 0 = EMV( E). Поэтому в узле 3 отбрасываем возможное решение «монтируем новый конвейер».
-
ЕМV(A) = 0,5 х 386 + 0,5 х 0 — 95 = 98.
-
EMV(1) = max {EMV(A), EMV(4)} = max {98; 0} = 98 = EMV( A). Поэтому в узле 1 отбрасываем возможное решение «не монтируем экспериментальный конвейер».
-
Ожидаемая стоимостная оценка наилучшего решения равна 98 млн. рублей. Строим новый конвейер. Если экспериментальный конвейер работает, то монтируем новый конвейер. Если экспериментальный конвейер не работает, то новый конвейер не монтируем. ОТВЕТ В ЛЕКЦИИ БЫЛ
-
22 Пассивный метод поиска минимума функции одной переменной
-
Метод оптимизации называется пассивным, когда все точки xi ,i = 1,N, вычислений характеристик задачи (в данном слу-
-
чае значений целевой функции) выбираются одновременно до начала вычислений.
-
Если N четное, т.е.N = 2l,l = 1,2,", то наилучшее (в смысле максимального уменьшения длины отрезка локализации)
-
размещение точек xi ,
-
i =
-
1, N
-
, получается разбиением их на рав-
-
ноотстоящие ε-пары,т.е.
-
x
-
2 j −1
-
= a +
-
b − a
-
j − ε ,
-
x
-
2 j
-
= a +
-
b − a
-
j + ε ,j = 1,N 2,
-
(4.1)
-
N 2+1
-
N 2+1
-
2
-
2
-
где ε − некоторое малое положительное число.
-
При этом
-
b − a
-
ε
-
L0
-
+ ε .
-
LN=
-
+
-
=
-
N 2+1
-
2
-
l +1
-
2
-
Если N нечетное,
-
т.е. N = 2l +1,l = 1,2,", то наилучшим
-
является равномерное распределение точек, т.е.
-
x
-
= a +
-
b − a
-
i,
-
i =
-
.
-
(4.2)
-
1, N
-
i
-
N +1
-
При этом
-
b − a
-
L0
-
LN
-
= 2
-
=
-
.
-
N +1
-
l +1
-
Нетрудно заметить, что использование нечетного числа точек при пассивном методе поиска неэффективно.
-
После определения точек
-
xi , i=
-
1, N
-
, вычисляются значе-
-
ния
-
функции f (xi ) . Пусть
-
f (xk )= min f (xi ).
-
Тогда, полагая
-
i =1, N
-
x0 = a, xN +1 = b,
-
определяется
-
итоговый
-
отрезок локализации
-
∆N
-
= [xk −1,xk +1] .
-
Точка xk
-
принимается
-
за
-
аппроксимацию
-
-
(оценку) точки минимума x , значение функцииf (xk )− за оценку f * = f (x*) , т.е.x*= xk , f*= f(xk ).
-
Пример. Определить с помощью пассивного поиска ми-
-
нимум функции
-
f (x) = x+ 1 ,
-
заданной на отрезке ∆ = [0,2]: а)
-
x
-
при N=6,ε=0,1; б) приN=7.
-
Решение.
-
а) N=6,ε
-
=0,1.
-
x2j−1,
-
x2j
-
Определяем пары точек
-
с помощью соотноше-
-
ния (4.1):
-
2 − 0
-
j − 0.1 = 0,5j − 0,05,
-
x2j−1
-
= 0 +
-
j =
-
1,3;
-
3 +1
-
2
-
x2j
-
= 0 +
-
2 − 0
-
j +
-
0.1 =
-
0,5 j + 0,05,
-
j =
-
1,3.
-
3 +1
-
2
-
Результаты вычислений x и
-
f (x) заносим в табл. 4.1.
-
Таблица 4.1
-
Номер
-
1
-
2
-
3
-
4
-
5
-
6
-
отсчета
-
x
-
0,45
-
0,55
-
0,95
-
1,05
-
1,45
-
1,55
-
f (x)
-
2,67
-
2,37
-
2,0026
-
2,0024
-
2,14
-
2,20
-
Поскольку
-
f (x4 )= min f (xi ) ,
-
то
-
полагаем
-
∆6=[x3,x5]=
-
i =1,6
-
=[0,95; 1,45], x x4
-
= 1,05,
-
f *
-
f (x4 )= 2,0024.
-
Ответ: ∆6
-
= [0,95; 1,45] ,
-
x* 1,05,
-
f * 2,0024.
-
-
23 Метод дихотомии(половинного деления) как метод оптимизации унимодальной функции
-
Метод оптимизации называется активным, если точки х,, i = 1, N, вычислений характеристик задачи (в данном случае значений целевой функции) выбираются последовательно, с учетом информации, полученной на предыдущих шагах. Для активных (последовательных) методов поиска принято указывать в используемых обозначениях номер итерации с помощью надстрочного индекса в круглых скобках. В соответствии с этим отрезок локализации после ] итераций будет обозначаться А^( ]) = [a^(J), b^( J)].
-
алгоритм выполнения
-
-
для которой значение функции минимально
-
Пример. Определить методом дихотомии минимум функцииf (x)= x4 − 6x2 +10 , заданной на отрезке∆=[1,3], приN=8,
-
ε=0,1.
-
Решение.
-
В данном случае будут выполнены N/2=4 итерации. Результаты вычислений заносим в табл. 4.3.
-
Таблица 4.3
-
Номер
-
x1(j )
-
x2(j )
-
f1(j)
-
≤
-
f2(j)
-
a(j)
-
b(j)
-
итерации
-
>
-
0
-
—
-
—
-
—
-
—
-
1
-
3
-
1
-
1,95
-
2,05
-
1,644
-
<
-
2,446
-
1
-
2,05
-
2
-
1,475
-
1,575
-
1,680
-
>
-
1,270
-
1,475
-
2,05
-
3
-
1,713
-
1,813
-
1,004
-
<
-
1,082
-
1,475
-
1,813
-
4
-
1,594
-
1,694
-
1,211
-
>
-
1,017
-
1,594
-
1,813
-
-
Поскольку j=N/2=4, то вычисления завершаются.
-
Точка минимума локализована на отрезке ∆8 = [1,594; 1,813] . На данном отрезке исследованы 4 точки:
-
a(4)
-
= 1,594→ f (a(4) )= 1, 211;
-
b(4)
-
= 1,813→ f (b(4) )= 1,082;
-
*
-
(3)
-
= 1,713,f
-
*
-
(3)
-
) = 1,004.
-
x2(4)
-
x
-
x1
-
f (x1
-
=1,694→ f (x2(4) )=1,017;
-
x(3)
-
=1,713
-
→ f (x(3) )=1,004;
-
1
-
1
-
Ответ: ∆8
-
= [1,594; 1,813] ,x* 1,713,
-
f * 1,004 .
-
-
-
24 Численный метод оптимизации функции одной переменной -метод Фибоначчи
-
При вычислении
-
x(j )
-
и
-
x(j ), j =
-
1, N −1
-
, используются
-
1
-
2
-
-
числа Фибоначчи, определяемые следующим образом:
-
F0 = F1 = 1,Fk = Fk −1 + Fk − 2 ,k = 2,3,....
-
Условием окончания вычислений является выполнение заданного количества вычислений N.
-
Итак, алгоритм поиска минимума унимодальной функции методом Фибоначчи заключается в следующем.
-
1. Задается N, определяются числа ФибоначчиFk,k = 0,N +1, выбираетсяε из условия
-
ε< b− a.
-
FN+1
-
Полагается j=1.
-
2. На j-йитерации вычисляются
-
x(j)= a(j−1)
-
FN− j−1
-
(b(j−1)− a(j−1)) −
-
(−1)N − j+1
-
+
-
ε ,
-
1
-
FN− j+1
-
FN− j+1
-
x2(j)= a(j−1)+
-
FN− j
-
(b(j−1)− a(j−1)) +
-
(−1)N − j+1 ε,
-
FN− j+1
-
FN− j+1
-
f ( j) = f(x
-
( j )),
-
f (j )
-
= f (x(j)).
-
1
-
1
-
2
-
2
-
Если
-
f (j)≤ f
-
( j) , тоa
-
( j)= a(j −1), b(j)= x(j),
-
x(j +1)
-
= x(j)
-
1
-
2
-
2
-
2
-
1
-
Если
-
f (j )> f
-
( j) , тоa
-
( j)= x(j),
-
b(j)= b(j −1),
-
x(j +1)= x(j)
-
1
-
2
-
1
-
1
-
2
-
-
3
-
3. Проверяется условие окончания вычислений j = N −1.
-
Если оно выполняется, то определяются итоговый отрезок локализации, оценки точки минимума x и величины минимума
-
f * = f (x*) и вычисления завершаются.
-
Если условие не выполняется, то полагается j=j+1 и осуществляется переход к п.2.
-
Примечание. Наj-й,j>1, итерации вычисляется только та точкаxi( j ) ,i = 1,2, которая не была определена на предыдущей итерации.
-
Отметим, что оценкой точки минимума x* является та из точекxi( N −1) ,i = 1,2, которая осталась внутри итогового отрезка
-
локализации ∆N .
-
Что выделено жирным шрифтом важно, остальное на всякий случай.
-
25. Численный метод оптимизации функции одной переменной – метод золотого сечения
-
Везде I=Ф, так было на практике
-
При построении процесса оптимизации стараются сократить объем вычислений и время поиска. Одним из наиболее эффективных методов является метод золотого сечения. Он состоит в построении последовательности отрезков
,
, …, стягивающихся к точке минимума функции. На каждом шаге, за исключением первого, вычисление значения функции производится один раз в точке, называемой золотым сечением. Золотое сечение интервала выбирается так, чтобы отношение длины большего отрезка
к длине всего интервала
равнялось отношению длины меньшего отрезка
к длине большего отрезка
:
-
,
-
Из этого соотношения можно найти точку деления:
-
-
-
-
-
Так как нас интересует только положительное решение, то
-
-
Отсюда
-
-
-
Поскольку заранее неизвестно в какой последовательности (
и
или
и
) делить интервал неопределенности, то рассматривают внутренние точки, соответ-ствующие двум этим способам деления.
-
Алгоритм из теории:
-
Точки
и
выбирают с учетом полученных значений частей отрезка. В данном случае:
-
-
-
После первого шага оптимизации получается новый интервал неопределенности
. Точка
делит этот отрезок в требуемом отношении, т. е.
-
-
-
-
-
Вторая точка
выбирается на таком же расстоянии от левой границы отрезка, т.е.
-
-
И снова интервал неопределенности уменьшается до величины
-
-
Используя полученные соотношения, можно записать координаты точек деления
и
на отрезке
на
шаге:
-
-
-
При этом длина интервала неопределенности равна:
-
-
Процесс оптимизации заканчивается при выполнении условия
-
-
-
Алгоритм из практики( более простой):
-
1. Задаются ɛ, a,b( или в форме интервала), и f(X)
-
2. c1=(b-a)*Ф1+a , c2=(b-a)*Ф2+a
-
3. Если f(c1)>f(c2), то a=c1 и b-прежняя, иначе a- прежняя и b=c2
-
4. Цикл завершится, когда (b-a)< Ɛ
-
5. Находим (a+b)/2=x* и f*=f(x*)
-
26. Градиентный метод оптимизации – метод с дроблением шага
-
В данном случае в качестве λ^(k) используется нормированный антиградиент
-
(-f'(x^(k-1)) | f'(x^(k-1))|, т.е x^(k)
-
Определяется из соотношения (1)
-
X^(k)= X^(k-1) – λk*( f'(x^(k-1))/( | f'(x^(k-1))|)
-
Величина λ^(k) выбирается так чтобы, выполнить условие (1) процесс выбора λ^(k) осуществляется следующим образом.
-
Выбираются константы a>0 и 0<b<1. На k-й промежуток k=1,2… интеграции проверяется выполнение условия (1), при λ=a
-
. Если оно не выполняется то производится дробление шага, т.е. полагается λ^(k)=ab и вновь проверяется выполнение условия (1). Процесс дроби , т.е.умножения текущего значения λ^(k) , но b продолжается до тех пор пока условие (1) не окажется выполенным.
-
27. Градиентный метод оптимизации – метод наискорейшего спуска
-
На каждой интеграции шаг λк выбирается из условия минимума функции f(x) в направлении движения т.е.
-
f(x^(k-1)- λк*f'(x^(k-1))=min ϕ(λ) , где λ>0
-
Где ϕ(λ)= f(x^(k-1)- λ*f'(x^(k-1))
-
Алгоритм метода:
-
1. Задаются Ɛ, x^(0), вычисляем f(x^(0)), f'(x^(0)), | f'(x^(0))|, полагается к=1
-
2. Определяется λк
-
3. Вычисляются ∆ x^(к)=- λk*f'(x^(k-1)), x^(k)=x^(k-1)+ ∆ x^(к), f(x^(k)), f'(x^(k)), | f'(x^(k))|
-
4. Проверяется условие окончания вычислений
-
| f'(x^(k))|<= Ɛ
-
Если оно выполняется, то полагается x*>=x^(k), f*>=f(x^(k)) и вычисления завершаются
-
Пример
-
-
-
28. Градиентный метод оптимизации – метод ньютона
-
Метод Ньютона, так же как и градиентные методы, относится к методам спуска, т.е. предназначен для численного решения задач безусловной минимизации. Метод Ньютона основан на идее замены минимизируемой функции f(x) в окрестности точки x^(k) квадратичной частью fk(x) ее разложения в ряд Тейлора.
-
fk(x)= f(x^(k))+(f'(x^(k)),(x-x^(k))+ 0,5((x-x^(k))*f'(x^(k)),(x-x^(k))
-
В методе Ньютна очередная точка x^k в последовательности x^0, x^1, x^2 ….. приближений к точке минимума x* выбирается по правилу
-
X^k=x^(k-1)+h^(k)=x^(k-1) - f'(x^(k-1))*(f''(x^(k-1)))^(-1) k=1,2 ……
-
Где А^(-1) – матрица обратная матрице А
-
Таким образом, метод Ньютона является методом второго порядка
-
Алгоритм решения задачи безусловной минимизации методом Ньютона заключается,
-
1. Задаются Ɛ, x^(0) : вычисляются f(x^(0)), f'(x^(0)), | f'(x^(0))|, полагается к=1
-
2. Вычисляются f''(x^(k-1))
-
3. Определяется (f''(x^(k-1)))^(-1)
-
4. Вычисляются ∆ x^(к)=- f'(x^(k-1))* (f''(x^(k-1)))^(-1), x^(k)=x^(k-1)+ ∆ x^(к), f(x^(k)), f'(x^(k)), | f'(x^(k))|
-
5. Проверяется условие окончания вычислений
-
| f'(x^(k))|<= Ɛ
-
Если оно выполняется, то полагается x*>=x^(k), f*>=f(x^(k)) и вычисления завершаются
-
Пример
-
-
30. Понятие нечеткого множества и операции над ними
-
Нечётким множеством С в Х называется совокупность пар вида (х, μс(х)), где х ϵ С, а μс(х) – функция принадлежности, определённая на отрезке [0;1].
-
Справедливо утверждение: «Нечёткое множество вполне описывается своей функцией принадлежности». Обычные (чёткие) множества составляют подкласс нечётких множеств.
-
Для обычного множества функция принадлежности: μс(х) = 1 (если х ϵ В) и μс(х) = 0 (если х не ϵ В)
-
Обычное множество определяется совокупностью пар (х, μс(х)).
-
Операции над нечёткими множествами:
-
Объединением нечётких множеств А и В в Х называется нечёткое множество АUВ с функцией принадлежности вида μАUВ(х) = max {μА(х), μВ(х)}, х ϵ Х.
-
Пересечением нечётких множеств А и В в Х называется нечёткое множество АᴖВ с функцией принадлежности вида μАᴖВ(х) = min {μА(х), μВ(х)}, х ϵ Х.
-
Дополнением нечёткого множества А в Х называется нечёткое множество Ā с функцией принадлежности вида μĀ(х) = 1 – μА(х), х ϵ Х.
-
Разность нечётких множеств А и В в Х определяется как нечёткое множество А-В с функцией принадлежности вида μА-В(х) = μА(х) - μВ(х), при μА(х) ≥μВ(х); в противном случае = 0.
-
Декартово произведение А1 х А2 х … х Аn нечётких множеств Аi в Хi, определяется как нечёткое множество А в декартовом произведении Х = Х1 х Х2 х … х Хn с функцией принадлежности вида μА(х) = min {μА(хi), …, μА(хn)}, х = (xi, …, хn)ϵ Х.
-
Операция нормализации функции принадлежности осуществляется в соответствии со следующей формулой: μВ(х) = (μА(х)) / (maxμА(х)), для любого х ϵ Х.
-
31. Функции принадлежности элементов нечеткого множества их назначение и виды
-
1) Треугольная функция. Треугольная функция принадлежности в общем виде задаётся аналитическим выражением вида: f∆(x, a, b, c) = 0, при x≤a; = (x-a)/(b-a), при a≤x≤b; =(c-x)/(c-b), при b≤x≤c; =0, при c≤x, где a,b,c– некоторые числовые параметры, упорядоченные отношением a≤b≤c и принимающие произвольные действительные значения. Функция принадлежности порождает нормальное выпуклое унимодальное нечёткое множество с носителем – (a, c), границами (a, c)/b, ядром {b} и модойb. (буквенные обозначения на графике случайны)
-
-
2) Функция принадлежности Гаусса: f(x,o, c) = exp ((-(x-c)^2) / (2o^2) )
-
-
-
3) Сигмоиднаяфункция: f(x,a,c) = 1 / (1+e^( -a(?-c) )
-
-
В зависимости от знака параметра а рассматриваемая функция принадлежности будет открыта или справа или слева, что позволит применять её при описании таких нечётких понятий, как «очень большой», «крайне отрицательно» и т.д.
-
32. Нечеткие отношения. Понятия и принципы композиции нечетких отношений
-
Если элемент uпод номером 1 находится в отношении R с элементом vс номеромj, то записывают rij(ui,vj). Отношения можно представить в виде матрицы.
-
1
-
2
-
3
-
4
-
1
-
r11
-
r12
-
r13
-
r14
-
2
-
r21
-
r22
-
r23
-
r24
-
3
-
r31
-
r32
-
r33
-
r34
-
4
-
r41
-
r42
-
r43
-
r44
-
-
Таблицу можно расписать иначе, в виде «суммы», где знак «+» будет означать лишь факт принадлежности элемента к подмножеству (rij): rij= (u1,v1) + (u1,v2) + (u1,v3) + (u1,v4) [первая строка] + (u2,v1) + (u2,v2) + (u2,v3) + (u2,v4) [вторая строка]+ … + (u4,v4).
-
В логике нечётких отношений произведение нечётких множеств моделирует знание-правило «если U, то V», т.е. моделирует отношение-продукцию U→V.
-
R = U*Vвыполняется операцию U→V, S = V*W1
-
Композиция множеств позволяет дать ответ на вопрос: «Как определить отношение вида?»
-
[ в левой части имеемrij = μR(ui,vj)] U*V→V*W [ в правой части имеемSij = μS(ui,wj) ]
-
33. Понятие лингвистической переменной. Алгоритм Мамдани [из интернета]
-
Лингвистическая переменная — в теории нечётких множеств, переменная, которая может принимать значения фраз из естественного или искусственного языка. Например, лингвистическая переменная «скорость» может иметь значения «высокая», «средняя», «очень низкая» и т. д. Фразы, значение которых принимает переменная, в свою очередь являются именами нечетких переменных и описываются нечетким множеством.
-
Математическое определение:
-
Лингвистической переменной называется пятерка, где — имя переменной; — некоторое множество значений лингвистической переменной, каждое из которых является нечеткой переменной на множестве; есть синтаксическое правило для образования имен новых значений; есть семантическая процедура, позволяющая преобразовать новое имя, образованное процедурой , в нечеткую переменную (задать вид функции принадлежности), ассоциирует имя с его значением, понятием. Также называют базовым терм-множеством, поскольку оно задает минимальное количество значений, на основании которых при помощи правил и можно сформировать остальные допустимые значения лингвистической переменной.
-
32. Понятие лингвистической переменной. Алгоритм Мамдани.
-
-