Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методическое пособие 719

.pdf
Скачиваний:
16
Добавлен:
30.04.2022
Размер:
5.71 Mб
Скачать

ОПТИМИЗАЦИЯ

ИМОДЕЛИРОВАНИЕ

ВАВТОМАТИЗИРОВАННЫХ

СИСТЕМАХ

Труды Международной молодежной научной школы

Воронеж 2019

МИНИСТЕРСТВО НАУКИ И ВЫСШЕГО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

Федеральное государственное бюджетное образовательное учреждение высшего образования «Воронежский государственный технический университет»

ОПТИМИЗАЦИЯ И МОДЕЛИРОВАНИЕ В АВТОМАТИЗИРОВАННЫХ СИСТЕМАХ

Труды Международной молодежной научной школы

(г. Воронеж, 23-24 октября 2019 г.)

Воронеж 2019

1

УДК 658.51.002.011.56.001.2(06) ББК 65.05я4

О-267

Оптимизация и моделирование в автоматизированных системах:

труды Международной молодежной научной школы; ФГБОУ ВО «Воро- О-267 нежский государственный технический университет». Воронеж: Изд-во

ВГТУ, 2019. – 257 с.

ISBN 978-5-7731-0832-0

Сборник материалов молодежной научной школы посвящен вопросам математического обеспечения автоматизированных систем проектирования, управления, научных исследований и обучения. В статьях сборника рассматривается широкий круг проблем, связанных как с теоретическими задачами проектирования сложных систем, так и с вопросами разработки и внедрения автоматизированных систем в промышленное производство.

Материалы сборника соответствуют научному направлению «Интеллектуальные информационные системы» и перечню критических технологий Российской Федерации, утвержденному Президентом Российской Федерации.

Сборник будет полезен специалистам, занимающимся вопросами разработки математического, алгоритмического и программного обеспечения автоматизированного проектирования, обучающих и экспертных систем.

 

УДК 658.51.002.011.56.001.2(06)

 

ББК 65.05я4

 

Редакционная коллегия:

Я. Е. Львович

– заслуженный деятель науки РФ, д-р техн. наук,

С. Л. Подвальный

(Воронеж) – ответственный редактор;

– заслуженный деятель науки РФ, д-р техн. наук, проф.

В. А. Зернов

(Воронеж);

– д-р техн. наук, проф. (Москва);

И. Я. Львович

– д-р техн. наук, проф. (Воронеж);

А. М. Бершадский

– заслуженный деятель науки РФ, д-р техн. наук, проф.

Б. Я. Советов

(Пенза)

– заслуженный деятель науки и техники РФ, д-р техн.

Ю. С. Сахаров

наук, проф. (Санкт-Петербург);

– д-р техн. наук, проф. (Москва);

Б. Н. Тишуков

– канд. техн. наук, ответственный секретарь (Воронеж)

Рецензенты: кафедра теории вероятностей и анализа данных ФГБОУ ВО «Петрозаводский государственный университет» (зав. кафедрой д-р техн. наук, проф. А. А. Рогов);

А. П. Преображенский, д-р техн. наук, проф. Воронежского института высоких технологий

Печатается по решению научно-технического совета Воронежского государственного технического университета

ISBN 978-5-7731-0832-0

© ФГБОУ ВО «Воронежский государственный

 

технический университет», 2019

ВВЕДЕНИЕ

Качество функционирования, повышение эффективности и надежности систем автоматизированного проектирования, систем управления технологическими процессами, информационно-вычислительных и экспертных систем базируются на системном подходе с использованием алгоритмов принятия оптимальных решений, а также современных методов обработки различных типов информации. В связи с этим актуальны адаптация существующих универсальных подходов к изучению моделей предметных областей и формирование соответствующего алгоритмического и программного обеспечения для решения конкретных инженерных задач. Важным этапом синтеза является тестирование, экспериментальное исследование с выявлением адекватности используемых моделей.

Материалы, включенные в сборник научной школы, посвящены разработке перечисленных теоретических проблем, их прикладных аспектов, анализу результатов их внедрения в различные области производства и образования.

3

УДК 004.6

Г.И. Асунин

ПРИМЕНЕНИЕ НЕЧЕТКОЙ ЛОГИКИ В ИНТЕЛЛЕКТУАЛЬНОМ АНАЛИЗЕ ДАННЫХ

Интеллектуальный анализ данных (Data Mining) Г.И. − это термин, придуманный для описания процесса отсеивания больших и сложных баз данных для определения допустимых, новых, полезных и понятных моделей и взаимосвязей [1]. Интеллектуальный анализ данных предполагает вывод алгоритмов, которые исследуют данные, разрабатывают модель и обнаруживают ранее неизвестные закономерности. Построенная модель используется для понимания явлений на основе данных, анализа и прогнозирования.

Однако модель исследуемого объекта или явления не всегда может быть построена с использованием строго аналитических выражений. Одной из причин является наличие нечетких и приближенных рассуждений при описании человеком процессов, систем и объектов. В этом случае в анализе данных используется аппарат нечеткой логики.

Нечеткая логика − тип логики, который распознает больше, чем просто истинные и ложные значения. С нечеткой логикой суждения могут быть представлены со степенями правдивости и лжи, таким образом, они могут иметь дело с неточными или неоднозначными данными [2]. Частным случаем нечеткой логики считается булева логика.

Нечеткая логика использует нечеткие множества, определяемые функциями принадлежности в логических выражениях, для определения степени, в которой объект принадлежит множеству. По сути, построение системы нечеткой логики состоит из трех основных этапов: фаззификации, построение базы знаний и дефаззификация. Фаззификация (Fuzzification) − это процесс преобразования четких значений в нечеткие значения (например, low, medium, high). Каждая лингвистическая переменная после сопоставления может иметь значения разностных функций принадлежности для разных лингвистических терминов, она нарушает традиционную двоичную логику, что событие может принадлежать или не принадлежать к категории. База знаний построена по серии правил «ЕСЛИ-ТО». После нечеткого и нечеткого вывода каждое входное значение будет иметь соответствующее значение для каждого лингвистического члена выходной переменной. Процесс преобразования нечетких значений в соответствующее четкое значение называется дефаззификацией (defuzzificaiton). В основном это состоит из двух основных шагов. На первом этапе определяется репрезентативное значение для каждого термина в лингвистической переменной. На втором этапе вычисляется лучшее четкое значение для лингвистического результата. Тем не менее, он дает только предсказанные значения случай-

4

ным образом, поэтому он не может рассматриваться как оптимизированные значения.

Математический аппарат нечеткой логики успешно включается в состав практически всех алrоритмов Data Mining; так появились нечеткие нейронные сети, нечеткие деревья решений, нечеткие ассоциативные правила. Объединение технологии баз данных и нечетких запросов позволяет аналитикам получать нечеткие срезы и т.д. [3].

Одним из наиболее эффективных инструментариев при решении сложных задач анализа данных являются нечеткие гибридные методы. К числу таких методов относятся генетические, эволюционные, бионические, адаптивные и другие методы поиска.

Генетический алгоритм является методом случайного управляемого поиска оптимального решения с использованием набора эвристических правил, основанных на процессах эволюционного развития биологических популяций – естественного отбора, скрещивания, замещении и мутации. Потенциальные решения в генетическом алгоритме представляются в виде популяции хромосом, каждая из которых имеет в своем составе набор генов [4].

Методы роевого интеллекта изучают поведение сложных децентрализованных самоорганизующихся систем с социальной структурой. Такие системы состоят из простых взаимодействующих агентов, каждый из которых ведет себя независимо от других, но в результате поведение всей многоагентной системы оказывается разумным. Метод роя частиц является формой моделирования социального поведения на примере биологических систем, таких как стая птиц или рыб [5].

Механизмы генетических и эволюционных алгоритмов в задачах анализа данных применяются совместно для решения проблем в условиях нечеткой, неопределенной или недостаточной информации об исследуемом объекте или явлении.

Литература

1.Knowledge Discovery Through Data Mining: What Is Knowledge Discovery” – Tandem Computers Inc., 1996.

2.Гик Дж., ван. Прикладная общая теория систем. – М.: Мир, 1981.

3. Минаева, Ю.В. Методы статистического и интеллектуального анализа данных: учеб. пособие / Ю.В. Минаева. Воронеж: ВГТУ, 2017. 90 с.

4.Минаева, Ю.В. Структурно-параметрическая адаптация генетического алгоритма / Вестник СибГУТИ. 2017. № 1 (37). С. 83-89.

5.Minaeva ,Yu.V. Adaptive modification of the particle swarm method based on dynamic correction of the trajectory of movement of individuals in the population

/Бизнес-информатика. 2016. № 4 (38). С. 52-59.

ФГБОУ ВО «Воронежский государственный технический университет», Россия

5

УДК 519.816

А.Г. Коротченко, Е.А. Трошина

О ПРИНЦИПАХ РАНЖИРОВАНИЯ В ЗАДАЧАХ ПРИНЯТИЯ РЕШЕНИЙ

Введение Под ранжированием объектов (или элементов) конечного множества, на

котором задано линейное бинарное отношение предпочтения, понимается, расположение их в цепочку по убыванию ценности, важности [1,2]. Задачи ранжирования возникают, например, при сортировке результатов запросов пользователей в поисковых системах, формировании списка рассылки рекламы, а также при решении многокритериальных и многоэтапных задач оптимизации, см., на-

пример, [3,4].

Если исходное отношение транзитивно, то оно является линейным квазипорядком и принцип ранжирования состоит в факторизации этого квазипорядка по его симметричной части [1,2].

В случае, когда отношение является нетранзитивным, используется два принципа ранжирования: принцип «грубого» и принцип «тонкого» ранжирования. «Грубое» ранжирование – это выделение классов «равноценных» объектов путем факторизации исходного отношения по отношению его взаимной достижимости, а «тонкое» ранжирование – это ранжирование элементов внутри каждого класса [1,2,5].

Пусть M − матрица доминирований-безразличий, соответствующая рассматриваемому1 классу, где каждый элемент матрицы может принимать значе-

ния 0, 1, 2 . Принцип «тонкого» ранжирования состоит в том, что оно осущест-

вляется по компонентам предельного вектора, совпадающим с точностью до скалярного сомножителя с нормированным собственным вектором матрицы M соответствующим ее числу Перрона-Фробениуса [1,2].

В статье рассматривается упрощение принципа «тонкого» ранжирования элементов множества, на котором задано линейное бинарное нетранзитивное

отношение предпочтения.

 

 

 

 

 

 

 

 

Упрощенный принцип ранжирования

 

 

 

 

 

 

 

Обозначим

матрицу

доминирований-безразличий, соответствующую

M = | mij |i,j=1,2,3,…,n

 

 

X = (x1, x2, … , xn)

 

n

 

 

 

через

классу, полученному

и

на этапе «грубого»

ранжирования

Через

 

 

 

М xi = j=1 mij

 

i = 1,2, … , n

ненты Y = (y1, y2

 

. Пусть

Z = (z1, z2, … , zn)

вектор, i-ая компонента которого

, … , yn)

 

 

 

,

 

2 и

 

3 со-

является суммой элементов в i-ой строке матрицы :

 

 

 

 

.

 

 

 

 

 

обозначим векторы, i-ые компо-

которых являются суммами элементов в i-ой строке матриц

 

 

 

 

ответственно. Ранжирование элементов по компонентам векторов

X, Y, Z будем

 

M

 

M

 

осуществлять так же, как по компонентам предельного вектора π. Например,

6

для вектора

 

будем полагать, что элемент

 

доминирует элемент

тогда и

только тогда, когда

 

и элементы

и

безразличны (равноценны) тогда и

Будем

X

 

xi = xj

i

 

j

 

 

 

i j

 

 

 

только тогда, когда

xi > x.j

 

 

 

 

называть ранжирование, проведенное по компонентам предельного вектора π-ранжированием, а ранжирование, проведенное по компонентам векторов X, Y, Z соответственно X-ранжированием, Y-ранжированием и Z- ранжированием.

Назовем два бинарных отношения, заданных на конечном множестве автоморфными, если существует взаимно однозначное отображение элементов этого множества на себя такое, что структура одного отношения совпадает со структурой другого отношения. Тогда автоморфным классом назовем класс, который содержит все автоморфные отношения.

A = {Установленоa, b, c} , что для линейных отношений, заданных на множестве существует три автоморфных класса, два из которых содержат по

нейных отношений, заданных на множестве A = {a, b, c}, принцип ранжирования для нетранзитивного случая, равносилен X-ранжированию.

6 автоморфных отношений и один – 2 отношения. Также доказано, что для ли-

A = {Установленоa, b, c, d} , что для линейных отношений заданных на множестве , у которых на этапе «грубого» ранжирования образовался класс, содержащий три элемента, существует шесть автоморфных классов, два из ко-

торых содержат по 8 автоморфных отношений и 4 класса - по 24 отношения. Также доказано, что для таких отношений принцип ранжирования равносилен

X-ранжированию.

 

 

 

Пусть линейное отношение задано на множестве

 

, а класс,

полученный на этапе решения задачи «грубого»

ранжирования, содержит четы-

 

A =

{a, b, c, d}

αре элемента. Классы, удовлетворяющие указанным условиям, будем называть

-классами. Установлено, что для α-классов существует 28 автоморфных классов, содержащих по 24, 12, 8 или 6 автоморфных отношений. Также доказано, что существует восемь вариантов α-классов, каждый из которых характеризуется своим условием, накладываемым на векторы X, Y, Z: 1. Если все компоненты вектора X различны, тогда π-ранжирование совпадает с Z-ранжированием. 2. Если вектор X содержит две одинаковые компоненты, а X-ранжирование совпадает с Y-ранжированием, а Y-ранжирование совпадает c Z-ранжированием, тогда π-ранжирование совпадает с X-ранжированием. 3. Если вектор X содержит две одинаковые компоненты и вектор Y содержит две одинаковые компоненты, а X-ранжирование не совпадает с Y-ранжированием, а Y-ранжирование не совпадает c Z-ранжированием и X-ранжирование не совпадает c Z- ранжированием, тогда π-ранжирование совпадает с Z-ранжированием. 4. Если вектор X содержит две одинаковые компоненты, а все компоненты вектора Y различны, и X-ранжирование не совпадает с Y-ранжированием, а Y- ранжирование не совпадает c Z-ранжированием и X-ранжирование не совпадает c Z-ранжированием, тогда π-ранжирование совпадает с Y-ранжированием.

7

5. Если вектор X содержит две одинаковые компоненты и X-ранжирование не совпадает с Y-ранжированием, а Y-ранжирование совпадает c Z- ранжированием, тогда π-ранжирование совпадает с Y-ранжированием. 6. Если вектор X содержит две одинаковые компоненты и вектор Z содержит две одинаковые компоненты, а X-ранжирование совпадает с Y-ранжированием, а Y- ранжирование не совпадает c Z-ранжирование, тогда π-ранжирование совпадает с X-ранжированием. 7. Если вектор X содержит две одинаковые компоненты, а все компоненты вектора Z различны, а X-ранжирование совпадает с Y- ранжированием, а Y-ранжирование не совпадает c Z-ранжированием, тогда π- ранжирование совпадает с Z-ранжированием. 8. Если все компоненты вектора

X одинаковые, тогда π-ранжирование совпадает с X-ранжированием.

шение ρ с помощью

 

A = {a, b, c, d, e, f, g, h, i, j, k}

 

Пример решения задачи ранжирования

 

Пусть на множестве

 

задано линейное отно-

 

матрицы доминирований-безразличий. Было выделено три

класса эквивалентности, где в качестве эквивалентности используется отношение взаимной достижимости. Обозначим матрицу доминирований-безразличий,

соответствующую классу 1 через

M1

(табл. 1), классу 2 через

M2

(табл. 2), клас-

су 3 через M3 (табл. 3).

 

 

 

d

 

МатрицаfM1

 

i

 

 

 

 

 

d

1/2

 

 

 

 

 

 

0

 

 

 

 

1

 

f

1

 

 

 

 

 

 

1/2

 

 

 

 

1/2

 

i

0

 

 

 

 

 

 

1/2

 

 

 

 

1/2

 

 

 

 

Матрица

M2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ρ

 

a

 

g

 

h

 

k

 

 

 

 

 

 

a

1/2

0

 

0

 

1/2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g

 

1

1/2

 

1

 

1/2

 

 

 

 

 

 

h

 

1

0

 

1/2

1

 

 

 

 

 

 

 

k

1/2

1/2

 

0

 

1/2

 

 

 

 

 

 

 

Матрица

Mj3

 

 

 

 

 

 

 

 

ρ

b

 

c

 

e

 

 

 

 

 

 

 

 

b

1/2

 

1

1/2 1/2

 

 

 

 

 

 

 

 

c

0

 

1/2

0

1/2

 

 

 

 

 

 

 

 

e

1/2

 

1

1/2 1/2

 

 

 

 

 

 

 

 

j

1/2

1/2

1/2 1/2

 

 

 

 

 

Таблица 1

Таблица 2

Таблица 3

8

Для класса 1 π-ранжирование трехэлементного множества совпадает с X-

ранжированием, а вектор X имеет вид:

.

 

. Таким образом, решение

,

 

 

X = (1; 3; 2.5; 1.5)

 

Y =

задачи «тонкого» ранжирования

производится по компонентам вектора X.

 

 

 

X = (1.5; 2; 1)

 

 

 

(1.25; 5.75; 3.75; 2.75) Z = (2; 9.25; 5.88; .4.88)

 

 

,

 

Для класса 2 векторы X, Y, Z имеют вид:

 

 

 

 

 

 

Таким образом, решение за-

дачи «тонкого» ранжирования производится с использованием условия 1, то

,

. Таким образомX,

= (2.5; 1; 2.5; 2) Y =

есть π-ранжирование совпадает с Z-ранжированием.

 

(4.5; 1.5; 4.5; 4)

Z = (8; 2.75; 8; 7.25)

,

Для класса 3 векторы X, Y, Z имеют вид:

решение задачи «тон-

кого» ранжирования производится с использованием условия 2, то есть π- ранжирование совпадает с X-ранжированием.

Заключение В статье приведена классификация автоморфных классов линейных не-

транзитивных отношений, заданных на трех и четырех элементных множествах, и установлены простые правила построения предельного вектора, с помощью которого решается задача «тонкого» ранжирования

Литература

1.Розен, В.В. Цель-оптимальность-решение (математические модели принятия оптимальных решений) / В.В. Розен. – М.: Радио и связь, 1982. – 168 с.

2.Коротченко, А.Г. Принципы оптимальности в задачах принятия решений: Учебно-методическое пособие / А.Г. Коротченко, Н.Н. Чернышова, В.М. Сморякова. – Нижний Новгород, Фонд образовательных электронных ресурсов (компьютерных изданий) Нижегородского государственного университета, рег.

944.15.08, 2015. – 44 с.

3.Коротченко, А.Г. О задачах математического программирования, имеющих многоэтапный характер / А.Г. Коротченко // Вестник Нижегородского университета. Сер. Математическое моделирование и оптимальное управления, 2011. №1. С.183-187.

4.Korotchenko, A.G. On a method of construction of numerical integration formulas / A.G. Korotchenko, V.M. Smoryakova - AIP Conference Proceedings, V.

1776, №9780735414389, 2016, P.090012-1 -- 090012-4.

5.Коротченко, А.Г. Динамический способ формирования классов при решении задачи "грубого" ранжирования / А.Г. Коротченко, Н.Н. Чернышова // Научно-образовательный и прикладной журнал "Инженерный вестник Дона"

– 2015. - № 1 (часть 2) - URL: http://www.ivdon.ru/ magazine/archive/nly 2015/2843 ISSN 20738633.

ФГБОУ ВО «Нижегородский государственный университет им. Н.И. Лобачевского», Россия

9