
- •Классификация релейной защиты и автоматики.
- •Моделирование.
- •К лассификация релейной защиты и автоматики.
- •Класс напряжения
- •Селективность.
- •Защита с абсолютной селективностью.
- •Защита лэп 500 кВ и выше.
- •Проблемы резервирования.
- •3.1. Виды защит.
- •3.2. Дальнее резервирование.
- •3.3. Ближнее резервирование.
- •Быстродействие.
- •Классификация защит по быстродействию.
- •Защиты I, II, III ступеней.
- •Чувствительность (Определение. Коэффициент чувствительности для различных видов защит).
- •Интеллектуальные алгоритмы.
- •Устройства рЗиА на основе искусственных нейронных сетей.
- •Основные черты нейронных сетей.
- •7.3.1.2. Формальный нейрон.
- •7.3.1.3. Многослойный перцептрон.
- •7.3.1.4. Этапы построения искусственных нейронных сетей.
- •7.3.1.5. Методы обучения искусственных нейронных сетей.
- •7.3.1.6. Применение нейронных сетей в задачах рЗиА.
- •7.3.2. Нечёткая логика.
- •Технические характеристики.
- •II Моделирование.
- •Имитационное моделирование.
- •Моделирование генераторов.
- •Моделирование трансформаторов и автотрансформаторов.
- •Моделирование лэп (с точки зрения теории поля).
- •Система провод – провод.
- •Система провод – земля.
- •Трёхфазная одноцепная линия (без учёта троссов).
- •2. Сопротивление нулевой последовательности.
- •Сопротивление нулевой последовательности.
- •Параллельные трёхфазные линии (без учёта троссов).
- •Ёмкостная проводимость.
- •Моделирование реакторов.
- •Упрощённая нагрузка.
- •Проблемы моделирования.
- •Ввод информации об объекте.
- •Расчёт модели.
- •Проблемы эквивалентирования.
- •Выбор режима.
- •Структура защит.
- •Структура аналоговых защит.
- •Структура цифровых защит.
7.3.1.3. Многослойный перцептрон.
Самый распространенный вид нейронной сети, состоит из формальных нейронов.
Первый слой сенсорный (входной)
Последний – результирующий (выходной)
Между ними – скрытые слои (ассоциативный)
7.3.1.4. Этапы построения искусственных нейронных сетей.
– необходимо формализировать имеющуюся информацию, т.е. из аналоговой в цифровую.
– убедиться в том, что выходной вектор содержит полный ответ задачи.
– убедиться, что по входной информации можно точно дать ответ на выходе.
– выбрать функцию активизации. Это определяется спецификой задачи.
– необходимо выбрать число слоев нейронов и число самих нейронов. Количество слоев определяется способностью к запоминанию информации и ее реализации.
– задать начальное значение весовых коэффициентов.
– обучение нейронной сети.
– проверка работы.
7.3.1.5. Методы обучения искусственных нейронных сетей.
Методы обучения бывают с учителем и без учителя. Если сеть обучалась с учителем, то она способна к обобщениям.
Большинство методов обучения итерационные.
Алгоритмы с учителем:
1. Инициализация весов.
2. Передача образа.
3. Расчет ошибки.
4. Изменение Wi и Θ для уменьшения ошибки.
Теорема существования решения: нейронная сеть может решать любую задачу, если структура сети выбрана правильно.
Применяются методы безусловной оптимизации:
1. Стабилизирующие методы Ньютона, Гаусса – Ньютона, Левинберга – Маркардта.
2. Квазиньтоновские методы.
3. Методы сопряженных градиентов.
Скорость обучения показывает на сколько сильно корректируем веса на каждом этапе обучения. Нейронная сеть таким образом может обучаться последовательно.
Существуют генетические алгоритмы обучения и методы имитации отжига (имитирует ослабление в связях).
7.3.1.6. Применение нейронных сетей в задачах рЗиА.
Нейронные сети применяются для задач дистанционной защиты и задач фазовой селекции. Нейронная сеть дает частное решение нашей задачи.
Трудности применения:
– необходимо время для обучения и тестирования, внутренняя структура сети скрыта.
– для нейронных сетей нет гарантии обучения, не гарантированно достижение оптимального результата.
– нейронная сеть достаточно медленна в своей работе.
– нейронные сети применяются для автоматики не очень ответственных объектов.
– нейронная сеть в первую очередь математический аппарат.
7.3.2. Нечёткая логика.
Один из видов диспертных систем. Она имеет запас знаний, опыта и на его основе делает выводы. Появилась в 50–х годах ХХ века.
Основной принцип: нельзя работать с фиксированными задачами, т.е. нельзя четко определить «да» или «нет».
Оперирует лингвистическими переменными. В нечеткой логике тот же набор операций «и» – логическое умножение, «не» – логическое вычитание, «или» – логическое сложение. Функции называются функциями принадлежности. Все функции заложены в пакет MATLAB.
Теорема FA: с помощь нечеткой логики можно сапроксимировать любую область.
Для каждой величины заводятся свои функции принадлежности.
Существуют процедуры обучения. С помощью нечеткой логики пытаются сапроксимировать уставки. Функция обучения не идеальна, особенно это проявляется при наложении альтернативного и отслеживаемого режима. В основном нечеткая логика применяется в управлении (например трансформаторами).