- •Мехатронные системы машин
- •1. Введение, целевые задачи мехатроники.
- •2. Основные понятия и определения в мехатронике.
- •3. Новые технологии в мехатронике.
- •4. Подход к проектированию интегрированных мехатронных модулей и систем.
- •5. Метод объединения элементов мехатронного модуля в едином корпусе.
- •6. Мехатронные модули движения.
- •7. Интеллектуальные мехатронные модули
- •8. Производственные машины с параллельной и гибридной кинематикой.
- •8.2. Мехатронный робот-станок "рост 300"
- •9. Управление движением мехатронных систем на основе Интернет технологий
- •10. Сенсорные элементы, датчики, чувствительные элементы и устройства мехатронных систем.
- •10.2 Датчики и чувствительные элементы мехатронных модулей.
- •10.3. Ультразвуковые датчики расстояний для мехатронных модулей движения автомобиля.
- •10.4. Радарные датчики в мехатронных модулях движения автомобилей.
- •10.5 Датчики, работающие на эффекте Холла.
- •10.6 Электронный блок управления (эбу)
- •11. Примеры интеллектуальных мехатронных модулей
- •12. Энергетический расчет универсального мехатронного модуля
- •12.1. Энергетический расчет универсального мехатронного модуля при незначительных динамических нагрузках
- •12.2. Энергетический расчет универсального мехатронного модуля при значительных динамических нагрузках
- •13. Преобразователи движения
- •Геометрический расчет передачи.
- •13.5. Проверочный расчет зубьев шестерни и рейки на выносливость по контактным напряжениям.
- •13.6. Проверочный расчет зубьев шестерни и рейки на выносливость пo напряжениям изгиба.
- •14. Расчет параметров двигателя и редуктора скипового подъемника
- •14.2. Расчетно-конструкторская часть
- •14.3. Расчет мощности двигателя скипового подъемника
- •14.4. Выбор двигателя
- •14.5 Выбор редуктора
- •15. Расчет широтно-импульсного преобразователя (шип)
- •15.2 Выбор силовых полупроводниковых элементов
- •15.3. Определение оптимальной частоты коммутации шип[16]
- •15.4 Определение постоянных и базовых величин, необходимых для расчета электромагнитных нагрузок энергетического канала
- •16. Электромагнитные тормозные устройства
- •17. Расчет и выбор параметров сглаживающего фильтра
- •18. Кинематическая погрешность цилиндрической зубчатой передачи
- •Мертвый ход цилиндрической зубчатой передачи.
- •19. Датчики информации
- •19.1. Датчики положения и перемещения
- •19.2. Аналоговые датчики положения
- •19.3. Цифровые датчики положения
- •20. Надежность мехатронных модулей
- •20.1. Надежность в период постепенных отказов.
- •20.2. Надежность сложных систем.
- •21. Диагностика мехатронных систем автомобилей
- •22. Антиблокировочная мехатронная система тормозов (аbs) автомобиля
- •23. Нейронные сети в мехатронике
- •23.1. Рекуррентная хэммингова сеть
- •23.2. Решение систем линейных уравнений.
- •23.3. Экстраполяция функций.
- •24. Математические основы измерения и анализа случайных динамических процессов мехатронных систем
- •25. Информационные контрольно-диагностические мехатронные системы
- •25.1. Состояние и тенденции развития систем
- •25.2. Автомобильные дисплеи
- •26. Мехатронное управление амортизатором автомобиля.
- •27. Экономические и социальные аспекты мехатроники
- •Приложение 1. Вибродиагностика агрегатов и мехатронных систем машин.
- •Приложение 2. Окна взвешивания, применяемые для спектрального анализа вибрационных сигналов в мехатронных системах.
- •Приложение 3 словарь терминов, применяемых при анализе, расчете и проектировании мехатронных систем машин [13]
- •Приложение 4 аббревиатуры, употребляемые в мехатронике.
- •Приложение 5 вопросы по дисциплине «мехатронные системы машин»
23.1. Рекуррентная хэммингова сеть
Рекуррентная хэммингова сеть предназначена для того, чтобы решать задачи классификации в бинарном пространстве, где элементы векторов могут принимать значения только 1 или −1. Эта сеть включает два слоя. Первый слой работает в соответствии с формулой
a(1) = purelin(W(1)p + b(1)). (23.4)
Второй слой рекуррентный:
a(2)(0) = a(1), a(2)(τ + 1) = poslin(W(2)a(2)(τ )), (23.5)
(23.6)
причём число нейронов первого слоя совпадает с числом нейронов второго слоя и 0 < ε < 1/(n(2) − 1).
Цель работы хэмминговой сети состоит в том, чтобы установить, какой прототип (строка весовой матрицы W(1)) ближе всего к входному вектору. Ответ получается на выходе рекуррентного слоя. Каждому прототипу отвечает один нейрон выхода. Когда рекуррентный слой сходится, остаётся только один ненулевой выходной нейрон (по принципу «победитель соревнования получает всё»).
Этот ненулевой нейрон указывает на прототип, ближайший к входному вектору.
23.2. Решение систем линейных уравнений.
Дана система линейных уравнений Wp = b, W—квадратная матрица размерности m Ч m, b—вектор размерности m. Требуется найти значение вектора p, при котором все уравнения обращаются в тождества.
Поиск решения осуществляется рекуррентной сетью
p(0) = 0, a(k) = f (Wp(k) − b), p(k + 1) = p(k) − 2hWTa(k), (23.7)
где f(z) = poslin(z − δ) − poslin(−z − δ). Эта сеть ищет
arg
F(p),
F(p)
=
.
Решение систем неравенств Wp ≤ b, p Rn, b Rm, вполне аналогично решению системы линейных уравнений. Различие состоит лишь в выборе функции активации. Здесь a = poslin(Wp − b). Сеть найдёт некоторое значение вектора p, при котором все неравенства системы будут удовлетворены.
Если система несовместна, полученное значение вектора p будет обеспечивать минимум функционала F.
Перейдём к способам обучения нейронных сетей. Правило обучения определяет закон изменения весов и смещений в нейронной сети в соответствии с целью обучения.
Из совокупности известных правил обучения нейронных сетей можно выделить три достаточно широких класса: супервизорное обучение, ассоциативное обучение и несупервизорное обучение.
В 1960 г. Видров и его аспирант Хофф предложили сеть АДАЛИН (ADAptive LInear NEuron: ADALINE) и разработали правило обучения, названное ими алгоритмом LMS (List Mean Square). Выход сети АДАЛИН выражается формулой
a = purelin(Wp+ b) = Wp+ b. (23.8)
Алгоритм LMS обучает сеть по заданному множеству образцов её правильной работы.
Вместо полного критерия качества Видров и Хофф предложили взять
=
(23.9)
где пара [p(k), t(k)] выбирается из множества. Таким образом, роль критерия качества теперь выполняет среднеквадратичная ошибка для k-го образца. Метод градиентного спуска (обучающий алгоритм Видрова—Хоффа) принимает вид
W(k + 1) =W(k) + 2αδ(k)pT(k), b(k + 1) = b(k) + 2αδ(k), (23.10)
где α > 0—параметр, задающий величину шага итераций. Эту последовательность операций называют также алгоритм LMS или дельта-правило. Предъявляемые на вход сети образцы не обязаны все быть различными. Они могут повторяться сколько угодно раз, и процесс обучения сети может быть продолжен неограниченно.
