- •Технические нервные системы Обучаемые системы управления со зрением для промышленных роботов
- •Оглавление
- •Введение
- •1. Аналитический обзор информационно-управляющих систем промышленных роботов
- •1.1. Современное состояние систем управления роботами, использующих процедуру обучения
- •1.2. Принципы функционирования обучаемых систем управления (технических нервных систем)
- •Павлов Иван Петрович (1849-1936)
- •Пуанкаре (Poincare) Жюль Анри (1854-1912)
- •1.3. Сравнительный анализ адаптивных управляющих систем управления с распознаванием образов и обучаемых систем управления
- •1.4. Анализ вопросов аппаратной реализации систем управления роботами
- •2. Моделирование обучаемых систем управления
- •2.1. Математическое моделирование процесса обучения обучаемой системы управления
- •2.1.1. Алгоритм обучения обучаемой системы управления
- •2.1.2 Алгоритм расчета рецепторных долей сигнала управления
- •2.1.3. Условие сходимости процесса обучения
- •2.2. Закономерности процесса обучения, выявленные с помощью его математической модели
- •2.2.1. Закономерности процесса обучения системы управления для двух ситуаций обучаемой выборки
- •2.2.2. Закономерности процесса обучения системы управления при последовательном предъявлении ситуаций
- •2.2.3. Обучение с масштабированием подобных ситуаций
- •2.2.4. Влияние заданной точности выходных сигналов на продолжительность обучения
- •2.2.5. Влияние отличительности образов ситуаций обучаемой выборки на продолжительность обучения
- •2.2.6. Влияние порядка предъявления ситуаций обучаемой выборки на продолжительность обучения
- •Первый вариант обучения:
- •Второй вариант обучения:
- •2.2.7. Влияние способа дробления входной информации на продолжительность обучения
- •1 Вариант.
- •2 Вариант.
- •2.3. Имитационное моделирование обучения системы управления решению некоторых задач
- •2.3.1. Имитационное моделирование процесса обучения поиску заданного предмета
- •2.3.2. Имитационное моделирование процесса обучения воспроизведению образов
- •2.3.3. Имитационное моделирование процесса обучения распознаванию образов (ситуаций)
- •3. Схемные решения обучаемых систем управления
- •3.1. Командные рецепторы обучаемой системы управления
- •3.2. Обучаемая система управления с внутренними обратными связями
- •3.3. Деление рецепторов обучаемой системы управления на группы
- •3.4. Обучаемая система управления с парными рецепторами
- •3.5. Распределитель выходных сигналов обучаемой системы управления
- •4. Исследование обучаемой системы управления, установленной на робот тур-10к
- •4.1. Выбор параметров обучаемой системы управления для промышленного робота тур-10к
- •4.2. Методика обучения робота тур-10к с обучаемойсистемой управления со зрением поиску заданного предмета среди прочих
- •4.2.1. Разработка методики выбора ситуаций обучаемой выборки для решения задачи поиска заданного предмета
- •4.2.2. Настройка резисторной матрицы обучаемой системы управления и результат обучения
- •4.3. Свойства и особенности обучаемых систем управления, выявленные в результате исследований
- •5. Реализация обучаемых систем управления
- •5.1. Варианты физической реализации обучаемых систем управления
- •5.2. Варианты электрической реализации обучаемых систем управления
- •5.2.1. Обучаемая система управления с резисторной матрицей из подстроечных резисторов
- •5.2.2. Обучаемая система управления с резисторной матрицей, элементы которой выполнены в виде графитовых соединений
- •5.2.3. Обучаемая система управления с резисторной матрицей, элементы которой выполнены из халькогенидных полупроводников
- •5.3. Обучаемая система управления со зрением для промышленного робота pm-01 (puma)
- •6. Технический подход к проявлениям сложной нервной деятельности
- •6.1. Обучение и самообучение объекта с технической нервной системой
- •6.2. Чувства и эмоции объекта с технической нервной системой
- •6.3. Мышление объекта с технической нервной системой
2.2.2. Закономерности процесса обучения системы управления при последовательном предъявлении ситуаций
Процедура обучения состоит в поочередном предъявлении ситуаций обучаемой выборки, причем каждое предъявление ситуации – это шаг обучения. На каждом шаге обучения происходит корректировка проводимостей резисторных элементов преобразующей матрицы. Обучение может быть циклическим, когда предъявление ситуаций обучаемой выборки повторяется в одном и том же порядке до конца обучения. Может быть установлен и любой другой определенный порядок предъявления ситуаций. Кроме этого, обучение может быть произвольным (неупорядоченным), когда порядок предъявления ситуаций не устанавливается и может носить случайный характер.
Допустим, для обучения робота с обучаемой системой управления использовалось N ситуаций, составляющих обучаемую выборку. Обучение закончилось за M шагов. Для определения закономерностей процесса обучения будем рассматривать обучение не как циклическое, произвольное или с заданным порядком предъявления ситуаций, а как последовательное предъявление M ситуаций. Такое представление включает в себя все многообразие возможных процедур обучения. Кроме этого, реально при обучении методом “вождения за руку” ситуации абсолютно точно могут и не повторяться вообще, однако такое обучение возможно, и его можно считать последовательным. Далее обучение может идти с учетом фактора времени, т.е. в систему очувствления могут быть включены датчики времени, и уже поэтому такие ситуации не могут повториться (как говаривал Гераклит: “Нельзя дважды войти в одну и ту же реку”). Такое обучение может быть только последовательным. В связи с этим следует отметить, что обучение биологических систем (выработка условных рефлексов), строго говоря, – последовательное [67].
Можно показать, что, исходя из формул алгоритма обучения, величина фактического сигнала управления по шагам обучения будет изменяться следующим образом.
Примем исходные значения весовых коэффициентов равными нулю, тогда на первом шаге обучения получим фактическое значение выходного сигнала E1(f) = 0.
После корректировки весовых коэффициентов на этом шаге обучения получим выходной сигнал, равным E1.
Фактический выходной сигнал на втором шаге обучения будет определяться весовыми коэффициентами, полученными после первого шага обучения и равными
в соответствии с формулой
Подставив (2.18) в (2.19), получим
E2(f) = E1·Z21 ,
где Z21 – коэффициент приведения второй ситуации к первой. Повторив те же математические операции, на третьем шаге обучения, получим:
E3(f) = E2 ·Z32 + E1· (Z31 – Z21·Z32) ,
где Z31 – коэффициент приведения третьей ситуации к первой, Z32 – коэффициент приведения третьей ситуации ко второй.
На четвертом шаге обучения:
E4(f) = E3 ·Z43 + E2 · (Z42–Z32 ·Z43) + E1 · (Z41 – Z21 ·Z42 – Z31 ·Z43 + Z21 ·Z32 ·Z43) ,
На пятом шаге обучения:
E5(f) = E4 ·Z54 + E3 · (Z53 – Z43 ·Z54) + E2 · (Z52 – Z32 ·Z53 – Z42 ·Z54 + Z32 ·Z43 ·Z54) + + E1 · (Z41 – Z21·Z52 – Z31·Z53 – Z41·Z54 + Z21 ·Z32 ·Z53 + Z21 ·Z42 ·Z54 + Z31 ·Z43 ·Z54 – Z21 ·Z32 ·Z43 ·Z54) ,
и т.д.
Число членов с одинаковым числом сомножителей Z в скобках соответствует числам так называемого треугольника Паскаля, каждое из которых получается сложением соседних чисел вышестоящей строки:
1 1____1 1____2____1 1____3____3____1 1____4____6____4____1 1____5____10____10____5____1 1____6____15____20____15____6___01 ._._._._._._._._._._._._._._._._._._._._._._._._.
Так число членов с одинаковым числом сомножителей Z в скобках четвертого слагаемого соответствует четвертой строке треугольника Паскаля. Таким образом, на любом шаге величина фактического сигнала управления обучения будет определяться выражением
где Г( , ) = 1 при =1, при =1 и при = ; Г( , ) = –1 при =2 , Г( , ) = при – =1 и Г( , ) = Г( –1, –1) + Г( –1, ) при – > 1 ,
Индексы J1 и J2 чередуются определенным образом, охватывая ситуации в интервале от j– до j . При = 1 первый индекс J1(j, , , , ) = j – , во всех остальных случаях J1(j, , , , ) = J2(j, , , –1, ) . При = второй индекс J2(j, , , , ) = j , если и = 1 , то J2(j, , , , ) = J1(j, , , , )+1 , если и 1 и при этом для данного индекс J2 уже рассчитывался по формуле: J2(j, , , , ) = J2(j, , , , –1)+1 , то в этом случае второй индекс будет определяться выражением: J2(j, , , , ) = J2(j, , , –1, )+1, если и 1 и при этом для данного индекс J2 еще не рассчитывался по формуле: J2(j, , , , ) = J2(j, , , , –1)+1, и выполняется условие, которое заключается для – 2 в том, что ни при каких f, изменяющихся в пределах от до +2 не может быть J2(j, , ,f, –1) – J1(j, , ,f, –1) > 1, а для – =1, наоборот, должно быть J2(j, , ,f, –1) – J1(j, , ,f, –1) > 1 при f= , то в этих случаях второй индекс будет определяться выражением: J2(j, , , , ) = J2(j, , , , –1)+1 , в остальных случаях: J2(j, , , , ) = J2(j, , , , –1) .
Формула (2.20) показывает, что фактический сигнал управления в некоторой ситуации зависит от всех предшествующих ситуаций, в которых происходила корректировка весовых коэффициентов: как от возбуждений рецепторов в этих ситуациях, так и от заданных для них выходных сигналов. Соответственно, значения весовых коэффициентов при последовательном обучении на j-м шаге обучения (в j-й ситуации) можно определить по формуле:
где Г( , ) = 1 при = и при =1, Г( , ) = при = 1 и при – = 1 , и Г( , ) = Г( –1, –1) + Г( –1, ) , при – > 1 , индексы J1 и J2 определяются аналогично тому, как это делается в формуле (2.20), а индекс J3 равен значению индекса J2 при = .
