
- •1. Предмет и метод кибернетики. Кибернетические системы. Место кибернетики среди других наук.
- •2. Разделы общей кибернетики. Понятие об экономической кибернетике.
- •3. Экономическая система как объект управления. Особенности постановки задачи управления в экономической кибернетике.
- •4. Задачи анализа и синтеза. Метод компьютерного эксперимента.
- •5. Понятие информации в кибернетике. Информативность сообщения.
- •6. Измерение информации. Свойства информации. Информационная энтропия.
- •7. Кодирование данных. Цель и эффективность кодирования. Метод Шеннона — Фэно.
- •8. Экономическая информация, ее виды. Экономическая семиотика, ее задачи.
- •9. Предмет и содержание теории управления экономическими системами. Управление и информация.
- •10. Законы управления. Классификация систем управления.
- •11. Принципы управления, их достоинства и недостатки. Задачи рационального ведения хозяйства.
- •12. Принципы и законы автоматического управления.
- •13. Элементы теории линейных операторов.
- •14. Понятие об операционном исчислении.
- •15. Кибернетическая интерпретация действий операторов.
- •16. Регулятор обратной связи и мультипликатор. Применение принципов теории автоматического управления в экономике.
- •17. Биологические принципы управления. Понятие об искусственных нейронных сетях.
- •18. Архитектура инс. Режимы работы нейронной сети. Алгоритмы обучения инс.
- •1 9. Задачи решаемые инс. Применение инс для мониторинга банковской системы.
- •20. Понятие устойчивости. Условия устойчивости динамических систем.
- •21. Теоремы теории устойчивости Ляпунова.
- •22. Степень устойчивости. Критерии устойчивости.
- •23. Эффективность и качество управления. Показатели качества управления.
- •24. Неустойчивости нелинейных систем. Модель Лотки-Вольтерра.
- •25. Постановка задачи оптимизации. Критерии оптимальности.
- •26. Классификация экстремальных задач. Методы поиска экстремумов
- •27. Условные экстремумы. Условия Куна —Таккера. Метод Лагранжа.
- •28. Методы поиска экстремумов. Метод Гаусса – Зейделя. Метод крутого восхождения Бокса-Уилсона.
- •29. Многокритериальная оптимизация. Принцип Парето и множество Парето.
- •30. Задача оптимального управления экономическими системами.
- •2. Разделы общей кибернетики. Понятие об экономической кибернетике.
5. Понятие информации в кибернетике. Информативность сообщения.
Данные - факты или идеи, представленные в виде, пригодном для обработки автоматическими устройствами (или человеком). Информация - смысловое содержание сообщения. Можно сказать, что отличие информации от данных заключается в том, что информация – это полезная часть данных, которая несет смысловую нагрузку.
Максимальное количество информации в сообщении при наличии n возможных сообщений определяется по следующей формуле: Imax=log2(n). Однако количество передаваемой информации зависит как от источника, так и от свойств приемника.
Информация,
представленная в какой-либо форме,
называется сообщением. Сообщения
представляются в виде сигналов и данных.
Сигналы используются для передачи
информации в пространстве между
источником и получателем, а данные —
для хранения (то есть для передачи во
времени). Передачу инф. можно представить
в виде такой схемы:
Источник посылает сигнал Х — случайную величину, принимающую значения х1,..., хn с вероятностями p1,..., pn. Приемник получает сигнал Y — случайную величину, принимающую значения y1,..., yn с вероятностями q1,..., qn и (возможно) отличающийся от X на величину помехи (шума ξ).
6. Измерение информации. Свойства информации. Информационная энтропия.
Данные - факты или идеи, представленные в виде, пригодном для обработки автоматическими устройствами (или человеком). Информация - смысловое содержание сообщения. Можно сказать, что отличие информации от данных заключается в том, что информация – это полезная часть данных, которая несет смысловую нагрузку.
Максимальное количество информации в сообщении при наличии n возможных сообщений определяется по следующей формуле: Imax=log2(n). Однако количество передаваемой информации зависит как от источника, так и от свойств приемника.
Свойства информации (Х – это источник, Y – приемник): 1. I(X, Y)>=0 (позитивность) 2. I(X1, Y)+ I(X2, Y) <= I(X1+X2, Y) (неаддитивность) 3. I(X, Y) <= I(Y, Y) (возможность потери при передаче) 4. I(X, Y)= I(Y, X) (симметрия канала передачи данных)
Единица информации – 1 бит.
Энтропия случайной величины X есть математическое ожидание логарифма обратной вероятности.
Величина энтропии указывает среднее число битов, необходимое для различения (или записи) возможных значений случайной величины.
Свойства: 1. Энтропия – это мера неопределенности значений случайной величины. 2. Если вероятности всех значений случайной величины, кроме одного, равны нулю, энтропия равна нулю. 3. Если все значения случайной величины х1,..., хn равновероятны, энтропия максимальна.
Поступление новой информации всегда приводит к уменьшению энтропии.
7. Кодирование данных. Цель и эффективность кодирования. Метод Шеннона — Фэно.
Кодирование – это операция отождествления символов или групп символов одного кода с символами или группами символов другого кода. Кодирование в теории информации преследует цели уменьшение избыточности сообщений и уменьшение влияния помех, искажающих сообщения при их передаче по каналам.
При любом способе кодирования средняя длина сообщения должна быть больше либо равна энтропии. Однако при любых вероятностях pi существуют методы кодирования (например метод Шеннона — Фэно) для которых L ≤ H+1. Эта формула определяет качество кодирования.
Метод кодирования Шеннона–Фено: 1. Сообщения располагаются в порядке убывания вероятностей 2. Полученный ряд делится на две части с вероятностями, по возможности близкими друг к другу. 3. первой части присваивается 0, второй – 1. Подобным же образом делят пополам каждую из частей, пока не придут к частям, содержащим только по одному сообщению.