Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
CA теория.docx
Скачиваний:
2
Добавлен:
01.05.2025
Размер:
516.21 Кб
Скачать

19. Математическое описание систем. Агрегаты-операторы.

На практике достаточно часты ситуации, когда необходимость агрегации возникает по причине чрезмерной многочисленности данных, существенно затрудняющей их обзор и анализ. В таком случае применимы агрегаты-операторы. Агрегатом-оператором называется агрегат, в рамках которого из частей или элементов формируются объединения для уменьшения размерности.

Одним из вариантов агрегата-оператора является классификация, которая устанавливает отношения эквивалентности между отдельными группами агрегируемых элементов, т.е. классами.

Примерами подобного агрегирования являются классы и подклассы по группам товаров в торговле, в частности, по продуктам, промышленным товарам, строительным материалам и др. Важный пример агрегирования данных дает статистический анализ. Среди различных агрегатов, называемых в этом случае статистиками, т.е. функциями выборочных значений, особое место занимают достаточные статистики, т.е. такие агрегаты, которые извлекают всю полезную информацию об б интересующем нас параметре из совокупности наблюдений. Однако при агрегировании обычно потери информации неизбежны, и достаточные статистики являются в этом отношении исключением. В таких условиях становятся важными оптимальные статистики, т.е. позволяющие свести неизбежные в этих условиях потери к минимуму в некотором заданном смысле. Наглядный пример статистического агрегирования представляет собой факторный анализ, в котором несколько переменных сводятся в один фактор.

20. Математическое описание систем. Энтропия и потенциальная функция.

Энтропия и потенциальная функция При изучении систем с информационно-теоретической точки зрения часто ее описание дается на языке энтропии и потенциальных функций. По аналогии с классической механикой и теорией поля можно рассматривать реакцию системы на внешнее воздействие как динамическое изменение состояния системы, в процессе которого она стремится минимизировать некоторую потенциальную функцию. В зависимости от конкретного вида системы и принятых допущений такая динамика может быть локальной в смысле движения системы к относительному минимуму, ближайшему к текущему состоянию, или глобальной в смысле движения к абсолютному (глобальному) минимуму соответствующей потенциальной функции.

Приближенное описание динамического процесса на языке потенциальных функций включает следующие составляющие:

  • пространство состояний (фазовое пространство) Z;

  • набор входных функций X;

  • гладкое отображение f: Z*X → R;

где R — есть пространство действительных чисел.

При этом предполагается, что система ведет себя так, что при фиксированном входе x ее наблюдаемое состояние соответствует локальному либо глобальному минимуму потенциальной функции.

Рис.5.1 — Потенциальная функция системы

А) — движение к локальному минимуму;

В) — движение к глобальному минимуму;

f(z,a) — потенциальная функция;

z(a) —  начальное положение системы, где а — внешний параметр.

Замена параметра а на а* приводит к изменению положения минимума функции f(z,a).

Использование потенциальной функции для описания хорошо изученных физических систем оказалось весьма удачной альтернативой внутренних описаний. Успешное применение такого подхода в классической физике обусловлено существованием незыблемых вариационных принципов, таких как принципы Гамильтона, Ферма и Даламбера. В большинстве случаев внутреннее описание физического процесса на языке потенциальных функций естественным образом вытекает из описания с пoмощью потенциальных функций в силу уравнений Гамильтона-Якоби и Эйлера-Лагранжа.

В системах, которые являются предметом изучения общественных наук, возможность использования такого описания не столь обоснована из-за сложности применения вариационных принципов. Однако в ряде случаев при анализе устойчивости или в теории катастроф знание точного вида потенциальной функции не является необходимым для определения важных качественных свойств системы — важен лишь сам факт ее существования.

С описанием системы на языке потенциальных функций тесно связана идея описания поведения систем с помощью энтропии. Как известно из классической термодинамики, энтропия является мерой беспорядка, существующего в данной физической системе. Мерой упорядоченности системы является отрицательная энтропия или негэнтропия. В основе описания динамического процесса с помощью энтропии лежит предположение преобразовании негэнтропии входа в информацию. Это означает, что все замкнутые системы изменяются таким образом, что минимизируют изменение энтропии. Таким образом, становится очевидной связь между описанием на языке потенциальных функций и энтропии.

Чтобы показать общность описаний в терминах энтропии, перечислим основные аксиомы релятивистской теории информации, развитой Джюмэри для динамических процессов.

Аксиома 1. Система является частью некоторой вселенной и развивается только постольку, поскольку она преследует некоторую цель.

Аксиома 2. Для достижения цели система воспринимает информацию I из окружающей среды и использует эту информацию для перестройки собственной организации (внутренней структуры) A, в результате которой увеличилась бы негэнтропия n, и для оказания воздействия L на окружающую среду.

Аксиома 3. (Принцип эволюции). Структурная энтропия Е системы определяется соотношением dE = dI/n и является неубывающей функцией эволюции.

Аксиома 4. Вселенная не может наблюдать собственную эволюцию. В силу этих аксиом уравнение состояния системы имеет вид:

f(He, Hi, ν) = 0, где

  • He — внешняя энтропия системы по отношению к фиксированному наблюдателю R,

  • Hi — внутренняя энтропия системы по отношению к наблюдателю R,

  • ν — цель системы с точки зрения наблюдателя R.

При таком подходе к описанию системы наблюдатель (или лицо, принимающее решение) играет особую роль, причем особый упор делается на кинематический подход, основанный на аналогах преобразования Лоренца для двух наблюдателей R и R*.

Анализируя уравнение состояния, можно заметить, что знание функции f позволяет вычислить структурную энтропию Е c помощью соотношения, описывающего обмен информацией:

dI = α⋅dHe + β⋅dHi

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]