- •Теория систем Методологические основы
- •Введение
- •Глава 1. Наука о системах. Исходные понятия
- •1.1. Системный подход и анализ
- •1.2. Система. Уровни абстрагирования – конкретизации
- •1.3. Категории объекта и субъекта
- •1.4. Из истории возникновения теории систем. Системная парадигма
- •Глава 2. Отождествление объекта наблюдений с системой
- •2.1. Система на знаково-лингвистическом уровне - у1
- •2.2. Теоретико-множественный уровень описания системы - у2
- •2.3. Абстрактно - алгебраический уровень описания - у3
- •2.4. Логико-математический уровень описания систем - у4
- •0(A2;a3);1(a1;a3);(a1;a2;a5);(x1Lx2)(a3;a4);(x1Vx2)(a3;a4); (x1x2)(a1;a3;a4;a5);(x1x2)(a1;a3;a5);(x1x2)(a2;a3;a4;a5); (x1x2)(2;3;5);(x1/x2) (все свойства); (x1x2) (все свойства).
- •Глава 3. Топология и топологические уровни описания объекта – у5
- •3.1. Пространства и пространственно -подобные отношения
- •3.1.1. Метрические пространства(гильбертово пространство)
- •3.1.2. Топологические пространства
- •3.1.3. Линейные пространства
- •3.1.4. Евклидово пространство. Нормирование
- •3.2. Пространство, как система базирования
- •4. Информационный уровень конкретизации систем – у6
- •4.1. Информация как степень неопределенности
- •4.2. Свойства меры нечеткости
- •5. Динамический уровень описания систем у7
- •5. 1. Общая динамическая система
- •5.2. Автоматы как динамические системы
- •6. Эмпирические системы
- •6.1. Исходная система
- •6.2. Система данных
- •6.3. Системы порождения. Основные понятия
- •6.4. Маска и адресные уравнения
- •Глава 7. Системы с поведением. Имитация функции выбора
- •7. 1 .Трафарет и маска выборки
- •7.2. Выборочные переменные для упорядоченных множеств
- •7.3. Системы с нечеткими функциями выбора
- •Глава 8. Эпистемология эмпирических систем
- •8.1. Эпистемология основных уровней эмпирических систем
- •8.2. Структура, структуризация, метаоперация
- •8.3. К задаче перечисления методологических типов систем
- •Заключение
- •Библиографический список
- •Приложения
- •П.1. Прессдуктор, как пример сложной физической системы
- •П.2. "Учебный процесс в вузе", как объект наблюдений
- •П.3. Примеры рациональных систем
- •П.4. Фрагмент таблицы случайных чисел с равновероятным законом распределения
- •П.5. Вероятности появления отдельных букв в тексте на русском языке
- •П.6. Топология расположения символов на клавиатуре для пишущей машинки и пульте управления компьютером
- •Теория систем методологические основы
- •119454, Москва, пр. Вернадского, 78
4. Информационный уровень конкретизации систем – у6
Информация связана с процессами преобразования и передачи систем знаков. Знакаминазывают системы конкретных или абстрактныхобъектов, c каждым из которых определенным образом сопоставлено некоторое значение.
Например, СМО типаG/G/3/3. Значение определяется как позиционная система кодирования поКендалу [68].
Значение может быть реальным физическим объектом или абстрактным понятием.
Примеры знаковых систем:
- языки общения (естественные и искусственные); системы исчислений (арабская, двоичная, высказываний, предикатов); системы сигнализации(азбука Морзе, флажковая ... ); системы состояний; системы знаков в музыке; любые устройства и их элементы; живые организмы и их элементы; коллективы и организации...
Таким образом, объект любой природыс информационной точки зрения является своеобразным знаком длясубъекта.
Семиотика изучает свойства информационных знаковых систем. Семиотика (с греческого) переводится как "знак". Различают три составляющих семиотики:синтактику, семантику и прагматику.
Топологическое описание информационных систем строится на мерах Клода Шеннона: на количестве информации (I), энтропии(H), скорости передачи информации[2;32].
4.1. Информация как степень неопределенности
Информация в общем случае передается словами разной длины. Количество информации определяется не по ее смысловой ценности, а по длине слова.
Пусть из алфавита A = {a1;a2;…;am} формируются слова из n букв (x1;x2;…;xn), которые передаются по каналу сообщения.
Ясно, что из m символов можно образовать N слов длиной в n букв: N=mn- это число перестановок с неограниченными повторениями.
Пусть любое из них равновероятно, т.е. p = 1/N.
Тогда неопределенность получения заданного слова растет с ростом N и тем больше информации должно содержаться в конкретном исходе.
Число N является мерой информации. Эта мера не обладает свойствами аддитивности, что неудобно при конструировании формальных систем с поведением.
Если перейти к логарифмической шкале отсчета, то свойство аддитивности выполняется (логарифмическая линеаризация):
J = log N при N = mnимеем J = n*log m.
Удельная информация, содержащаяся в одном символе. определяется как H = J/n = log m.
Если m= 2, то каждый символ будет передаваться как система кодов в виде цепочки символов, состоящей из нулей и единиц.
Каждый разряд несет log22 =ld2 = 1 одну единицу информации, называемуюбитом или двоичной единицей информации.
При m= 10 единица информации называетсядитом:
1 дит = lg10 =ld2x= 3.32 бит.
Примеры
1. Для трафарета 5 7 определить число бит информации, содержащейся при высвечивании одного символа.
Так как число ячеек 35, каждая из которых несет один бит информации, то получаем в сумме 35 бит информации.
2. Для телевизионного кадра имеем 625 строк, в строке 600 точек, в каждой точке 8 градаций черного; имеем:
I= 625*600*ld8 = 625*600*3 = 1.125*106бит.
Если вероятности передачи сигналов произвольны, то переходим к формулам К. Шеннона.
Информативность передачи одного символа определяется как математическое ожидание логарифмических составляющих:
h = = M[log Pi] = Pi * log(1/Pi),
т.е как среднее значение частных энтропий. Величина Pi[0,1]. Чем меньше Pi, тем больше частная энтропияhi. ПриPi=1 частная энтропия равна 0.
О характере функции hi=f(Pi) =Pi*ld(1/Pi) можно судить по следующему дискретному ряду ее значений:
Pi |
0 |
0.1 |
0.2 |
0.3 |
0.4 |
0.5 |
0.6 |
0.7 |
0.8 |
0.9 |
1.0 |
hi |
0 |
0.332 |
0.47 |
0.52 |
0.52 |
0.5 |
0.44 |
0.35 |
0.25 |
0.13 |
0.00 |
В случае бинарных сообщений из частных энтропий hiобщая энтропия определяется из соотношения:
H = h(p1) + h(p2) при p1 + p2 = 1,
т.е. H = -p1*ld p1– (1-p1)*ld (1-p).
Кривая Hсимметрична относительно точкиp1= 0.5.
p1 |
0 |
0.1 |
0.2 |
0.3 |
0.4 |
0.5 |
0.6 |
… |
1 |
H |
0 |
0.48 |
0.72 |
0.87 |
0.96 |
1 |
0.96 |
… |
0 |
Графики составляющих функций Hприведены на рис. П.2.1.
Упражнение
1. В табл. П.2.1. приведены данные xср, определяющие код последовательного эксперимента по учету посещения занятий студентом;xсропределяет относительную степень посещаемостиxср[0;1]. Определить характер кривойH=f(xср). Предложить интерпретацию получаемого результата для данной задачи.
2. В табл. П.2.1 имеется оценка априорных знаний студента, определяемая по его зачетке: yср [3;5].
Требуется нормировать значение yсрна [0;1] и оценить, подобноxср , характер изменения энтропийной меры в этом случае.