Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Экономическая кибернетика - Лазебник Владимир Матвеевич.doc
Скачиваний:
237
Добавлен:
24.05.2014
Размер:
5.36 Mб
Скачать

Понятие гомеостазиса

Гомеостазис в переводе с греческого означает "постоянное состояние", Homeo постоянство, Statis состояние.

Гомеостатика - это научное направление, возникшее на пересечении кибернетики и теории автоматического регулирования. Понятие "гомеостаз" применительно к физиологии было введено американским физиологом У. Шенноном (1871-1945) задолго до появления кибернетики. Позже американский кибернетик У. Эшби создал самоорганизующийся регулятор, способный поддерживать постоянство характеристик управляемой системы при больших изменениях характеристик внешней среды (больших внешних возмущениях). У. Эшби назвал этот прибор гомеостатом.

Основополагающим принципом гомеостатики является принцип управляемого противоречия. В соответствии с этим принципом нормальное состояние системы поддерживается в результате одновременного воздействия на систему двух противоречивых факторов, один из которых стремиться увеличить регулируемую величину, а второй – уменьшить её.

Свойство систем нормально функционировать при условии постоянства их жизненно важных параметров в условиях изменения характеристик внешней среды и называют гомеостазисом. Само постоянство в ряде случаев не является строго неизменным, оно может изменяться, но относительно медленнее, чем процессы в системе.

Все живые организмы могут существовать только при условии постоянства жизненно важных параметров, например, постоянства температуры тела, кровяного давления, состава крови, «густоты» крови, содержания сахара в крови и т.п. Инсулин, уменьшающий содержание сахара в крови, и глюкоза, увеличивающая содержание сахара, определяют энергетический баланс крови.

Многие сложные системы – экономические, социальные в той или иной степени гомеостатичны – у каждой из них есть свои жизненно важные параметры, которые необходимо поддерживать в определенных границах при допустимых изменениях характеристик внешней среды.

В экономике примером может служить система регулирования спроса и предложения. Увеличение спроса приводит к увеличению равновесной цены, а увеличение предложения - к её снижению. Явления управления спросом и предложением и медленного изменения равновесного состояния можно наблюдать на примере изменения курса валют. В технических системах примером гомеостазиса может быть регулирование частоты и активной мощности в энергосистемах с целью поддержания частоты на неизменном уровне 50 Гц. Здесь увеличение энергетической мощности приводит к увеличению частоты, увеличение нагрузки - к снижению частоты,

Явление гомеостазиса наблюдается и в человеческом обществе. Человек вынужден придерживаться некоторых постоянных норм и правил, поскольку находится непрерывно под воздействием посылаемых ему «сигналов» о том, что такое «хорошо» и что такое «плохо».

3.4. Закон необходимого разнообразия и его следствия для систем управления Энтропия систем и закон необходимого разнообразия

Закон необходимого разнообразия был сформулирован американским кибернетиком У.Р. Эшби в его книге «Введение в кибернетику».

Закон устанавливает зависимость между уровнем разнообразия (сложности) объекта управления и уровнем разнообразия (сложностью) управляющей системы (субъекта управления).

В качестве меры неопределенности (иначе уровня разнообразия) дискретной системы применяется специальная характеристика, называемая энтропией.

Энтропия системы определяется, как сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком

Н(х) = Рi log2Pi, i = l,N (3.1)

Здесь х - дискретная случайная величина, состояния которой имеют вероятность Рi. Обычно за основание логарифма принимается число 2.

Формула (3.1) называется формулой К.Шеннона.

Энтропия простейшей системы, которая имеет два равновозможных состояния, равна единице.

Действительно, если

xi

x1

x2

Pi

½

½

то Н(х) = - (½ log2½ + ½ log2½) = - [½ (-1) + ½ (-1)] = 1

Определённая таким образом единица энтропии называется «двоичной единицей» и обозначается bit (от англ. «binary digit» - двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулём или единицей.

Для системы, которая имеет N равновероятных состояний

Н(х) = [N ∙ ∙ log2 ] = -log2l + log2N = log2N

где N - число состояний, - вероятность состояний

Формула

Н(х) = log2N (3.2)

называется формулой Р. Хартли.

т.е. энтропия системы с равновозможными состояниями равна логарифму числа состояний.

Так для системы с восемью состояниями Н(х) = log 28 = 3.

Рассмотрим в качестве примера анализа неопределенности две системы: монету и авторучку.

Каждая система имеет два состояния. У монеты – это орел и решка (цифра и герб). У авторучки – колпачок надет и колпачок снят. В случае монеты состояния имеют вероятности Р=0,5 и для определения энтропии может быть использована формула Хартли.

Подставляя в формулу N = 2, получаем

H(x) = log 22 = l.

Для авторучки вероятности состояний различны. Авторучка может находиться длительное время (т.е. с большей вероятностью) со снятым колпачком или, наоборот, с большей вероятностью быть с надетым колпачком.

Обозначим одну из этих вероятностей через Р, тогда другая будет 1– Р, т.к. предполагается, что состояния образуют полную группу событий.

Для вычисления энтропии в этом случае необходимо воспользоваться формулой Шеннона.

Для энтропии авторучки, т.е. системы с двумя состояниями и вероятностью одного из них Р, а другого (1–Р), имеем

Н(х) = Р ∙ log2 Р + (1–Р) ∙ log2 (1–P).

Построим зависимость энтропии от величины вероятности Р.

При Р = 0

H(x) = 0 ∙ log20 + l ∙ log2l.

Первый член равен нулю, поскольку доказывается, что неопределенность

lim P log2P = 0.

p →0

Второй член равен нулю, поскольку log2l = 0.

Т.о. имеем, что при Р = 0 энтропия Н(х) = 0.

При Р = = ½, имеем Н(х) = 1.

При Р = 1, величина Н(х) снова обращается в ноль.

По результатам расчетов график зависимости Н(Р) имеет вид, представленный на рис.3.2

Рис. 3.2.Зависимость энтропии от вероятности одного из двух состояний

Как следует из рисунка энтропия обладает следующими свойствами:

1. обращается в нуль, когда одно из состояний достоверно, а другие – невозможны;

2. обращается в максимум, когда состояния равновероятны

Зависимость энтропии от числа равновозможных состояний Н от N представлена в табл.3.1.

Таблица 3.1.

N

2

4

8

16

32

64

128

Н

1

2

3

4

5

6

7

Для системы с непрерывным множеством состояний вводится понятие дифференциальной энтропии, которая определяется количеством параметров, характеризующих состояние объекта и законами их распределения.

Формула для дифференциальной энтропии записывается в виде:

h (ξ) = – ∫ p(x)  log p(x) dx (3.3)

Экономика может рассматриваться как пример системы с непрерывным множеством состояний. Так состояние фирмы характеризуется множеством непрерывных показателей: прибыль, доход, оборотные средства, рентабельность и т.д.

Основываясь на понятии энтропии У.Р.Эшби математически доказал, что существует необходимый минимум разнообразия управляющей системы относительно своего объекта, не достигнув которой, она не может успешно выполнять свои функции.

У.Р.Эшби назвал этот предел необходимым разнообразием, и сформулировал закон соответствия разнообразия управляющей системы разнообразию управляемого объекта.

Согласно этому закону разнообразие (неопределённость) в поведении управляемого объекта может быть уменьшена за счёт соответствующего увеличения разнообразия органа управления. Только разнообразие в управляющей системе может уменьшить разнообразие управляемого процесса. В наиболее краткой форме закон формулируется следующим образом: «только разнообразие может уничтожить разнообразие».

Следует отметить, что закон необходимого разнообразия не дает рекомендаций по конкретному построению систем управления, а лишь устанавливает качественные соотношения между объектом и субъектом управления.

Соседние файлы в предмете Экономика