Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
GOS_na_5.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
953.48 Кб
Скачать

1. Основные понятия и определения теории автоматического управления.

Предмет изучения ТАУ – информационные процессы в АСУ. ТАУ выявляет общие закономерности в АСУ и на их основе разрабатывает принципы построения высококачественных АСУ.

Алгоритмом называют всякое правило или предписание, устанавливающее порядок выполнения тех или иных операций. Всякий алгоритм должен обладать определенностью (формализован, строг, понятен); массовостью (решение нескольких задач одного класса); результативностью (получение искомого результата).

Оператор – совокупность математических и логических действий, в результате которых по заданной функции определяется другая функция.

Алгоритм функционирования системы – совокупность предписаний, ведущих к правильному выполнению технического процесса в каком-либо устройстве или совокупности устройств.

Объектом управления (ОУ)называют определенное техническое устройство, для которого необходимо специальное организационное воздействие для достижения результатов функционирования.

Алгоритмом управления называют совокупность предписаний, определяющих характер воздействия извне с целью осуществления функционирования алгоритма.

ТАУ с теорией функциональных СУ образуют автоматику, которая является разделом технической кибернетики.

Автоматика – отрасль науки и техники, освещающая совокупность методов и средств, освобождающих человека от непосредственного выполнения операций по контролю и управлению.

Кибернетика – наука об общих закономерностях в процессах управления в различных системах.

Техническая кибернетика изучает сложные автоматические СУ технологическими процессами (АСУТП), предприятиями (АСУП), построенные с использованием ЭВМ.

Управляющее воздействие – воздействие на объект управления для достижения цели управления.

Устройство управления (УУ, регулятор) – совокупность устройств, с помощью которых осуществляется управление главным технологическим параметром.

Регулирование – частных случай управления, цель которого – обеспечить близость текущих значений одной или нескольких координат управления их заданным значениям.

g(t) – внешнее управляющее воздействие; y(t) – выходная функция; v(t) – возмущающее воздействие.

Величины, характеризующие ход технологического процесса и состояние технологического оборудования, называют параметрами (переменными) ОУ. Их можно разделить на входные (независимые) и выходные (зависимые).

2. Количественная мера информации (комбинаторное определение количества информации. Определение количества информации по к. Шеннону).

Комбинаторное определение количества информации

Комбинаторное определение количества информации дано американским инженером Р. Хартли. Это определение

предполагает модель с детерминированной связью (помехи отсутствуют) между дискретными состояниями двух систем без их вероятностного описания.

До получения сведений о состоянии системы имеется априорная неопределенность ее состояния. Сведения позволяют снять эту неопределенность, то есть определить состояние системы. Поэтому количество информации можно определить как меру снятой неопределенности, которая растет с ростом числа состояний системы.

Количественная мера информации устанавливается следующими аксиомами.

Аксиома 1. Количество информации, необходимое для снятия неопределенности состояния системы, представляет собой монотонно возрастающую функцию числа состояний системы.

В качестве количественной меры информации можно выбрать непосредственно число состояний системы mx, которое является единственной характеристикой множества X.

Однако такое определение не удобно с точки зрения его практического применения. Поэтому в теории информации вводится несколько иная количественная мера информации, которая является функцией тх. Вид указанной функции позволяет установить аксиома 2.

Аксиома 2.Неопределенность состояния сложной системы, состоящей из двух подсистем, равна сумме неопределенностей подсистем.

Если для снятия неопределенности первой подсистемы необходимо количество информации, равное I(т1), а для второй подсистемы количество информации, равное I(m2), то для снятия неопределенности сложной системы необходимо количество информации, равное I(m1,m2) = I(m1) + I(m2) , где т1 число состояний первой подсистемы; т2 - число состояний второй подсистемы; т1 т2число состояний сложной системы.

Единственным решением полученного функционального уравнения является логарифмическая функция I(т)=Кlogат, которая определяет количество информации как логарифм числа состояний системы. Произвольный коэффициент К выбирается равным единице, а основание логарифма а определяет единицу измерения количества информации. В зависимости от значения а единицы измерения называются двоичными (а=2), троичными (а=3) и в общем случае а-ичными. В дальнейшем под символом log будем понимать двоичный логарифм. Двоичная единица иногда обозначается bit (от английского binary digit - двоичный знак).

Каждое передаваемое слово из п букв, записанное в алфавите, содержащем т букв, можно рассматривать как отдельное «укрупненное» состояние источника сообщений. Всего таких состояний (слов) будет тn.

Тогда количество информации, которое несет слово из п букв, равно I=logamn=nlogam. Отсюда следует, что одна буква несет logam а-ичных единиц информации. Если единица измерения информации а=т, то количество информации в слове (I=п) измеряется количеством содержащихся в нем букв, а единица измерения информации определяется размером алфавита т. Таким образом, одна a-ичная единица содержит logam a-ичных единиц информации.

Определение количества информации по к. Шеннону

К. Шеннон, используя методологию Р. Хартли, обратил внимание на то, что при передаче словесных сообщений частота использования различных букв алфавита не одинакова: некоторые буквы используются очень часто, другие - редко. Существует и определенная корреляция в буквенных последовательностях, когда за появлением одной из букв с большой вероятностью следует конкретная другая. Введя в формулу Р. Хартли указанные вероятностные значения (p), К. Шеннон получил новые выражения для определения количества информации. Для одного символа это выражение приобретает вид: H= -p log2 p, а сообщения, состоящего из "n" символов: H= - Σ(i=1,n) pi log2 pi

Это выражение, повторяющее по форме выражение для энтропии в статистической механике, К. Шеннон по аналогии назвал энтропией.

Такой подход принципиально изменил понятие информации. Под информацией теперь стали понимать не любые сообщения, передаваемые в системе связи, а лишь те, которые уменьшают неопределенность у получателя информации, и чем больше уменьшается эта неопределенность, т.е. чем больше снижается энтропия сообщения, тем выше информативность поступившего сообщения. Энтропия - это тот минимум информации, который необходимо получить, чтобы ликвидировать неопределенность алфавита, используемого источником информации.

Однако и количественная мера информации Р. Хартли и энтропия К. Шеннона не измеряют саму вторичную информацию в ее смысловом или физическом виде, а лишь характеризуют используемую для передачи по каналам связи систему кодирования этой информации, алфавит, примененный для ее передачи.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]