- •Часть 1. Способы и формы кодирования, представления и передачи информации в микропроцессорных системах автоматического управления.
- •Глава 1.Формы и способы представления информации в мп сау.
- •1.1 Количественная мера оценки информации в мп.
- •1.1.1 Энтропия, как количественная мера оценки информации
- •1.1.2 Основные свойства энтропии
- •1.2 Формы представления информации
- •1.2.1 Квантование непрерывных сигналов по уровню
- •1.2.2 Квантование непрерывных сигналов по времени
- •1.2.3 Квантование непрерывных сигналов по уровню и времени
- •1.3 Классификация преобразователей информации
- •1.3.1 Преобразователь сигнальной информации из непрерывной информации в непрерывную
- •1.3.2 Преобразователь информации из дискретной в непрерывную форму
- •Преобразователь
- •1.3.3 Преобразователь информации из дискретной формы в дискретную
- •Преобразователь
- •1.3.4 Преобразователи информации из непрерывной формы в дискретную
- •Преобразователь
- •1.4 Кодирование сообщений дискретной информации.
- •1.4.1 Системы счисления.
- •1.4.2 Запись числа в позиционной системе счисления.
- •1.5 Алгоритмы перевода чисел из одной системы счисления в другую.
- •1.5.1 Алгоритмы перевода целых чисел.
- •1.5.2 Переводы целых чисел из восьмеричной системы счисления в двоичную и обратно.
- •1.5.3 Использование восьмеричной системы счисления для повышения быстродействия алгоритма преобразовании чисел.
- •1.5.4 Алгоритмы перевода дробей из одной системы счисления в другую.
- •1.5.5 Округление результатов перевода дробей с целью сохранения точности и уменьшения потери информации.
- •1.6 Оптимальная система счисления для технических средств обработки информации.
- •1.7 Двоично кодированные системы счисления.
- •1.7.1 Свойства двоично-кодированных систем.
- •1.7.2 Переводы чисел из двоично-кодированных систем в двоичную.
Часть 1. Способы и формы кодирования, представления и передачи информации в микропроцессорных системах автоматического управления.
Глава 1.Формы и способы представления информации в мп сау.
1.1 Количественная мера оценки информации в мп.
Теория информации изучает количественные закономерности, связанные с получением, передачей, хранением и обработкой информации и рассматривает:
Оптимальное кодирование информации для ее передачи с минимальным числом символов.
Оптимальное размещение информации, применительно к техническим средствам конкретного принципа действия, в том числе в МП,.
Оптимальные способы ввода и вывода информации для технических средств (МП САУ).
1.1.1 Энтропия, как количественная мера оценки информации
Рассмотрим свойства энтропии как меры априорной неопределенности некоторой системы Х (МП САУ)или некоторой случайной величины. Обозначим энтропию этой системы Н(Х) и запишем ее в виде (1.1).
n
Н(Х) = Pi*logPi (1.1)
i=1,2,3……………n – номер состояния, в котором может находиться система Х.
Х1< =Xi< =Xn
Pi – вероятность нахождения системы Х в состоянии i.
Энтропия системы Х представляет собой сумму произведений вероятности состояния системы Pi на логарифм этой вероятности, взятую с обратным знаком.
0< =Pi< =1
1.1.2 Основные свойства энтропии
Если одно состояние системы Xi достоверно, а остальные состояния невозможны, то энтропия такой системы равна нулю.
При заданном числе состояний системы, (n=const) когда эти состояния равновероятны, H(x)=max.
При возрастании числа состояний системы n ее энтропия H(x) также возрастает.
При объединении независимых систем в одну, их энтропии суммируются.
m m
X= Xj H(x)= Hj
j=1 j=1
Величина энтропии системы H(x ) зависит от величины основания логарифма вероятности Pi .
За единицу измерения энтропии принимается энтропия системы, имеющей два равновероятных состояния (табл. 1.1).
Таблица 1.1
Xi |
X1 |
X2 |
Pi |
P1=0,5 |
P2=0,5 |
Энтропия, являясь мерой неопределенности системы, может использоваться для уменьшения этой неопределенности при получении некоторых сведений (информации) о системе. Чем больше этих сведений и чем они содержательней, тем меньше неопределенность системы.
Количество информации (1.2)можно измерять уменьшением энтропии той системы, для уточнения состояний которой предназначены полученные сведения.
n
I(x)=H(x)-0=H(x)= - Pi*log2Pi (1.2)
i=1
Используя информацию в двоичном коде и раскрывая неопределенность системы посредством построения вопросов, на каждый из которых можно ответить толь-
ко да или нет, можно определить на известном множестве состояний X={1,2,3,4,5,6,7,8} количество информации I(x) с помощью минимального количества вопросов.