Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
TOIIT_2013.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
302.59 Кб
Скачать

Теоретические основы измерительных и информационных технологий Задание 1

Сис­те­ма ста­би­ли­за­ции плат­фор­мы име­ет два дис­крет­ных дат­чи­ка А и В, из­ме­ряю­щих уг­лы α и β во вза­им­но пер­пен­ди­ку­ляр­ных плос­ко­стях (рисунок 1).

  1. Сис­те­ма ста­би­ли­за­ции плат­фор­мы

Сиг­на­лы X и Y с дат­чи­ков А и В по­сту­па­ют на вы­чис­ли­тель­ное уст­рой­ст­во (ВУ). Дат­чи­ки име­ют чис­ло уров­ней кван­то­ва­ния mX и mY.

Тре­бу­ет­ся оп­ре­де­лить:

  • со­вме­ст­ную эн­тро­пию сиг­на­лов X и Y;

  • эн­тро­пию ис­точ­ни­ков (дат­чи­ков А и В) при их не­за­ви­си­мой ра­бо­те;

  • у

    Рис. 4.1

    с­лов­ные эн­тро­пии сиг­на­лов X и Y при со­вме­ст­ной ра­бо­те дат­чи­ков;

  • ко­ли­че­ст­во ин­фор­ма­ции, по­сту­паю­щей в ВУ за вре­мя ра­бо­ты Т.

Сис­те­ма ха­рак­те­ри­зу­ет­ся дан­ны­ми: mX = 3; mY = 5; ∆t = 0,3 сек; Т = 30 сек.

  1. Со­вме­ст­ные ве­ро­ят­но­сти P (i/j)

Y

X

Y1

Y2

Y3

Y4

Y5

X1

0,12

0,10

0,08

0,05

0,03

X2

0,02

0,04

0,12

0,04

0,02

X3

0,03

0,05

0,08

0,10

0,12

Решение:

Для того чтобы определить совместную энтропию воспользуемся формулой (7).

Используя таблицу вероятностей, умножим каждую вероятность на ее двоичный логарифм:

  1. Расчет совместной энтропии

-0,4

-0,3322

-0,29151

-0,2161

-0,1518

-0,1

-0,1858

-0,36707

-0,1858

-0,1129

-0,2

-0,2161

-0,29151

-0,3322

-0,3671

Просуммировав элементы, и взяв сумму с противоположным знаком получим: H(X;Y)= 3,68 дв. ед.

Энтропии источников при их независимой работе определяются по формуле Шеннона (3).

Для получения значений вероятностей сигнала X необходимо просуммировать строки таблицы 1, а для Y – просуммировать столбцы таблицы 1. Результаты расчетов занесены в таблицы 3 и 4.

  1. H(X) (при не­за­ви­си­мой ра­бо­те дат­чи­ков)

     

    Pi

    *log

    H(X)

    X1

    0,38

    -0,53045

    1,55504 дв. ед.

    X2

    0,24

    -0,49413

    X3

    0,38

    -0,53045

  2. H(Y) (при не­за­ви­си­мой ра­бо­те дат­чи­ков)

Y1

Y2

Y3

Y4

Y5

Pi

0,17

0,19

0,28

0,19

0,17

*log

-0,4346

-0,45523

-0,5142

-0,4552

-0,43

H(Y)

2,29384699 дв. ед.

Условные энтропии при со­вме­ст­ной ра­бо­те дат­чи­ков будут равны:

;

;

Количество информации, поступающее в вычислительное устройство за время работы T, определим по формуле:

,

где n – количество отсчетов.

Энтропия источника А при работе В и энтропия источника В при работе А меньше энтропий этих источников, работающих независимо, на величину:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]