Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

TEOR_inform_19-12-10_2014_01_06_12_12_03_442

.pdf
Скачиваний:
3
Добавлен:
10.02.2015
Размер:
1.39 Mб
Скачать
xmin
, xmax

общение xi , т.е. xi - это не случайное событие в условной мере информации I ( y j / xi ) , случайность реализации xi учитывается в вероятности p(xi ) .

Если ансамбли X и Y независимы, т.е. p( y j / xi ) p( y j ) , то энтропия про-

изведения ансамблей равна сумме энтропий ансамблей X и Y

 

H X Y H X H Y .

(2.9)

Пользуясь методикой, применяемой при доказательстве неравенства (2.6), можно

показать, что

 

0 H Y / X H Y .

(2.10)

Если имеется множество ансамблей X1, , X n , то энтропия произведения ансамблей равна

H X1 X n H X1 H X 2 / X1 H X 3 / X 2 X1 H X n / X n 1 X1 ,

0 H X 1 X n

n

H X i

(2.11)

 

i 1

 

 

2.3 Энтропия непрерывного ансамбля сообщений

Выше мера информации была введена для дискретного ансамбля сообщений. Точно так же вводится мера информации на непрерывном ансамбле. Непрерывная случайная величина X описывается непрерывным множеством реализаций, принимающих значения в интервале . На этом интервале задается плот-

ность распределения вероятности w(x) . Положим, произведено квантование значений x с шагом x . Вероятность того, что случайная величина X принадлежит интервалу (x, x x], равна

 

 

 

 

 

xi x

 

 

 

p(xi ) P(xi X xi x)

xi

 

w(x) dx

(2.12)

 

 

При довольно малом значении x Вероятность p(xi ) будет равна

 

p(x

) w(x* ) x ,

где x

i

x*

x

i

x .

(2.13)

i

i

 

 

i

 

 

 

Произведѐнное преобразование позволило перейти от непрерывного распределения к дискретному. Количество информации, содержащееся в случайной величине, принадлежащий интервалу (x, x x], равно

(xi ) log (w(xi* ) x) .

Энтропия ансамбля X после квантования согласно ( .6) равна

H X = ik 1 w(xi* ) x log (w(xi* ) x))

11

=

 

k w(x* ) log w(x* ) x log x

k

w(x* ) x .

(2.14)

 

i 1

i

 

 

i

 

i 1

i

 

 

 

 

 

 

 

 

 

Первая сумма аналогична энтропии дискретного распределения и при x 0,

она сходится к интегралу

 

xmax w(x) log w(x) dx .

 

 

 

 

 

 

 

 

xmin

 

 

 

 

Вторая сумма

log x

 

k

w(x

* ) x при x 0 стремится к бесконечности.

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

Поэтому на практике она имеет смысл при конечных значениях x . В этом случае при довольно малых значениях x имеем log x ik 1 w(xi* ) x log x .

В теории связи энтропия H(X ) используется как мера неопределѐнности ансамбля, элементы которой передаются по каналу связи, и вторая сумма не оказывает влияния на качество передаваемой информации, что будет показано далее.

Поэтому меру неопределѐнности (энтропию), содержащуюся в непрерывном ансамбле будем определять как [***]

 

 

h( X )

xmax w(x) log w(x) dx

(2.15)

 

 

 

 

xmin

 

 

 

и называется она дифференциальной энтропией.

 

Энтропия произведения непрерывных ансамблей X и Y вводится как и для

дискретных ансамблей.

Без доказательства запишем

 

h( XY )

 

w(x, y) log(w(x, y)) dxdy

 

 

Y

X

 

 

 

 

 

 

w(x) log w(x) dx

 

w(x, y) log(w( y / x)) dxdy

 

X

 

 

 

Y

X

 

 

 

w( y) log w( y) dy

 

w(x, y) log(w(x / y)) dxdy =

 

y

 

 

 

Y

X

 

 

= h(X ) h(Y / X ) h(Y) h(X /Y).

(2.16)

2.4 Энтропия непрерывного ограниченного ансамбля

Энтропия ансамбля X после квантования была записана как

H X = ik 1 w(xi* ) x log (w(xi* ) x)) .

Устремим интервал квантования к нулю, но оставим под знаком логарифма величину интервала квантования неизменной. Это представление сохранит размерность энтропии и показывает зависимость энтропии непрерывного ансамбля сообщений от величины интервала квантования

12

H X = w(x) log (w(x) x)) dx .

X

Максимальная энтропия непрерывного ансамбля зависит от вида плотности распределения вероятности w ( x ) , области определения значений случайного сигнала и априорных сведений относительно w ( x ) .

Определим плотность распределения вероятности w ( x ) , обеспечивающий

максимум энтропии H X , при X

(a, b) и ограничении

b

 

w(x) dx 1.

(2.17)

a

 

Для решения задачи применим метод неопределѐнных множителей Лагранжа, и составим функционал

 

 

 

b

 

 

 

 

 

b

 

 

 

 

 

( w ( x ))

 

 

 

 

 

 

 

 

w ( x ) dx

 

 

 

 

 

w ( x )log ( w ( x ) x )) dx

 

 

1 .

 

 

 

a

 

 

 

 

 

a

 

 

 

 

Приведѐм его к виду

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

ln ( w ( x ) x ))

 

 

 

 

 

( w ( x ))

w ( x )

 

 

 

 

w ( x )

dx .

 

 

 

 

ln 2

 

 

 

 

 

a

 

 

 

 

 

 

 

 

 

 

 

Определим производную

d ( w ( x ))

 

, которая будет равна

 

 

 

 

 

 

 

 

 

 

 

 

 

w ( x )

 

 

 

 

 

 

 

 

 

 

 

d ( w ( x ))

b

 

d

 

 

ln ( w ( x ) x ))

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w ( x )

 

 

w ( x ) dx

,

 

dw ( x )

 

 

 

ln 2

 

a

dw ( x )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и приравняем еѐ нулю Достаточным условием равенства нулю интеграла от некоторой функции будет ра-

венство нулю самой этой функции. Исходя из этого, имеем

 

ln( w( x ) x ))

 

1

= 0.

ln 2

ln 2

 

 

 

Разрешая полученное уравнение относительно w ( x ) , получим

w( x )

1

exp ( ln 2 1) .

(2.18)

x

 

 

 

Чтобы вычислить величину , используем ограничение (2.17) и сделаем ряд преобразований

b

 

 

 

 

 

 

x

 

 

x

 

 

exp( ln2 1) dx x,

 

 

 

 

 

 

 

exp( ln2 1)

 

,

ln2 1 ln

 

 

,

 

 

a

 

 

 

 

 

 

b a

 

b a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

x

 

 

 

 

 

 

 

 

ln

 

 

+1 .

 

 

 

 

 

 

ln2

 

 

 

 

 

 

 

 

 

b a

 

 

 

 

 

 

 

13

После подстановки значения параметра в (2.18) получим

 

 

 

 

 

w( x )

1

exp

1

1 ln

 

x

ln 2 1

 

1

exp

1 ln

 

x

 

1

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

x

 

 

 

 

 

 

 

ln 2

 

b a

 

 

 

 

b a

 

 

 

1

 

x

 

 

 

1 x

 

1

,

 

exp ln

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

b

a

 

x b a

 

b a

 

 

w( x )

1

 

,

a x b .

 

 

 

 

 

 

 

 

 

b a

 

 

 

Вывод.

Если имеется ограничение в виде нормировки плотности вероятности непрерывного ансамбля и область существования плотности вероятности ограничена постоянными a и b, то из всех возможных плотностей вероятности w ( x ) равномерный закон распределения вероятности обладает наибольшей энтропией.

Если число ограничений увеличивается , то вид плотности распределения вероятности изменится Положим, известно, что случайная величина принимает значения в интервале , , математическое ожидание равно нулю и еѐ дисперсия

ограничена величиной 2 .Далее покажем, что наибольшую энтропию даѐт нормальный закон распределения.

2.3 Количество взаимной информации

2.3.1 Дискретный канал передачи информации

Рассмотрим модель канала передачи информации

 

1, , k

 

 

 

 

 

 

 

 

 

 

 

, ,

 

 

 

 

Канал передачи информации

 

1

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис.2.2. Модель канала передачи информации

 

i Y , i Z ,

 

 

 

 

 

Y y1, , y N ,

Z z1, , z N

 

 

I z j log p(z j ) [бит] - количество информации (мера неопределѐнности),

содержащаяся в элементе z j ансамбля Z .

14

I z j / yi log p(z j / yi ) [бит] - количество информации, содержащееся в элементе z j при условии, на входе канала реализуется элемент ансамбля yi . Ино-

гда еѐ называют остаточной неопределѐнностью в элементе z j при условии реали-

зации на входе канала элемента yi .

J yi , z j I z j I z j / yi log

p(z j / yi )

 

[бит] - количество информа-

 

 

p(z j )

ции, содержащееся в элементе z j на выходе канала связи относительно элемента

yi на входе канала. Используя безусловную и условную вероятности

p yi и

p yi / z j , можно получить

 

 

 

 

 

 

 

 

J z j , yi log

p( yi / z j )

 

 

 

 

 

 

 

 

 

 

- количество информации, содержащееся в эле-

p( yi

)

 

 

 

 

 

 

 

 

 

 

 

 

менте z j относительно элемента yi .

 

 

 

 

 

 

 

 

Суммируя J yi , z j по всем возможным элементам yi и z j с соответствую-

щими весами p( yi , z j ) , получим

 

 

 

 

 

 

 

 

 

 

N

N

 

 

 

 

 

 

 

 

J Y , Z p( yi , z j ) J yi , z j

 

 

 

 

i 1

j 1

 

 

 

 

 

 

 

 

N

N

 

 

p( yi , z j

)

 

 

áèò

 

p( yi , z j ) log

 

(2.19)

 

 

 

 

 

 

 

 

p( y

 

) p(z

 

)

 

i 1

j 1

 

 

i

j

 

ñî î á.

 

 

 

 

 

 

 

 

 

 

- количество взаимной информации, содержащейся в ансамбле Z относительно ансамбля Y .

(Зюко. Помехоустойчивость и эффективность систем связи. «Связь». 1972, 360

с.)

Выразим количество взаимной информации через энтропии ансамблей:

N N

 

N N

 

J Y , Z p( yi , z j ) log p(z j )

p( yi , z j ) log p(z j / yi )

 

 

 

 

i 1 j 1

 

i 1 j 1

 

 

= H Y H Y / Z .

(2.20 а)

Формулу (2.18 а) можно интерпретировать как среднее количество информации, переданное по каналу связи. Условная энтропия H Y / Z зависит от характери-

15

H (Y )
H Y = H Z .

стик шума и интерпретируется как среднее количество информации, теряемое в канале связи из-за шума, и еѐ называют ненадѐжностью [ Р. Фано , стр 66].

Используя соотношение (2.17), можно показать

J Z,Y H Z H Z / Y .

(2.20 б)

Энтропия H Z - это среднее количество принятой информации, необходимое для определения принятого сигнала. Условная энтропия H Z / Y - среднее коли-

чество принятой информации, когда известны вероятностные характеристики ансамбля Y. Ввиду того, что сигнал и шум аддитивны и независимы, а характеристики

сигнала учитываются в расчетах условной энтропии H Z / Y , то H Z / Y -

среднее количество информации, необходимое для определения помехи, или энтропия помехи (шума) в канале связи. При отсутствии помех в канале связи

H Y / Z = H Z / Y =0 и

Пример 1. Положим, сигналы в канале передачи данных не искажаются, т.е.

шумы в канале отсутствуют. Условная вероятность появления символов yi

и z j

в

этом случае равна

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j i,

 

 

 

 

 

 

 

 

 

 

1,

åñëè

 

 

 

 

 

p(z

 

/ y )

åñëè

j i.

 

 

 

 

 

 

 

j

i

0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда условная энтропия H (Z / Y ) равна нулю и количество взаимной инфор-

мации определяется

энтропией

ансамбля

Z.

Но ранее

было

показано,

что

J Z ,Y = J Y , Z .

Из

 

этого

 

равенства

и

отсутствия

шума

следует,

что

h(Z) h(Y), то есть количество взаимной информации на выходе канала связи относительно входа равна энтропии (неопределѐнности) ансамбля на входе канала передачи данных. И чем больше энтропия h(Y) , тем больше информации передаѐтся по каналу связи.

Пример 2. Положим, сигналы в канале передачи данных искажаются настолько, что сигналы z j на приѐмном конце канала передачи данных можно считать стати-

стически независящими от передаваемых значений yi . В этом случае условная ве-

роятность запишется как

p(z j / yi ) p(z j )

и количество взаимной информации будет равно нулю, то есть абонент не получит никакой информации, хотя он будет фиксировать принимаемые символы z j .

Из рассмотренных примеров видно, чем больше энтропия , тем больше информации может быть передано по каналу. Для дискретных источников информации, как было показано ранее, энтропия принимает наибольшее значение, если

16

элементы ансамбля равновероятны. Это положение относится как к ансамблю X, так и к ансамблям Y и Z то есть

p(xi ) 1/ N , p( y j ) 1/ K , где N и K – количество элементов ансамблей X и Y.

Для непрерывных распределений вероятностей w(x) , w(y) , имеющих конечную дисперсию, энтропия принимает максимальное значение, если значения x и y распределены по нормальному закону.

Ансамбль сообщений, энтропия которых равна максимальному значению, является оптимальным ансамблем в смысле наибольшего количества передаваемой информации [Клюев].

Для оценки того, насколько отличается энтропия ансамбля от максимального значения вводится понятие коэффициента сжатия:

H (Y ) .

Hmax (Y )

Из определения видно, что 0 1. При 1 каждое сообщение несѐт максимальную информацию. Избыточность информации, содержащаяся в ансамбле, характеризуется коэффициентом избыточности

r 1 Hmax (Y ) H (Y ) .

Hmax (Y )

Чтобы уменьшить избыточность, содержащуюся в ансамбле X источника информации, создается новый ансамбль Y символов, энтропия которой близка к максимальному значению. Затем с помощью элементов ансамбля Y составляются сообщения из ансамбля X.

2.3.2 Непрерывный канал передачи информации

Непрерывный канал передачи информации описывается одномерными и двумерными плотностями распределений вероятностей. Чтобы записать количество взаимной информации между входом и выходом канала связи, используем дискретное представление информации, а затем прейдем к непрерывным величинам.

Совместная вероятность появления символа y*i на входе канала и символа z*i

на выходе канала равна

p yi*, z*j = w( yi*, z*j ) y z ,

где

y*

и

z*

-значения

y

и z, удовлетворяющие условиям y y* y

y ,

 

 

i

 

 

j

 

 

 

 

 

i

i

i

 

z

 

z*

z

 

z ,

y

и

z

 

- границы i-го и j-го интервалов квантования соответст-

 

j

j

 

j

 

 

i

 

 

j

 

 

 

 

венно для y и z

17

Вероятность появления символа z *

на выходе канала при условии, что на вход

 

 

 

 

 

 

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

подан символ yi , равна

 

p y*, z*

 

w y* , z*

y z

 

 

 

 

 

 

 

 

 

 

p z*j / yi* =

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

j

=

 

 

i

j

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p y*

 

 

w y*

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Количество информации, содержащееся в символе z j , равно

 

 

 

 

 

 

 

 

I z*j log p(z*j ) log w(z*j ) z .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Условное количество информации,

содержащееся в элементе z *

, если на вход

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j

 

 

 

 

 

 

канала подаѐтся элемент ансамбля y* , равно

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

p yi*, z *j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w( yi*, z

*j ) y z

I z *j / yi* log p(z *j / yi* ) log

 

 

 

 

 

 

 

= log

 

 

 

 

 

 

 

 

 

 

.

 

p( yi* )

 

 

 

w( yi*) y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда количество информации,

содержащееся в элементе

 

z *

относительно

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j

 

 

 

 

 

 

элемента

y* , равно

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w( y

*, z * ) y z

J yi*, z *j

I z *j

I z *j

/ yi* log w(z *j ) z log

 

 

 

 

 

 

i

j

 

 

 

 

 

 

 

 

 

 

w( yi* ) y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w( yi*, z *j ) y z

 

 

 

 

 

w( yi*, z *j )

 

 

 

 

 

 

 

 

 

 

 

 

log

 

 

 

 

 

log

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w( y* )w(z * ) y z

 

 

w( y* )w(z * )

 

 

 

 

 

 

 

 

 

 

i

j

 

 

 

 

 

 

 

 

i

j

 

 

 

 

 

 

 

 

 

 

 

Как видно из последнего выражения, интервалы квантования y

 

и

z не

влияют на количество информации, содержащееся в элементе

 

z j

относительно

элемента yi .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Количество взаимной информации,

содержащееся в ансамбле Z относительно

ансамбля Y , равно

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N N

 

 

 

 

 

 

N

N

 

 

 

 

 

w( yi*, z *j )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

J Y , Z p( yi*, z *j ) J yi*, z *j w( yi*, z *j ) log

 

 

 

 

 

 

y z .

 

 

 

 

 

 

i 1 j 1

 

 

 

 

 

 

i 1 j 1

 

 

 

 

 

w( y

* )w(z * )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

j

 

 

 

 

 

Осуществляя в предыдущем выражении предельный переход x 0 ,

y 0 ,

получим интегральное представление количества взаимной информации, содержащееся в непрерывном ансамбле Z относительно непрерывного ансамбля Y

TH

TH

 

w( y, z)

 

 

 

 

 

J Y , Z w( y, z) log

 

dy dz

0

0

w( y)w(z)

=

 

 

 

 

 

18

TH

TH

w(z / y)

TH

TH

w( y / z)

 

 

 

 

w( y, z) log

 

dy dz

w( y, z) log

 

dy dz J Z ,Y .

w(z)

w( y)

0

0

 

 

0

0

 

 

 

 

 

 

 

 

Количество взаимной информации, содержащееся в ансамбле Z относительно ансамбля Y , равно количеству взаимной информации, содержащееся в ансамбле Y относительно ансамбля Z .

Выразим количество взаимной информации J Y , Z через энтропию ассамблей Y и Z. Для этого используем предыдущую формулу

J Y , Z

TH TH

0 0

TH

TH

w(z / y)

 

 

 

 

w( y, z) log

 

dy dz

 

0

0

 

w(z)

 

 

 

 

 

 

 

 

 

TH

TH

w( y, z) log w(z / y) dy dz

w( y, z) log w(z) dy dz

0 0

h(Z) h(Z /Y) ,

где h(Z) - дифференциальная энтропия на один отсчѐт процесса Z ( t ) ,

h(Z / Y ) - условная дифференциальная энтропия на один отсчѐт процесса Z ( t ) при известном отсчѐте Y ( t ) .

Точно так же можно показать, взаимная информация равна

J Z,Y h(Y ) h(Y / Z )

 

áèò

 

,

 

 

 

 

 

 

 

 

 

î òñ÷¸ò

 

где h(Y) - дифференциальная энтропия на один отсчѐт процесса Y ( t ) ,

h(Y / Z) - условная дифференциальная энтропия на один отсчѐт процесса Y ( t ) при известном отсчѐте Z ( t ) называется ненадѐжностью канала связи.

Рассмотрим h Z / Y - энтропию помехи в непрерывном канале связи. Сигна-

лы на входе и выходе канала связи и помеха описываются линейной зависимостью Z Y , в которой каждая составляющая является непрерывной случайной величиной со своей плотностью распределения вероятности. Условная энтропия

h Z / Y имеет вид:

 

TH

TH

h Z / Y

w( y, z) log w(z / y) dy dz

 

0

0

TH

TH

 

w( y) w(z / y) log w(z / y) dz dy .

0

0

 

19

Положим, плотность распределения вероятности шума известна и равна w ( n ) . В

условной плотности вероятности w(z / y) величина y считается известной. Тогда случайная величина Z при известной величине y зависит только от шума и имеет место w(z / y) dz w (n) dn, откуда получим

w(z / y) w (n)

 

dn

 

w (n) w (z y).

 

 

 

dz

 

 

 

 

 

 

 

 

Из этого выражения видно, что условная плотность w(z / y) зависит только от шума. В результате получим

TH

TH

 

 

 

 

h Z / Y w( y) w (n) log w (n) dn dy h

 

áèò

,

 

 

 

 

0

0

 

î òñ÷¸ò

 

 

 

 

 

т.е. условная энтропия на один отсчѐт h Z / Y равна энтропии шума h на один отсчѐт.

2.3.3 Эпсилон-энтропия (ε-энтропия)

Наличие помехи в канале связи ухудшает качество восстанавливаемого сигнала. Возникает вопрос, до какой степени можно допустить искажение сигнала помехой, чтобы можно было сказать, сигнал, поступивший в канал связи и вышедший из канала связи идентичны Критерии отождествления двух сигналов могут быть самыми различными. Необходимо ввести расстояние ( y , z ) между элементами ансамблей Y и Z . Мерой идентичности ансамблей Y и Z наиболее часто берут математическое ожидание квадрата расстояния между элементами ансамблей Y и Z :

 

 

 

M [ (Y , Z )]

( z y )2 w ( y , z ) dy dz

 

 

 

 

В качестве критерия «сходства» ансамблей Y и Z примем выполнение нера-

венства

 

 

M [ (Y , Z )] 2

(2.21)

где 2 - заранее заданная допустимая мера отклонения «сходства» ансамблей Y и Z .

Заданную меру «сходства» 2 необходимо обеспечить при минимальном количестве меры информации J Z ,Y . Ввиду того, что

J Z,Y H (Y ) H (Y / Z ),

20

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]