Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебники / НЕЛИНЕЙНАЯ ДИНАМИКА СЛОЖНЫХ.pdf
Скачиваний:
599
Добавлен:
30.03.2022
Размер:
28.89 Mб
Скачать

http://profbeckman.narod.ru/

 

 

1

 

 

 

1

 

 

 

1

 

 

 

1

 

 

D(f || g)=

log

2

 

 

log

2

 

0,2075

 

 

3

 

 

 

1

 

 

2

 

 

2

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

4

 

 

 

1

 

 

 

3

 

1

 

 

 

1

 

 

 

 

 

log

 

4

 

log

 

4

 

 

0,1887

D(g|| f)=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

1

 

 

 

 

1

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

2

 

 

 

Энтропию Кульбака-Леблера используют для приближения двумодального распределения p(x) с помощью одномодального распределения q(x).

7.6 Энтропия Реньи

Энтропия Реньи – обобщение энтропии Шеннона.

Как уже упоминалось, классическая термодинамика базируется на распределении Гиббса. Напомним, что распределение (каноническое) Гиббса – распределение состояний макроскопической термодинамической системы частиц, находящейся в тепловом равновесии с термостатом (окружающей средой).

В классическом случае плотность распределения можно представить в виде:

 

p

G

 

e 0Hi

 

 

 

 

i

 

 

ZG

(74)

 

 

 

 

1

 

где 0

 

 

 

, kB

постоянная Больцмана, Т0 – термодинамическая температура, ZG

kBT0

 

 

 

 

 

 

интеграл состояния, гамильтониан состояния системы H={Hi}. Среднее значение энергии

W

 

U H p Hi pi ,

(75)

i

 

где W – число состояний системы, рi – вероятности.

Подстановка распределения Гиббса в информационную энтропию ГиббсаШеннона даёт термодинамическую энтропию термостатики Гиббса

~

 

W

 

(G) kBS

G p G kB ln e Hi .

 

S

(76)

 

 

i

Однако такой подход справедлив только для простых систем. При изучении сложных физических систем и явлений (например, фрактальных и самоорганизующихся структур, турбулентности), а также различных социальных и биологических систем было обнаружено, что распределение Гиббса не обеспечивает согласия с наблюдаемыми явлениями. В частности, оно не совместимо со степенным распределением, характерным для подобных систем. Развитие информационного подхода к описанию существенно неравновесных систем, включающих самоорганизацию структур, привело к введению понятия энтропии Реньи, и её линеаризованной форме – энтропии Цаллиса. Реньи ввёл свою энтропию на основе чисто формальных рассуждений. Он искал наиболее общий класс энтропий, удовлетворяющих требованию аддитивности для статистически независимых событий, получаемых в форме обобщенных средних Колмогорова–Нагумо и был совместим с аксиомами вероятности.

Энтропия Реньи – один из функционалов семейства функционалов, используемых для количественного разнообразия неопределенности или случайности системы.

В теории информации энтропия Реньи обобщает энтропию Хартли, энтропию Шеннона, энтропию столкновений и Min-энтропию.

Альфред Реньи (1960) ввёл энтропию как – момент меры ε-разбиения (покрытия). Энтропия Реньи порядка α

 

 

 

 

 

 

 

 

 

 

 

 

http://profbeckman.narod.ru/

 

 

1

 

 

N

 

 

N

 

 

S

 

 

 

log

2

 

 

p ,

p 1,

0,

1

 

 

 

1

 

 

i

 

i

 

(77)

 

 

 

 

 

i

 

 

i 1

 

Здесь pi=Ni/N(ε), Ni – число элементов системы, приходящихся на i-элемент ε- разбиения, N(ε)-полное число элементов заданного ε покрытия, pi – появление вероятностей событий {x1, x2xn} и log по основанию 2. Если все вероятности одинаковые, тогда все распределения энтропии Реньи равны, Sα(X)=logn. В противном случае, энтропии слабо уменьшаются при увеличении от α.

При записи энтропии Реньи логарифмическая функция была деформирована таким образом, чтобы при больших значениях энергии состояний вероятность их реализаций спадала не экспоненциально быстро, а степенным образом (медленнее), как это реализуется в законе Парето.

Константа может принимать любые значения, однако смысл энтропии Реньи при этом меняется. Более высокие значения α, стремясь к бесконечности, дают энтропию Реньи, которая в большей степени определена через рассмотрение только самых высоких вероятностей событий. Более низкие значения α, стремящиеся к нулю, дают энтропию Реньи, которая в большей степени взвешивает все возможные события более равномерно, независимо от их вероятностей. Промежуточный случай α=1 даёт энтропию Шеннона, которая обладает особыми свойствами. При α=0 максимально возможная энтропия Шеннона, log(N).

В информатике -энтропию Реньи записывают в виде (энтропия Реньи порядка α,

где 0, 1):

Рис. 10. Зависимость энтропии случайной величины от вероятности при различных значениях .

вероятности в дискретном случае

 

 

1

 

N

 

I

p

 

 

pi

 

 

 

 

1

i 1

1

 

1

 

n

 

1

 

 

 

1

 

n

 

S

p

 

ln

p

 

 

 

 

log

2

p

;

p 1,

,

 

 

 

1

 

i

1

 

 

 

i

 

 

 

i 1

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(78)

где pi – появление вероятностей событий {x1, x2...xn} и log по основанию 2 (для счёта в битах).

Содержание информации распределения

(79)

Оно переходит в информацию Шеннона при 1.

Если вероятности pi=1/n (объект однороден, то все энтропии Реньи (для любого α) равны, Sα(х)=logn. Иначе α-энтропия слабо уменьшается при росте α.

Энтропия Реньи не отрицательна (SR(Х)0), S (0,1)=S (1,0), для 1 энтропия Реньи вогнута, для >1 S (Х) не чисто выпукла и не чисто вогнута: теряет вогнутость при

>*>1, где * зависит от N и подчиняется соотношению * 1

ln 4

.

 

ln N 1

http://profbeckman.narod.ru/

Рис. 11. Различные меры энтропии меры для выборок из однородных вероятностей с

N = 10. Энтропия Реньи и информации стремятся к энтропии Шеннона при →1. Правая изображение представляет собой увеличенный вид точки пересечения кривых, представленной на левой картинке.

Так как 1

S X

1

S X

для ,

(-1)S (x) –

вогнутая функция Х, S (X) –

 

 

 

 

 

 

 

 

ограниченная, непрерывная и не увеличивающаяся функция , энтропии Реньи для различных коррелируют.

Энтропия Реньи переходит в энтропию Больцмана при любых в случае равновероятности распределения p. При 0 энтропия Реньи (это энтропия Хартли, определяющая количество информации, содержащееся в сообщении), взвешивает возможные события более равномерно, менее зависимо от их вероятностей; при =0 достигается максимально возможная энтропия =log(N) независимо от распределения (лишь бы рi0): S 0(X)=logN=log|X| (логарифм мощности множества X называется энтропией Хартли множества X).

При =1 – энтропия Шеннона (с точностью до основания логарифмов, т.е.

N

постоянного множителя): S 1(X) pi log pi .

i 1

При 1 – энтропия взвешивает события более равномерно, менее зависимо от их вероятностей; при =1 – термостатика Гиббса.

При =2, S

N( )

2

 

– энтропия столкновений; Х и Y

log

p

 

logP X Y

2

 

i

 

 

 

 

i 1

 

 

 

независимые и идентичные распределения. Квадратичная энтропия довольно широко используется в физике, обработке сигналов и экономике.

При энтропия определяется лишь самыми высокими вероятностями событий;

существует предел S (X ) min log pi

 

 

 

log max pi

min-энтропия

max log pi

i

 

i

 

i

 

(наименьшее значение S ). Мин-энтропия S - наибольшее действительное число b такое, что все события происходят с вероятностью 2-b. Это наименьшая мера энтропии в семействе Реньи энтропий и обеспечивает наилучший способ измерения информационного содержания дискретной случайной величины. В частности, минэнтропия никогда не превышает энтропию Шеннона. Мин-энтропия имеет важные приложения для экстракторов случайностей в сфере теоретической информатики: Экстракторы способны извлекать хаотичность из случайных источников с большой минэнтропией; там, где большой энтропии Шеннона не хватает для решения этой задачи.

При |1-|=| |<<1 S переходит в энтропию Цаллиса Sq, т.е. в отличие от обобщённой энтропии Реньи, в случае двух статистически независимых систем,

обладающих

 

 

W1

 

и

W2-состояниями,

соответственно,

полная

энтропия

S(W1W2) S(W1)+S(W2) – энтропия не аддитивна.

 

 

 

 

Неравенство между различными значениями α:

 

 

 

logN=S

0

S

S

S

 

(80)

 

 

 

 

 

1

 

2

 

 

 

 

 

 

При >1 выполняется неравенство в противоположном направлении. В частности,

S <S 2<2S . Энтропия Шеннона S1 может быть сколь угодно высокой для величины

случайной переменной X с фиксированной мин-энтропией.

 

 

n

Неравенства можно представить в виде

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

log pi2

logsuppi2

 

2logsuppi

 

(81а)

 

i 1

 

 

 

i

 

 

 

 

 

 

 

 

n

2

 

 

 

 

n

 

 

 

(81б)

 

log pi

logsuppi

pi

logsuppi

 

 

i 1

 

 

i

i 1

 

 

 

 

 

 

 

http://profbeckman.narod.ru/

M

M

 

S 1(x) S 2(x), т.к. pi log pi

log pi2

(81в)

i 1

i 1

 

sup - cупремум точная верхняя грань.

Спектр расхождения (дивергенции) Реньи обобщает расхождения КульбакаЛейблера. Расхождение Реньи порядка α (-дивергенция), где α>0, распределения P от распределения Q определяется:

D P || Q

1

 

n

p

 

 

 

 

log

 

i

 

 

 

 

 

1

 

 

1

 

 

 

 

(82)

 

i 1

qi

 

 

при 0<α<∞ и ≠1. Так определённое расхождение принимает неоотрицательные значения и является неубывающей функцией . В частном случает при =1 это преобразование определяется по формуле

 

 

1

 

n

 

D

(p,q)

 

ln pi qi1

 

 

 

 

1

i 1

(83)

 

 

 

 

называется расхождением Кульбаха-Лейблера.

Расхождение Реньи (-расхождение) используют, например, для сравнения изображений.

Определить дивергенцию Реньи для некоторых значений α=0, 1, ∞ можно, переходя к пределам. Так, предел α→1 даёт дивергенцию Кульбака-Лейблера.

S – не увеличивается с ростом , что можно доказать дифференцированием

 

 

dH

 

 

 

1

n

 

z

 

 

 

 

 

 

 

 

 

zi

i

 

 

 

 

 

 

log

 

 

 

 

 

d

 

 

1

i 1

 

p

 

 

(84)

 

 

p

 

 

 

 

 

 

 

 

i ,

где zi

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

.

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

pj

j 1

Дифференциал пропорционален дивергенции Кульбаха-Лернера, которая всегда не отрицательна. Это расхождение также известно как -дивергенция.

Энтропию Реньи первого порядка называют информационной энтропией, а энтропию Реньи второго порядка – корреляционной энтропией.

Для непрерывного распределения случайной величины

S

X

1

log

 

p x dx

 

 

1

 

(85)

 

 

 

 

и для квадратичной энтропии

S 2 X log p2 x dx

Заметим, что квадратичная энтропия не является положительной, она может быть произвольно большой отрицательной.

Реньи предложил меру дивергенции, отличную от Кульбаха-Лернера

 

 

1

 

D f | g

1 1 log f (x) gf

(86)

((xx))

dx

Термостатистика Реньи является обобщением, включающим в себя термостатистику Гиббса как частный случай, соответствующий значению =1 параметра Реньи. В отличие от энтропии Гиббса–Шеннона, -энтропия возрастает с увеличением отклонения распределения от распределения Гиббса (с ростом параметра порядка η=1-) и достигает своего максимума при максимально возможном значении ηmax; при этом распределение Реньи становится степенным распределением. Переход от распределения Гиббса, описывающего состояние динамического хаоса, к степенным распределениям Реньи, характерным для упорядоченных самоорганизованных систем, соответствует

http://profbeckman.narod.ru/

возрастанию “параметра порядка” η от нулевого значения при q=1 до ηmax=1-qmin. При этом энтропия Гиббса–Шеннона переходит в энтропию Реньи.

Переход от обычной термостатистики Гиббса к термостатистике Реньи носит характер фазового перехода упорядочения (переход от менее к более упорядоченному состоянию) с параметром порядка η – энтропийный фазовый переход. Можно показать, что, по крайней мере, в случае степенного гамильтониана, энтропия Реньи максимальна при наибольшем возможном значении параметра порядка η (при этом распределение Реньи становится степенным распределением), в то время как обычная энтропия максимальна при η=0 и убывает с ростом η. Поэтому, если в качестве статистического определения энтропии выбрать не выражение Гиббса–Шеннона, а более общую форму Реньи, то эволюция системы в более упорядоченные состояния (самоорганизация), сопровождаемая ростом термодинамической энтропии, становится предпочтительнее деградации.

При η=0 (точка фазового перехода) производная энтропии по параметру порядка η испытывает скачок - фазовый переход в более упорядоченное состояние с параметром порядка η 0: естественная эволюция в направлении самоорганизации. В результате энтропийного фазового перехода система переходит в более упорядоченное состояние. В частности, если параметр порядка представляет собой приращение температуры, то этот скачок соответствует скачку теплоемкости, характерном для фазовых переходов второго рода. Здесь мы имеем дело с переходом от термостатистики Гиббса к термостатистике Реньи, соответствующей не нулевым значениям параметра порядка η. В отличие от обычного фазового перехода, условия реализации которого определяются только температурой перехода, условия реализации энтропийного перехода, по-видимому, определяются по-своему для каждой конкретной системы. Например, порог возникновения турбулентности как упорядоченной структуры определяется критическим числом Рейнольдса, а появление ячеек Бенара при тепловой конвекции – критическим числом Рэлея.

Замечание. В термостатистике Реньи в соответствии со вторым началом термодинамики (принципом возрастания энтропии) эволюция систем в упорядоченной фазе с параметром порядка η>0 ( <1) идёт в направлении самоорганизации, т.е. роста η→ηmax. Необоснованное применение энтропии Гиббса–Шеннона (т.е. частного случая энтропии Реньи с η=0) к подобным системам предсказывает противоположное направление эволюции к состоянию “тепловой смерти”, η→0.

Социальные, экономические и биологические системы реализуются, как правило, в упорядоченной самоорганизованной форме, в связи с чем для них характерны именно степенные и близкие к ним распределения, но не распределение Гиббса.

Зависящая от термодинамическая энтропия в термостатистике Реньи определяется как энтропия Реньи для распределения Реньи. Максимум максиморум этой энтропии достигается при наименьшем = min, т.е. при наибольшем возможном значении параметра порядка η. Распределение Реньи при таком η переходит в степенное распределение, характерное для сложных систем. Переход от обычной термостатистики Гиббса к термостатистике Реньи носит характер фазового перехода упорядочения с параметром порядка η. Как только система перейдёт в это новое фазовое состояние термостатистики Реньи, в ней будет спонтанно развиваться самоорганизация более упорядоченного состояния, сопровождаемая ростом термодинамической энтропии. Такое поведение энтропии устраняет противоречие между вторым законом термодинамики и эволюцией системы в сторону самоорганизации.

Энтропии Реньи играют важную роль в экологии и статистике, определяя индексы разнообразия. Энтропия Реньи также важна в квантовой информации, она может быть использована в качестве меры сложности. В цепочке Гейзенберга XY энтропия Реньи была рассчитана в терминах модульных функций, зависящих от α. Они также приводят к спектру показателей фрактальной размерности.

http://profbeckman.narod.ru/

Распределение Реньи отличается от распределения Гиббса и может быть представлено в виде:

1

 

 

1

 

1

 

 

 

p R

 

1

H

1

 

 

i

i

 

R

 

 

 

Z

 

 

 

 

 

 

 

 

1

 

R

W

1

 

1

 

Z

1

 

 

Hi

,

 

 

i

 

 

 

где Hi=Hi-U.

(87)

(88)

При 1 распределение {piR} переходит в каноническое распределение Гиббса, а

 

1

 

 

 

 

0

kBT0 .

(89)

 

Физическая температура в термостатистике Реньи

совпадает с обычной

термодинамической температурой T0.

Важным достижением Реньи является установление формулы связи между энтропией и континуумом мультифрактальных размерностей, что позволило достаточно просто решать проблемы фрактальной параметризации как конструктивных фракталов, так и природных структур. Этот тип энтропии используется для создания индексов разнообразия в экологии и статистике, как мера сложности в квантовой информации, при расчёте спектра показателей фрактальной размерности, при анализе адронных систем, при

описании дробной диффузии, многофрактальных систем, турбулентности, при анализе землетрясений.

Рис. 12. Спектры Реньи для двухкомпонентой системы с различной массой.

Таким образом, переход от обычной термостатистики Гиббса к термостатистике Реньи носит характер фазового перехода упорядочения с параметром порядка η. Как только система перейдет в это новое фазовое состояние термостатистики Реньи, в ней начинает спонтанно развиваться самоорганизация более

упорядоченного состояния, сопровождаемая ростом термодинамической энтропии.

http://profbeckman.narod.ru/

Рис. 13. Сравнение зависимостей энтропий Шеннона, Цаллиса и Реньи от вероятности события при различных значениях параметра (как положительных, так и отрицательных.

При исследовании множества объектов вводится понятие спектра Реньи. Пусть имеется неоднородное множество объектов (т. е. такое, в каком они имеют разные массы) и посмотрим, как ведёт себя общая энтропия Реньи этого множества при изменении порядка α. На рис. 12 даны примеры для множеств из двух компонентов с различными массами. Спектры имеют характерную форму, которая зависит от степени неоднородности множества: чем больше разница между крупнейшим объектом и малейшим из них, тем выше и отчетливее ступенька при переходе от отрицательных значений α к положительным. При очень больших значениях α общая энтропия Реньи стабилизируется у уровня, который равен частной шенноновской энтропии крупнейшего объекта множества. Наоборот, при стремлении α к минус бесконечности, общая энтропия стремится к уровню частной шенноновской энтропии малейшего объекта множества.

Существует взаимосвязь между информацией и структурой: каждая структура несёт в себе информацию, структура не возможна без информации, а информация невозможна сама по себе, без носителя, структуры.

Рассмотрим самоподобное множество, порождённое сегментами одинаковой длины с одним показателем скейлинга – размерность Хауздорфа. Далее к каждому отрезку множества аi припишем свой собственный вес pi. Тогда энтропия Реньи

 

 

1

N

 

 

N

 

 

 

S

 

 

 

ln

 

p ,

 

p

i

1

 

 

 

1

 

i

 

 

(90)

 

 

 

i

 

 

i 1

 

 

Энтропия Реньи позволяет позволяет вычислять показатель фрактала. Показатель фрактала вводится как предел

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

S

 

 

 

1

 

log

pi

 

 

 

 

 

 

 

i 1

 

 

(91)

d

lim

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

1

 

 

a 0

 

 

 

 

 

 

log

 

 

 

 

 

log

 

 

 

 

 

 

 

 

а

 

 

 

 

 

а

 

 

 

 

 

 

 

 

где S ( ) – энтропия Реньи.

Для характеристики фрактала и тем более мультифрактала используют первые три размерности Реньи: d0 – обычная хаусдорфова размерность множества A, d1 – информационная размерность и d2 – корреляционная размерность.

Как уже упоминалось, выборочная энтропия Шеннона определяется из

n(a )

соотношения H a pi log2 pi , где a – элемент покрытия. При уменьшении размеров

i 1

покрытия a0 и роста числа элементов этого покрытия N(a)∞, энтропия Шеннона, как мы помним, неограниченно возрастает H(a)∞. Однако предел

d1

lim

H (a)

 

(92)

 

 

1

 

 

a 0

log

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

a

 

может существовать. Если такой предел действительно существует, то им определяется величина d1, которая получила название информационной размерности. В том случае, если предела (92) не существует, вводят понятие верхней и нижней информационной размерности:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H (a)

 

 

(93а)

d1inf

liminf

 

 

 

 

 

 

;

 

 

1

 

 

a 0

 

 

 

 

 

log

2

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H (a)

 

 

d

limsup

 

 

 

 

;

 

 

 

 

1sup

a 0

 

1

 

 

 

log2

 

 

 

 

 

 

 

 

 

a

 

http://profbeckman.narod.ru/

(93б)

Мы знаем, что энтропия достигает своего максимального значения при равенстве вероятностей pi=1/N(a). В этом случае из формулы (92) получаем

d1

lim

log

2

N (a)

(94)

 

 

1

 

 

a 0

log2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

что с точностью до основания логарифмов (что не существенно) совпадает с формулой для размерности Хауздорфа, то есть в этом предельном случае d1=d0.

Втеории динамических систем предел (94) называют фрактальной размерностью или ёмкостью аттрактора. Если же предела (94) не существует, то говорят о нижней и верхней емкости аттрактора.

Втермодинамике энтропия есть мера беспорядка в системе. Поскольку S d1 ,

то величина d1 характеризует информацию, необходимую для определения местоположения точки в некоторой ячейке. В связи с этим обобщенную фрактальную размерность d1 часто называют информационной размерностью. Она показывает, как информация, необходимая для определения местоположения точки, возрастает при стремлении размера ячейки к нулю.

Введём теперь корреляционную размерность d2.

Кореляционный интеграл I( ) отражает вероятность того, что две произвольно выбранные точки из множества A лежат внутри одной ячейки с размером .

N

 

 

 

 

 

 

 

 

 

 

 

I pi2 d2 .

 

 

 

 

 

(95)

i 1

 

 

 

 

 

 

 

 

 

 

 

Корреляционная

размерность

 

 

d2

определяет

зависимость корреляционного интеграла I( ) от .

Рис.14 . Типичный вид функции f(a).

Корреляционная размерность, d2

определяется

через корреляционный интеграл:

 

 

 

 

 

 

C(a) lim

1

 

N a

 

X

i

X

j

 

.

 

 

 

 

 

 

 

N N

2

 

 

 

 

 

 

 

 

 

 

i, j 1,i j

 

 

 

 

 

 

 

 

(96)

Здесь N – число выборок, Xi, Xj – векторы положения точек i и j, η(Y) – функция Хевисайда (функция принадлежности к интервалу a). Значение С(a) определяет относительное число пар точек, расстояние между которыми не больше a. Если предел

d2

lim

ln C a

 

(97)

 

 

a 0

1

 

 

 

 

ln

 

 

 

 

 

 

 

 

 

a

 

 

существует, то его значение d2, называется корреляционной размерностью.

Таким образом, хауздорфова размерность d0 – характеризует «пористость» или плотность объекта, то есть то, как объект заполняет собою пространство вложения. Информационная размерность d1 играет важную роль в анализе нелинейных динамических систем, особенно при описании потери информации в ходе эволюции хаотических систем. В этом плане она связана с показателями Ляпунова и энтропией Колмогорова. Это – количественный параметр системы, характеризующий меру её хаотичности. со временем система изменяется и эти процессы влекут за собой

http://profbeckman.narod.ru/

существенные вариации ее информационной размерности, то это говорит о том, что эти процессы могут быть связаны с ростом или диссипацией неравновесных структур, т. е. переходам типа хаос – порядок или наоборот. Таким образом, информационная размерность позволяет количественно отслеживать направление и темп эволюционных процессов, таких как самоорганизация в среде структур разных уровней или, напротив, распад организованных структур и общая хаотизация.

Корреляционная размерность d2 определяется корреляциями между элементами, составляющими среду, то есть вероятностью найти на расстоянии a от данного элемента множества один или несколько элементов того же множества. Эта размерность является также мерой иерархического скучиванья, т. е. характеризует упорядоченность внутренней структуры объекта. Её теоретическая значимость обусловлена тесной связью с корреляционными функциями, которые определяют все физические особенности рассматриваемой среды.

Вглаве, посвящённой фракталам, мы упомянули понятие мультифрактала.

Врамках конструктивных фракталов мультифрактал можно определить как «нагруженный» фрактал, в котором каждому элементу аi ставится в соответствие некий «вес» или вероятность pi. Для количественного описания мультифракталов рассчитывается спектр размерностей, соответствующих особенностям данного мультифрактала.

Мультифрактал — комплексный фрактал, который может детерминироваться не одним единственным алгоритмом построения, а несколькими последовательно сменяющими друг друга алгоритмами. Каждый из них генерирует паттерн со своей фрактальной размерностью.

Мультифрактальный анализ ведётся с использованием энтропии Реньи. Энтропия как мера хаотичности и мультифрактальность, как мера структурной упорядоченности являются взаимно дополняющими понятиями. Можно показать, что континуум мультифрактальных размерностей связан с энтропией Реньи. Это обстоятельство позволяет решить проблему фрактальной параметризации, как конструктивных фракталов, так и природных структур.

Мультифракталы описываются обобщёнными фрактальными размерностями Реньи, d . Всю совокупность величин d изучаемого объекта называют спектром размерностей Реньи данного объекта. Здесь при исследовании объекта вводят вероятностную меру pi и вычисляют энтропию Реньи, что в свою очередь позволяет находить весь мультифрактальный спектр размерностей Реньи и физически адекватно интерпретировать получаемые результаты.

Рассмотрим фрактальный объект, занимающий некую ограниченную область A, имеющую diamA=L в евклидовом пространстве размерности n. Пусть на каком-то этапе его построения он представляет собой множество точек из N>>1, как-то распределенных в этой области. В конце концов, предполагаем, что N . Множество точек может представлять собой некоторую популяцию, состоящую из особей одного вида распределенных по области A. Такой популяцией могут быть, например, народонаселение или сеть метеостанций. Обе популяции неравномерно распределены по поверхности Земли. Важно, что неравномерное распределение особей остается в силе независимо от линейного масштаба. Разобьём всю область A на гиперкубические ячейки со стороной и объемом d соответственно. Важны только занятые ячейки, в которых содержится хотя бы

одна точка. Обозначим N( ) число таких ячеек, оно очевидно

зависит от . Пусть ni( ) –

число точек в i-й ячейке. Тогда величина pi

lim

ni

 

– вероятность того, что

 

 

N N

 

http://profbeckman.narod.ru/

некоторая точка содержится в i-м кубике. Она характеризует относительную заселенность

N

ячейки. По правилу нормировки вероятностей: pi 1.

i 1

Введём в рассмотрение обобщенную статистическую сумму, характеризуемую показателем :

N

 

Z , pi ,

(98)

i 1

 

где - + .

 

Спектром обобщенных фрактальных размерностей

Реньи, характеризующих

распределение точек в области А, называется совокупность величин:

d

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

(99)

 

 

 

ln Z ,

 

 

 

 

 

 

 

 

где lim

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

ln

 

 

 

 

 

 

 

 

 

 

 

Обобщенные фрактальные размерности Реньи

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

S a

1

 

log

pi

 

 

 

 

 

 

 

i 1

 

 

 

d

lim

 

 

 

 

 

 

 

 

,

(100)

 

1

 

1

 

1

 

 

 

a 0

 

 

 

 

 

 

 

 

 

log

 

 

 

 

log

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

a

 

 

Для обычного однородного фрактала все эти размерности совпадают. Если d = const, т.е. не зависит от , то рассматриваемое множество точек представляет собой обычный, регулярный фрактал, который характеризуется всего лишь одной величиной – фрактальной размерностью df. Напротив, если функция d как-то меняется с , то рассматриваемое множество точек является мультифракталом.

В формуле (100) порядок может принимать значения в интервале +< <–. Нетрудно показать, что d – монотонно невозрастающая функция , т.е. при < ’, d d . Знак равенства возникает лишь в исключительных случаях идеальных самоподобных фракталов, например, все размерности dq равны для канторова множества. Всю совокупность величин dq рассматриваемого объекта называют спектром размерностей Реньи данного объекта.

Мультифрактал характеризуется нелинейной функцией ( ),определяющей поведение статистической суммы Z( , ) при 0

N ( )

Z , pi .

(101)

i 1

В случае обычного фрактала функция ( )=( -1)d линейна. Тогда d =d не зависят от . Фрактал, все обобщенные фрактальные размерности d которого совпадают, назвают монофракталом.

Если распределение точек по ячейкам неодинаково, то фрактал является неоднородным, т.е. представляет собой мультифрактал, и для его характеристики необходим целый спектр обобщенных фрактальных размерностей d , число которых, в общем случае, бесконечно. Так, например, при основной вклад в обобщеннную статистическую сумму вносят ячейки, содержащие наибольшее число частиц ni в них и, следовательно, характеризующиеся наибольшей вероятностью их заполнения pi. Наоборот, при - оcновной вклад в сумму дают самые разреженные ячейки с малыми значениями чисел заполнения pi. Таким образом, функция d показывает, насколько неоднородным является исследуемое множество точек A.

Обобщенные фрактальные размерности d для некоторых конкретных значений имеют определённый физический смысл. Так, при =0 N( ) d0, т.е. величина d0