Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Тырсин А.Н. - Системный анализ. Модели и методы (без обложки)

.pdf
Скачиваний:
96
Добавлен:
28.11.2019
Размер:
3.68 Mб
Скачать

H ( X ) pX (x) ln pX (x)dx ,

где pX(x) – плотность распределения случайной величины X.

Представим сложную стохастическую систему S в виде многомерной непрерывной случайной величины Y (Y1, Y2 , ... , Ym ) , имеющей некоторую

– совместную плотность распределения pY (x1, x2 , , xm ) . Каждый элемент

Yi этого вектора является одномерной случайной величиной, которая характеризует функционирование соответствующего элемента исследуемой системы. Элементы могут быть как взаимозависимыми, так и не зависеть друг от друга.

В [73] доказано, что если все компоненты Yi

имеют дисперсии Y2 , то

 

 

 

 

 

 

 

 

 

i

дифференциальная энтропия (далее энтропия) H(Y) случайного вектора Y

равна

 

 

 

 

 

 

 

 

 

 

m

m

 

1 m

 

 

 

 

H (Y) ln Y

i

 

 

ln(1 RY2

/ Y Y ...Y

) ,

(8.2)

 

 

 

i

 

2 k 2

k

1 2 k 1

 

 

 

i 1

i 1

 

 

 

 

 

где i H (Yi / Y )

– энтропийный показатель типа закона распределения

 

i

 

 

 

 

 

 

 

 

случайной

величины Yi;

 

 

R2

/ Y Y ...Y

 

индексы

детерминации

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

k

1 2 k 1

 

 

 

регрессионных зависимостей.

 

 

 

 

В (8.2) первые два слагаемых

 

 

 

 

 

m

m

 

 

 

m

 

 

 

H (Y)V

H (Yi ) ln

Y i

 

 

(8.3)

 

i 1

i 1

 

 

i

i 1

 

 

 

 

 

 

 

 

 

 

представляют собой энтропию случайного вектора с взаимно независимыми компонентами и названы энтропией хаотичности, а третье

 

1

m

RY2

 

 

 

H (Y) R

 

ln(1

/ Y Y ...Y

)

(8.4)

 

 

2 k 2

k

1 2 k 1

 

 

 

 

 

 

энтропией самоорганизации.

Если случайный вектор Y имеет совместное нормальное

m

распределение, его энтропия хаотичности H (Y )V ln Yi mln 2 e , а

i 1

 

H (Y )R

1

 

 

 

 

энтропия самоорганизации

ln

R Y

, где

RY

определитель

2

 

 

 

 

 

 

 

корреляционной матрицы многомерной случайной величины Y .

Согласно (8.2) энтропия H(Y) обладает триализмом. Существуют три причины ее изменения: изменение степени рассеяния ее компонент, изменение форм распределений ее компонент и изменение тесноты корреляционных связей между ее компонентами.

Достоинством формулы (8.2) является то, что энтропийное моделирование многомерных стохастических систем на ее основе не требует знания или определения закона распределения многомерной

141

случайной величины Y, что практически нереализуемо в реальных задачах. При этом в отличие от методов многомерного статистического анализа, здесь не теряется формальная строгость и соответствие (8.2) реальным экспериментальным данным. Это позволяет использовать формулу (8.2) для моделирования и исследования реальных многомерных стохастических систем и процессов по экспериментальным данным ограниченного объема.

При моделировании вместо (8.2) более оправданно векторное представление энтропии [74]

h(Y) (hV ; hR ) (H (Y)V ; H (Y)R ) .

(8.5)

Исследуем выражение (8.3) с позиции его использования в виде диагностической модели сложных стохастических систем.

8.2. Энтропия как диагностическая модель

Согласно (8.2) (8.5) параметрами энтропийной модели являются:

-средние квадратические отклонения Yi компонент Yi.,

-энтропийные показатели i законов распределений, i 1, 2, ..., m ,

-индексы детерминации RY2k / Y1Y2 ...Yk 1 регрессионных зависимостей между

компонентами случайного вектора Y, k 2, 3, ..., m .

Это конкретные показатели, характеризующие, отдельные компоненты случайного вектора, а значит, и соответствующие элементы исследуемой системы. По изменениям этих показателей на основе векторного представления (8.5) можно будет делать лаконичные и интерпретируемые выводы при условии достижения поставленных в работе целей.

Диагностическая модель должна объяснять изменения, происходящие в исследуемом объектов процессе функционирования, в динамике. Рассмотрим с этих позиций энтропию случайного вектора (8.2).

Пусть стохастическая система представима в виде случайного вектора Y. Тогда на основе (8.2), (8.5) можно осуществлять мониторинг состояния стохастической системы путем анализа изменения ее энтропии. Это можно сделать следующим образом. Будем считать, что два случайных вектора

Y(1) (Y (1)

,Y (1)

,...,Y (1) )

и

Y(2) (Y (2)

,Y (2

,...,Y (2) )

соответствуют

1

2

m

 

1

2

m

 

предыдущему и текущему периодам функционирования системы. Считаем, что дисперсии всех компонент случайного вектора конечны.

Для диагностирования состояния многомерной стохастической системы будем придерживаться следующих этапов:

1)определение поведения системы (стабильная/нестабильная), поиск зависимостей поведения системы от времени, критических значений;

2)обнаружение характера изменения в системе («хаотичность» или

142

«самоорганизация») в критических периодах;

3)на основании обнаруженной причины, проведение анализа: какой элемент системы оказался причиной изменения ее состояния;

4)формулирование вывода о влиянии изменения в системе с учетом выявленных критических моментов и причин их появления.

Случай 1. Рассмотрим вначале случай, когда распределения всех

соответствующих компонент Y

(1) , Y (2)

( i 1, 2, ..., m ) описываются

i

i

 

однотипными законами распределения с некоторыми параметрами положения и масштаба. Это означает, что i i(1) i(2) . Тогда разность энтропий H (Y) H (Y(2) ) H (Y(1) ) определяется как

m Y ( 2)

H (Y) ln i

i 1 Yi(1)

m ( 2)

где H (Y)V ln Yi

i 1 Yi(1)

 

1

m

1 R

2( 2)

/ Y

( 2)

...Y

( 2)

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

ln

 

 

k

1

 

k 1

 

,

 

 

(8.6)

 

1 R2(1)

 

 

 

 

 

 

 

 

 

2 k 2

 

(1)

 

(1)

 

 

 

 

 

 

 

 

 

 

Yk

/ Y1

 

...Yk 1

 

 

 

 

 

, H (Y)R

1

m

 

 

1 RY2( 2) / Y ( 2) ...Y ( 2)

.

 

ln

 

 

 

2

1

k 1

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

2 k 2

 

1 R (1)

(1)

(1)

 

 

 

 

 

 

 

 

 

 

 

 

Yk

/ Y1

...Yk 1

 

При однотипности всех пар компонент Yi(1) , Yi(2) вместо триализма

имеем частный случай дуализма, т. е. энтропия может меняться только изза изменения рассеяния (дисперсий) компонент случайного вектора или за счет изменения тесноты корреляционной связи между этими компонентами.

Вклад любой l-й компоненты в изменение энтропии хаотичности

H (Y)V ,l

ln

Y

( 2)

, l 1, 2, , m .

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

(1)

 

 

 

 

 

 

 

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

Поскольку R2

/ Y Y ...Y

R2

 

/ Y Y ...Y

... R2

/ Y

, то

предельный

 

 

Y

Y

 

Y

 

 

 

 

m

1 2

m 1

m

1 2 m 2

m 1

 

 

индекс детерминации

R2

/ Y Y ...Y

наиболее достоверно

описывает

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

m

1 2

m 1

 

 

 

 

зависимость компоненты

Ym

от остальных (m – 1)

компонент. Поэтому

оценивать вклад произвольной l-й компоненты в изменение энтропии самоорганизации целесообразно через предельные значения индексов детерминации

 

1

 

1 R 2( 2)

/ Y

( 2)

...Y

( 2) ( 2)

...Y

( 2)

 

 

 

Y

 

Y

 

 

H (Y) R,l

 

ln

l

1

l 1 l 1

m

, l 1, 2, , m .

2

2

 

 

 

 

 

 

 

 

1 RYl(1)

/ Y1(1) ...Yl(11)Yl(11) ...Ym(1)

 

 

 

 

 

Суммарный вклад l-й компоненты в изменение энтропии случайного

вектора определяется как H (Y)l

H (Y)V ,l H (Y)R,l .

Случай 2. Рассмотрим общий случай, когда распределения хотя бы одной пары компонент Yi(1) , Yi(2) не описываются однотипными законами

143

распределений. Тогда разность энтропий H (Y) H (Y(2) ) H (Y(1) ) равна

 

m

 

Y ( 2)

 

m

 

 

 

1 m

1 RY2( 2)

/Y ( 2) ...Y ( 2)

 

 

 

 

 

 

H (Y) ln

 

 

 

 

i

 

 

( i(2)

 

i(1) )

 

ln

 

k

1

k 1

,

 

 

 

(8.7)

 

 

 

 

 

 

 

1 R2(1)

 

 

 

 

 

 

i 1

 

 

 

(1)

 

i 1

 

 

 

2 k 2

(1)

(1)

 

 

 

 

 

 

 

 

 

 

 

 

 

Yi

 

 

 

 

 

 

 

 

 

Yk

/ Y1

...Yk 1

 

 

 

 

 

 

 

m

 

 

 

Y

( 2)

 

m

 

 

(1)

 

 

 

1 m

1 RY2( 2)

/ Y

( 2) ...Y ( 2)

 

 

 

 

 

 

 

 

i

(2)

 

 

 

 

 

ln

 

k

 

1

 

k 1

 

где H (Y)V

ln

 

 

 

 

 

 

( i

 

i ) ,

H (Y)R

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

2

 

 

 

 

 

 

i 1

 

 

 

Y

(1)

 

i 1

 

 

 

 

 

 

2 k 2

1 R

(1)

/ Y

(1)

...Y

(1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

k

1

k 1

 

Поскольку

i(2)

i(1) 0 ,

то

появляется

третий фактор

изменения

энтропии из-за изменения типа распределения. Например, разность между энтропийными показателями нормального распределения и распределения

Лапласа равна ln 2 e lne2 12 ln e . Это изменение эквивалентно

увеличению дисперсии случайной величины в / e 1,16 раз.

Таким образом, случай сохранения типов законов распределений компонент случайного вектора проще реализуем и не требует определения энтропийных показателей компонент. Но нарушение этого условия может привести к значительным ошибкам в оценивании динамики энтропии, а, значит, и к снижению достоверности диагноза о состоянии системы.

Отслеживая изменение H (Y) энтропии в целом и ее составляющих,

можно сделать выводы о состоянии исследуемой стохастической системы и обнаружить зарождающиеся тенденции изменения состояния. Анализ изменения каждой из компонент случайного вектора Y позволит выявить те из них, которые оказали наибольшее влияние на изменение энтропииH (Y) , а значит, и на изменение состояния системы.

8.3. Энтропия как модель сложной системы

Рассмотрим соответствие энтропии случайного вектора модели сложной системы. Для удобства интерпретации результатов рассмотрим случай гауссовского случайного вектора Y , т.е.

h(Y ) (H (Y )V ; H (Y )R ) ,

mln

(8.8)

где H (Y )V H (Yi ) ln Y

2 e , H (Y )R 1 ln R Y

m

m

 

 

 

 

 

 

 

 

i

 

2

 

 

 

 

 

 

 

 

i 1

i 1

 

 

 

 

Адекватная модель сложной системы должна объяснять ее поведение, удовлетворять общесистемным закономерностям и позволять моделировать воздействия на нее с помощью управляющих переменных. Исследуем выражение (8.8) с этих позиций [75].

1. Наличие основных системных закономерностей.

Модель (8.8) должна в том или ином виде описывать основные системные закономерности. Рассмотрим каждую их них.

144

Целостность и аддитивность. Закономерность целостности

проявляется в системе в возникновении новых обобщающих качеств, не свойственных образующим ее элементам. Двумя сторонами целостности являются:

- свойства системы (целого) Q не являются суммой свойств элементов

n

(частей) qi: Q qi ;

i 1

-свойства системы зависят от свойств ее элементов: Q f (q1, , qn ).

Энтропия

удовлетворяет данной закономерности, поскольку

m

 

H (Y) H (Yi )

и H (Y) f (H (Y1 ), H (Y2 ),..., H (Ym )) .

i 1

 

Аддитивность – двойственная по отношению к целостности закономерность, состоящая в рассмотрении целостного объекта как состоящего из частей. При абсолютной аддитивности система

m

представляется распавшейся на независимые элементы, т.е. Q qi . В

i 1

этом крайнем случае говорить о системе как таковой нельзя. Для энтропии: - абсолютная аддитивность (не целостность) достигается при RY 1, что

соответствует взаимной независимости случайных величин Y 1, Y 2, … , Y m, в этом случае H (Y )R 0 ;

- абсолютная не аддитивность (целостность) достигается при RY 0, что

соответствует взаимной зависимости случайных величин Y 1, Y 2, … , Y m;, при которой индивидуальность хотя бы одного элемента системы полностью подавляется другими элементами, здесь H (Y )R .

Очевидно, что любая система всегда находится между крайними состояниями абсолютной целостности и абсолютной аддитивности, и ее состояние можно охарактеризовать степенью проявления этих свойств. Энтропийная модель (8.8) это учитывает.

Изолированность и коммуникативность. Закономерность

изолированности состоит в том, что совокупность объектов, образующих систему, и связи между ними можно ограничить от их окружения и рассматривать изолированно. Изолированность системы может быть достигнута в условиях закрытости системы. Коммуникативность – это закономерность, двойственная относительно изолированности. Она характеризует взаимосвязанность системы со средой. В рамках энтропийного подхода изолированность означает, что система не обменивается с окружающей средой энергией, веществом и информацией, а коммуникативность – наоборот, наличие такого обмена.

Очевидно, что влияние среды на систему состоит в воздействии на ее элементы, которые моделируются в виде отдельных взаимосвязанных компонент Y i случайного вектора Y . В модели (8.8) это описывается с

145

помощью изменения числовых характеристик многомерного нормального распределения – элементов ковариационной матрицы ΣY случайного

вектора Y .

Идентифицируемость. Каждый элемент системы может быть отделен от других составляющих, то есть идентифицирован. Очевидно, что по имеющимся выборочным данным можно оценить все числовые характеристики каждой компоненты Yi многомерного вектора Y в рамках энтропийной модели (8.8).

Множественность. Каждый элемент системы обладает собственным поведением и состоянием, отличным от поведения и состояния других элементов и системы в целом. Данная закономерность также учитывается в энтропийной модели, поскольку каждый элемент системы описывается отдельной случайной величиной. Зависимость между элементами системы является не функциональной, а статистической (корреляционной). Поэтому поведение любого элемента лишь частично зависит от других элементов системы.

Наблюдаемость. Это означает, что все без исключения входы и выходы системы либо контролируемы наблюдателем, либо наблюдаемы. В данном случае каждая компонента случайного вектора моделирует конкретную подсистему, которая является наблюдаемой (имеем многомерную выборку экспериментальных данных).

Неопределенность. У наблюдателя отсутствует возможность одновременно фиксировать все свойства и отношения элементов системы, он осуществляет исследование именно с целью их выявления. Действительно, это вытекает из случайности вектора Y , который моделирует поведение сложной стохастической системы S.

Отображаемость и нетождественность отображения. С одной стороны, модель должна отражать все свойства и отношения исследуемой системы, которые нужны для решения задачи (отражаемость). Это проявляется в том, что каждая компонента случайного вектора Y моделирует поведение соответствующего элемента системы S. А, с другой, энтропийная модель (8.8) не тождественна исследуемому объекту

(нетождественность отображения).

Иерархичность системы заключается в том, что более высокий иерархический уровень оказывает направляющее воздействие на нижележащий уровень, подчиненный ему. В результате, подчиненные члены иерархии приобретают новые свойства, отсутствовавшие у них в изолированном состоянии. Данную закономерность применительно к энтропийной модели (8.8) можно интерпретировать следующим образом. Каждая компонента Y i в свою очередь может являться многомерной системой и состоять из собственных элементов, которые могут моделироваться другим случайным вектором.

146

Эквифинальность (потенциальная эффективность) характеризует предельные возможности систем. Применительно к открытой системе – это ее способность (в отличие от состояний равновесия в закрытых системах, определяемых начальными условиями) достигать не зависящего от времени требуемого состояния, за счет изменения своих параметров, независимо от исходного состояния системы. В энтропийной модели под воздействием внешней среды система за счет изменения своих параметров (элементов ковариационной матрицы) может варьировать свои свойства в пределах от абсолютно аддитивной до абсолютно целостной.

Закон «необходимого разнообразия». Создаваемая система должна иметь (способна создать в себе) разнообразие не менее чем разнообразие решаемой проблемы. Применительно к энтропийной модели данная закономерность обеспечивается за счет того, что, варьируя параметры модели, можно получить любое состояние многомерной системы Y .

Историчность. Любая система в процессе функционирования должна изменяться. Энтропийная модель обеспечивает данную закономерность за счет изменения своих параметров, например под воздействием внешней среды.

Закономерность самоорганизации. Во всех явлениях имеет место дуализм. С одной стороны, справедлив второй закон термодинамики, то есть стремление к возрастанию энтропии, к распаду, дифференциации, а с другой, наблюдаются негэнтропийные тенденции, лежащие в основе эволюции, развития.

Модель (8.8) объясняет, как рост энтропии, так и ее уменьшение. Рост (снижение) энтропии достигается за счет увеличения (уменьшения) дисперсий компонент Yi и определителя RY корреляционной матрицы.

2. Наличие управляющих переменных.

Воздействие на систему в рамках энтропийной модели осуществляется с помощью изменения параметров модели (8.8) – элементов ковариационной матрицы ΣY случайного вектора Y .

Действительно управлять значительно удобнее не дисперсиями и коэффициентами парной корреляции, а ковариациями, как однородными величинами . Напомним известные формулы:

XY

cov(X ,Y )

, 2X cov(X , X ) , Y2

cov(Y ,Y ) ,

 

 

X Y

 

где XY, cov(X, Y) – коэффициент парной линейной корреляции и ковариация между случайными величинами X и Y; X, Y – соответственно средние квадратические отклонения случайным величин X и Y.

Таким образом, установили, что энтропийная модель (8.8) удовлетворяет всем признаком модели сложной системы и может использоваться для ее описания и управления. Аналогично показывается адекватность выражения (8.5) для моделирования сложных систем.

147

Замечание 8.1. Влияние энтропии на эволюцию открытых систем исследовалось в работах И.Р. Пригожина, Г. Николис (Gregoire Nicolis),

И. Стенгерс (Isabelle Stengers) [52, 61, 62], Ю.Л. Климонтовича [35],

Д.И. Трубецкова [72] и др. В их публикациях отмечается, что изменение открытых систем, либо ведет к деградации, либо это процесс самоорганизации, в результате которого появляются более сложные структуры. И.Р. Пригожин [61] в 1955 г. сформулировал расширенный вариант второго начала термодинамики, согласно которому полное изменение энтропии dS открытой системы нужно представлять в виде двух частей: причиной первой из них служат внутренние процессы, которые необратимы и непременно сопровождаются переходом части энергии упорядоченных процессов (кинетической энергии движущегося тела, энергии электрического тока и т.п.) в энергию неупорядоченных процессов, в конечном счете – в теплоту; вторая часть обусловлена обменом энергией и веществом между системой и окружающей средой

dS dSin dSout ,

(8.9)

где dS полное изменение энтропии открытой системы; dSin

изменение

энтропии в ходе процессов, происходящих в системе; dSout

изменение

энтропии в ходе процессов обмена со средой.

Однако вопрос практического применения этой теории для исследования реальных сложных стохастических систем, например, технических, организационных, живых и т.д. не был раскрыт.

Выразим изменение общей энтропии H(Y) через изменения энтропий хаотичности и самоорганизации:

H (Y) H (Y)V H (Y)R .

(8.10)

Попробуем дать трактовку формулы (8.9) согласно (8.10).

Во-первых, очевидно, что dSout H (Y) . Знак условного равенства

« » используем в виду того, что в [61] рассматривалось изменение термодинамической энтропии dS.

Рассмотрим влияние на энтропию процесса обмена с средой. От среды многомерная открытая система берет или отдает энергию, что можно что можно трактовать как изменение дисперсий или средних квадратических отклонений Yi . Кроме этого появление новых свойств, состояний также

может возникнуть извне, от среды. Поэтому изменение вида распределения, а значит и энтропийных показателей i также обусловлено

процессом обмена системы со средой, т.е. можно считать, что изменение энтропии в ходе процессов обмена со средой представляет собой изменение энтропии хаотичности, т.е.

dSout H (Y)V .

(8.11)

148

Элементы системы в процессе функционирования могут усиливать или ослаблять взаимодействие между собой за счет увеличения или уменьшения тесноты корреляционной связи. Следовательно, изменение энтропии в ходе процессов, происходящих в системе – это изменение энтропии самоорганизации, т.е.

dSin H (Y)R .

(8.12)

На основе (8.11) и (8.12) можно выдвинуть следующую гипотезу.

Полное изменение энтропии открытой многомерной стохастической системы состоит из суммы двух слагаемых. Первое слагаемое характеризует влияние взаимодействия системы с внешней средой и представляет собой изменение энтропии хаотичности. Второе слагаемое характеризует процессы, происходящие внутри системы, и представляет собой изменение энтропии самоорганизации.

Отметим, что наряду с изменением энтропии, имеем формулы (8.3), (8.4) для нахождения энтропий хаотичности и самоорганизации. Они позволяют в статике исследовать систему в рамках энтропийной модели. Это может оказаться полезным для практического применения энтропийного моделирования, например уточнения существенных элементов системы и настройки модели.

Пример 8.1. Моделирование системы, характеризующей безопасность производства [69]. Были исследованы 17 угледобывающих предприятий. По системе первичных показателей с помощью факторного анализа сформированы два обобщенных фактора (главных компонент), объясняющие 88% всей вариации исходных признаков: Y1 – фактор, характеризующий организацию безопасного производства; Y2 – фактор, отражающий профессионализм персонала.

Все предприятия были разделены на две группы: 1) предприятия с низким уровнем травматизма (коэффициент частоты травмирования от 5,8 до 16,5 случаев на 1000 человек); 2) предприятия с высоким уровнем травматизма (коэффициент частоты травмирования от 21,7 до 49,7 случаев на 1000 человек. Результаты расчета по группам предприятий:

H (Y(1) ) H (Y(1) )V H (Y(1) )R 2,42 0,31 2,11.

H (Y(2) ) H (Y(2) )V H (Y(2) )R 3,73 0,69 3,04 .

У предприятий второй группы энтропия выше, чем в первой, вызванный значительно большей величиной энтропии хаотичности ( H (Y(2) )V H (Y(1) )V ). Более высокий уровень риска во 2-й группе в некоторой степени компенсируется за счет более активного вмешательства руководства («административного ресурса») ( H (Y(2) )R H (Y(1) )R ).

149

Глава 9. Примеры использования методов системного анализа в экономике

9.1. Выбор решений с помощью дерева решений

Рассмотрим более сложные (позиционные, или многоэтапные) решения в условиях риска. Одноэтапные игры с природой, таблицы решений удобно использовать в задачах, имеющих одно множество альтернативных решений и одно множество состояний среды. Многие задачи, однако, требуют анализа последовательности решений и состояний среды, когда одна совокупность стратегий игрока и состояний природы порождает другое состояние подобного типа. Если имеют место два или более последовательных множества решений и/или два или более множества состояний среды (то есть появляется целая цепочка решений, вытекающих одно из другого, которые соответствуют событиям, происходящим с некоторой вероятностью), используется дерево решений.

Дерево решений – это графическое изображение последовательности решений и состояний среды с указанием соответствующих вероятностей и выигрышей для любых комбинаций альтернатив и состояний среды.

9.1.1. Принятие решений с применением дерева решений

В постановочном плане рассмотрим несколько задач, которые могут быть решены с помощью данного метода.

Пример 9.1. Разведывательное бурение скважин. Некоторая нефтяная разведывательная партия должна решить, стоит ли бурить скважины на данном участке до того, как истечет срок контракта. Для руководителей партии не ясны многие обстоятельства:

-в какую сумму обойдется стоимость бурения, зависящая от качества грунта, глубины залегания нефти и т.д.;

-на какие запасы нефти в этом месте можно рассчитывать;

-сколько будет стоить эксплуатация скважины.

Враспоряжении руководства имеются объективные данные об аналогичных и не вполне похожих скважинах этого типа. При помощи сейсмической разведки можно получить дополнительную информацию, которая, однако, не дает исчерпывающих сведений о геофизической структуре разведываемого участка. Кроме того, получение сейсмической информации стоит недешево, поэтому еще до того, как будет принято окончательное решение (бурить или нет), следует определить, есть ли необходимость собирать эти сведения.

150