Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Математические методы моделирования в геологии..pdf
Скачиваний:
45
Добавлен:
15.11.2022
Размер:
8.08 Mб
Скачать

территорий; выборка объектов экзамена, включающая как перспек­ тивные, так и неперспективные объекты; массив описания диагно­ стируемых территорий (если необходимых сведений нет, выборки «2 », а иногда и «1» могут отсутствовать; в таких случаях возможна процедура распознавания образов только в самообучающемся ре­ жиме «автоматической классификации»).

Дальнейшая обработка данных зависит от видов описываемых признаков, качества и объема эталонных выборок.

При большом числе дискретных детерминированных неметри­ зованных признаков и ограниченном числе эталонных выборок ис­ ходных данных, что характерно для подавляющего большинства задач подобного рода, массив исходных векторных переменных преобразуется в альтернативную форму (есть - 1, нет - 0). С целью минимизации размерности признакового пространства определяет­ ся информативность каждого признака, отбрасываются наименее информативные из них и выбирается оптимальный алгоритм распо­ знавания.

В случаях отсутствия нулевых вероятностей признаков (невы­ рожденные распределения) возможно применение алгоритмов рас­ познавания типа ШОУ-1, ШОУ-2, Образ-3 и других с использова­ нием статистического дискретного или эвристического решающего правила.

При наличии выборочных частот вероятностей признаков рав­ ных нулю (вырожденные распределения) применяются детермини­ стские алгоритмы распознавания образов типа «Тупиковые тесты», Кора-1, Кора-2, Кора-3, «Перебор», «Гиперпласт» и других с ис­ пользованием логических и эвристических решающих правил. Де­ терминистский алгоритм распознавания «Гиперпласт» использован в человекомашинной информационно-прогнозирующей системе «Регион-ОС», принятой к внедрению в геологоразведочной службе нашей страны.

3.8. Оценка информативности геологических признаков

При решении задач распознавания образов часто возникает проблема сокращения размерности признакового пространства пу­ тем исключения наименее информативных признаков. Сокращение

числа признаков не только упрощает используемые алгоритмы рас­ познавания, но и способствует улучшению качества классификации объектов, удаляя случайные помехи («шумы»), искажающие и за­ тушевывающие полезную информацию. Оценка информативности признаков полезна, поскольку она способствует выявлению рудо­ формирующих факторов и их ранжированию по степени значи­ мости.

Строгих математических методов оценок оптимальных мер от­ носительной информативности признаков пока что не разработано. С этой целью в геологической практике используются различные эвристические, детерминистские и статистические подходы, обес­ печивающие формирование признакового пространства меньшей размерности по отношению к исходному. Формирование простран­ ства меньшей размерности достигается либо путем отбора из т ис­ ходных признаков некоторого (меньшего) числа наиболее информа­ тивных признаков, либо конструированием новой системы призна­ ков с определенными свойствами, либо одновременно двумя этими методами. Сложность решения этой задачи связана с тем, что оцен­ ка индивидуальной информативности любого признака в отдельно­ сти от других признаков часто не обеспечивает достоверных ре­ зультатов вследствие наличия статистических связей между ними. Даже относительно независимые признаки, весьма информативные по результатам индивидуальных оценок, могут обеспечить в сово­ купности с другими признаками лишь весьма незначительную до­ полнительную информацию, и наоборот, относительно малоинфор­ мативные признаки могут значительно увеличивать суммарную ин­ формативность системы признаков.

К числу эвристических методов оценки информативности и ранжирования признаков относятся сбор и обработка сведений об изучаемых объектах, получаемых в результате опроса экспер- тов-специалистов. Поскольку мнения специалистов об информа­ тивности конкретных признаков, как правило, расходятся, резуль­ таты опроса подвергаются систематизации и математической об­ работке методами ранговой корреляции или дифференциального ранжирования. Использование информации, обобщающей коллек­ тивный опыт специалистов, повышает достоверность исходных данных.

Детерминистские и статистические методы оценки информа­ тивности признаков основаны на их ранжировании по данным вы­ борки обучения, то есть по фактическим данным, характеризующим изучаемые классы объектов. Ранжирование признаков по выборке обучения можно проводить в предположении о их статистической независимости либо о наличии взаимозависимости между ними.

При детерминированном подходе информативность независи­ мого признака определяется тем, насколько сильно отличаются его значения в разных распознаваемых классах. Так, например, при ис­ пользовании алгоритмов «Тупиковые тесты» информационный вес признака г определяется числом Rr = Мг/ М (где М - общее число всех тупиковых тестов, Мг - число тех тупиковых тестов, в которые входит столбец с номером г).

Статистический подход к оценке информативности независи­ мых признаков опирается на разность или отношение вероятностей признака в разных классах. Так, например, информативность при­ знака оценивается по нормированной разности средних его арифме­ тических значений в выборках обоих классов: J ~{ххх2) 2 / S 2, где S1 - средневзвешенное стандартное отклонение по обеим выборкам.

Для целей ранжирования условно независимых признаков по их информативности могут быть использованы и оценки парных коэффициентов корреляции их значений в выборках обоих классов.

В практических задачах при ограниченном числе признаков требуется оценка информативности не каждого признака, а их соче­ таний. Для сочетаний независимых признаков их информативность может быть определена суммированием информативностей отдель­ ных признаков, выраженных в долях единицы. Однако при решении большинства геологических задач условие взаимозависимости при­ знаков не соблюдается, вследствие чего такой способ неправомерен.

Для оценок информативности и ранжирования взаимозависи­ мых признаков разработаны специфические методы выделения их наиболее информативных сочетаний, однако многие из них мало­ эффективны из-за необходимости перебора огромного числа ком­ бинаций. В практике решения задач по распознаванию образов для оценок информативности признаков и их ранжирования использу­ ются методы дискриминантного анализа и метод главных компо­ нент.

3.9. Линейные дискриминантные функции

Дискриминантный анализ является мощным статистическим средством разделения (дискриминации) многомерных нормально распределенных совокупностей на группы таким образом, чтобы была достигнута максимальная однородность внутри групп и ми­ нимальная между ними.

Задачи дискриминации отличаются от близких к ним задач классификации тем, что число групп (в простейшем случае две) за­ дается заранее и зависит от априорных сведений о соотношениях между пробами, в то время как классификация внутренне замкнута, а число кластеров (групп) не может быть заранее определено.

Линейная дискриминантная функция преобразует множество измерений, входящих в выборку, в единственное дискриминантное число (дискриминантную метку). Последним определяется граница разделения совокупностей.

Для нахождения линейной дискриминантной функции строится уравнение регрессии, в котором в качестве зависимых переменных выступают разности между_многомерными средними двух анализи­ руемых групп Н j =Uj - V j . С этой целью решается матричное уравнение вида [С] [а] = [Я], где [С] - ковариационная матрица объединенной выборки размерности т х от; [о] - вектор-столбец коэффициентов дискриминантной функции; [Я] - вектор-столбец разностей между средними значениями признаков групп). Уравне­ ние решается с помощью операции обращения и умножения матриц [а] = [Ср'[Я], после чего по вычисленным коэффициентам щ, а2, ...

ор,..., о*, строится дискриминантная функция

к

DXи Хг...,Хр,...,Х к = Y . aPX P-

р=\

Дискриминантный индекс Do, определяющий принадлежность испытуемого объекта к той или иной группе, рассчитывается по формуле:

Он соответствует середине «обобщенного расстояния» между центрами обеих групп в многомерном пространстве изучаемых при­

знаков.

Процедура построения линейной дискриминантной функции сводится к следующему. Обозначим через щ результат измерения признака с номером / в пробе с номером j, взятой из первой сово­ купности. В результате мы получим матрицу U порядка к х п ре­ зультатов наблюдений над этой совокупностью:

«11

«12

«13

и \ щ

«21

« 2 2

« 2 3

« 2 „ ,

«*1 « * 2 « * 3 « fa ,

Обозначим через Vy результат измерения признаков с номером / в пробе с номером j, взятой из второй совокупности, и получим

матрицу [У] порядка к х п2.

 

 

V,1

V|2

Vl»2

V21

v22

v

>V*2 V*»2

Используя эти данные, вычисляем элементы выборочной кова­ риационной матрицы [5], которую можно представить в матричной записи:

В =

(S „ -S v),

И, + «2 - 2

где Suи Sv- матрицы сумм центрированных квадратов и смешанных произведений, вычисленные по элементам матриц [U] и [V]. Далее находим обращенную матрицу (Су), вычисляем коэффициенты а,, а2, ..., аи строим дискриминантную функцию

D ( x ) = ^ O j X j .

у=1

После расчета порогового значения (дискриминантного индек­ са) D0 оцениваются значения центров обеих исходных групп D-и

Dv, путем подстановки начала значений й/ , а затем оу в уравнение

дискриминантной функции. «Обобщенное расстояние» между дву­ мя многомерными средними D2 называют расстоянием (или крите­ рием) Махалонобиса. Оно вычисляется путем вычитания D- из D -, что эквивалентно подстановке вектора разности между средними значениями двух групп Uj и Vj в дискриминантную функцию

Проверка значимости разделения объектов имеет смысл только при соблюдении ряда условий: случайности наблюдений признаков в каждой группе; равной вероятности того, что неизвестное наблю­ дение принадлежит к любой из групп; нормальном распределении признаков и одинаковом порядке ковариационных матриц различ­ ных групп.

Чем больше D2, тем более уверенное разделение можно провес­ ти между объектами. Уровень ошибочной классификации опреде­ ляется как вероятность попадания наблюдения, принадлежащего первому объекту, в область, определяющую второй объект, и на­ оборот. Численное выражение ошибок классификации определяется из соотношения Р = 1 - <t>(D2), где 0(D2) - функция нормального распределения.

Величину D2 можно использовать в дискриминантном анализе при последовательном наборе признаков и минимизации их числа в классификации. Для этой цели нужно расположить признаки по величине их влияния на D(x). Первым ставится признак, для ко­ торого величина D2 наибольшая из всех остальных, взятых в от­ дельности. Вторым ставится признак, который по величине больше всех других, исключая первый, и т. д. Признаки, характеризующие­ ся отрицательными значениями обобщенного расстояния, отбрасы­ ваются.

Дискриминантный анализ позволяет не только надежно решать классификационные задачи, но и определять информативность ис­

пользуемых для классификации признаков и выбирать из первона­ чального набора признаков оптимальную комбинацию, то есть под­ бирать рациональный комплекс поисковых или разведочных иссле­ дований.

Отнесение наблюдаемого объекта г к одной из заданных сово­ купностей /?,, по значениям дискриминантной функции подразуме­ вает, что классифицируемый объект г принадлежит к одной из обу­ чающих совокупностей Л,. На практике же могут встретиться си­ туации, когда г принадлежит классу, не вошедшему в число этих совокупностей. Тогда применение дискриминантного анализа мо­ жет привести к неправильным представлениям и выводам.

Методы линейного дискриминантного анализа широко исполь­ зуются при решении самых разнообразных геологических задач: для разделения фаций осадочных и магматических пород, перспек­ тивных отложений или территорий и неперспективных, огнеупор­ ных и неогнеупорных глин и других геологических объектов.

В качестве примера разделения рассмотрим классификацию ким-берлитовых пород одного из месторождений Сибири по петрохимическим данным.

На месторождении выделены три типа кимберлитов: афировые туфы северо-восточной части месторождения, кластопорфировые брекчии центральной части месторождения и афировые туфы югозапада. Если брекчии резко отличаются от туфов, то туфы двух уча­ стков очень близки между собой по внешнему облику и петрогра­ фическим особенностям. В результате статистической обработки для каждой пары кимберлитовых пород были получены линейные дискриминантные функции. Так, при сравнении афировых туфов двух участков была получена линейная дискриминантная функция следующего вида: 45,157MnO - l,236FeO + 1,642СаО - 33,489N20 + +21,809К2О + 43,213Р20 5 - 1,4868сульф - 1,040С02 - 61,386 = D(x).

Если D(x) > 0, то кимберлитовая порода относится к афировым кимберлитам северо-востока, при D(x) < 0 - к афировым туфам югозапада.

Из 16 компонент, определенных в каждой пробе, только десять оказались информативными. Ошибка классификации не превышает 0,1%. Для оценки ошибки классификации был проведен экзамен на других массивах данных.