- •1.1. Моделирование геологических процессов и явлений
- •1.2. Характер геологической информации
- •1.3. Понятие о геолого-математическом моделировании
- •1.4. Принципы и методы геолого-математического моделирования
- •2. ОДНОМЕРНЫЕ СТАТИСТИЧЕСКИЕ МОДЕЛИ
- •2.1. Сущность и условия применения
- •2.2. Статистические характеристики, используемые в геологии
- •2.3. Точечные и интервальные оценки свойств геологических объектов
- •2.4. Основные статистические законы распределения, используемые в геологии
- •2.5. Статистическая проверка геологических гипотез
- •2.7. Проверка гипотез о равенстве дисперсий
- •2.8. Анализ однородности выборочных геологических совокупностей
- •2.9. Однофакторный и двухфакторный дисперсионный анализ
- •3. МНОГОМЕРНЫЕ СТАТИСТИЧЕСКИЕ МОДЕЛИ
- •3.2. Многомерный корреляционный анализ
- •3.3. Статистические методы выделения ассоциаций химических элементов
- •3.4. Кластер-анализ (дендрограммы и дендрографы)
- •3.6. Задачи распознавания образов в геологии
- •3.8. Оценка информативности геологических признаков
- •3.9. Линейные дискриминантные функции
- •3.10. Метод главных компонент
- •4. МОДЕЛИРОВАНИЕ ПРОСТРАНСТВЕННЫХ ПЕРЕМЕННЫХ
- •4.2. Элементы неоднородности, изменчивость и анизотропия гелогических полей
- •4.4. Фон, аномалии и поверхность тренда
- •4.5. Геометрические методы выявления закономерных составляющих признаков
- •4.6. Способы сглаживания случайных полей
- •4.7. Анализ карт
- •4.8. Метод ближайшего соседа
- •4.9. Поверхности тренда
- •4.10. Сравнение карт
- •4.15. Моделирование дискретных случайных полей
- •5.1. Принципы моделирования свойств геологических объектов
- •5.3. Использование автокорреляционных функций для решения геологических задач
- •6. ФАКТОРЫ, ОПРЕДЕЛЯЮЩИЕ ВЫБОР И ЭФФЕКТИВНОСТЬ ИСПОЛЬЗОВАНИЯ МАТЕМАТИЧЕСКИХ МЕТОДОВ
- •6.4. Роль геологического анализа при выборе геолого математической модели
- •7. ПРИМЕНЕНИЕ ЭВМ В ГЕОЛОГИИ
- •7.1. Автоматизация первичной обработки данных
- •7.2. Решение геологических задач с помощью ЭВМ
- •7.3. Автоматизированные системы обработки геологических данных
- •СПИСОК РЕКОМЕНДУЕМОЙ ЛИТЕРАТУРЫ
территорий; выборка объектов экзамена, включающая как перспек тивные, так и неперспективные объекты; массив описания диагно стируемых территорий (если необходимых сведений нет, выборки «2 », а иногда и «1» могут отсутствовать; в таких случаях возможна процедура распознавания образов только в самообучающемся ре жиме «автоматической классификации»).
Дальнейшая обработка данных зависит от видов описываемых признаков, качества и объема эталонных выборок.
При большом числе дискретных детерминированных неметри зованных признаков и ограниченном числе эталонных выборок ис ходных данных, что характерно для подавляющего большинства задач подобного рода, массив исходных векторных переменных преобразуется в альтернативную форму (есть - 1, нет - 0). С целью минимизации размерности признакового пространства определяет ся информативность каждого признака, отбрасываются наименее информативные из них и выбирается оптимальный алгоритм распо знавания.
В случаях отсутствия нулевых вероятностей признаков (невы рожденные распределения) возможно применение алгоритмов рас познавания типа ШОУ-1, ШОУ-2, Образ-3 и других с использова нием статистического дискретного или эвристического решающего правила.
При наличии выборочных частот вероятностей признаков рав ных нулю (вырожденные распределения) применяются детермини стские алгоритмы распознавания образов типа «Тупиковые тесты», Кора-1, Кора-2, Кора-3, «Перебор», «Гиперпласт» и других с ис пользованием логических и эвристических решающих правил. Де терминистский алгоритм распознавания «Гиперпласт» использован в человекомашинной информационно-прогнозирующей системе «Регион-ОС», принятой к внедрению в геологоразведочной службе нашей страны.
3.8. Оценка информативности геологических признаков
При решении задач распознавания образов часто возникает проблема сокращения размерности признакового пространства пу тем исключения наименее информативных признаков. Сокращение
числа признаков не только упрощает используемые алгоритмы рас познавания, но и способствует улучшению качества классификации объектов, удаляя случайные помехи («шумы»), искажающие и за тушевывающие полезную информацию. Оценка информативности признаков полезна, поскольку она способствует выявлению рудо формирующих факторов и их ранжированию по степени значи мости.
Строгих математических методов оценок оптимальных мер от носительной информативности признаков пока что не разработано. С этой целью в геологической практике используются различные эвристические, детерминистские и статистические подходы, обес печивающие формирование признакового пространства меньшей размерности по отношению к исходному. Формирование простран ства меньшей размерности достигается либо путем отбора из т ис ходных признаков некоторого (меньшего) числа наиболее информа тивных признаков, либо конструированием новой системы призна ков с определенными свойствами, либо одновременно двумя этими методами. Сложность решения этой задачи связана с тем, что оцен ка индивидуальной информативности любого признака в отдельно сти от других признаков часто не обеспечивает достоверных ре зультатов вследствие наличия статистических связей между ними. Даже относительно независимые признаки, весьма информативные по результатам индивидуальных оценок, могут обеспечить в сово купности с другими признаками лишь весьма незначительную до полнительную информацию, и наоборот, относительно малоинфор мативные признаки могут значительно увеличивать суммарную ин формативность системы признаков.
К числу эвристических методов оценки информативности и ранжирования признаков относятся сбор и обработка сведений об изучаемых объектах, получаемых в результате опроса экспер- тов-специалистов. Поскольку мнения специалистов об информа тивности конкретных признаков, как правило, расходятся, резуль таты опроса подвергаются систематизации и математической об работке методами ранговой корреляции или дифференциального ранжирования. Использование информации, обобщающей коллек тивный опыт специалистов, повышает достоверность исходных данных.
Детерминистские и статистические методы оценки информа тивности признаков основаны на их ранжировании по данным вы борки обучения, то есть по фактическим данным, характеризующим изучаемые классы объектов. Ранжирование признаков по выборке обучения можно проводить в предположении о их статистической независимости либо о наличии взаимозависимости между ними.
При детерминированном подходе информативность независи мого признака определяется тем, насколько сильно отличаются его значения в разных распознаваемых классах. Так, например, при ис пользовании алгоритмов «Тупиковые тесты» информационный вес признака г определяется числом Rr = Мг/ М (где М - общее число всех тупиковых тестов, Мг - число тех тупиковых тестов, в которые входит столбец с номером г).
Статистический подход к оценке информативности независи мых признаков опирается на разность или отношение вероятностей признака в разных классах. Так, например, информативность при знака оценивается по нормированной разности средних его арифме тических значений в выборках обоих классов: J ~{ххх2) 2 / S 2, где S1 - средневзвешенное стандартное отклонение по обеим выборкам.
Для целей ранжирования условно независимых признаков по их информативности могут быть использованы и оценки парных коэффициентов корреляции их значений в выборках обоих классов.
В практических задачах при ограниченном числе признаков требуется оценка информативности не каждого признака, а их соче таний. Для сочетаний независимых признаков их информативность может быть определена суммированием информативностей отдель ных признаков, выраженных в долях единицы. Однако при решении большинства геологических задач условие взаимозависимости при знаков не соблюдается, вследствие чего такой способ неправомерен.
Для оценок информативности и ранжирования взаимозависи мых признаков разработаны специфические методы выделения их наиболее информативных сочетаний, однако многие из них мало эффективны из-за необходимости перебора огромного числа ком бинаций. В практике решения задач по распознаванию образов для оценок информативности признаков и их ранжирования использу ются методы дискриминантного анализа и метод главных компо нент.
3.9. Линейные дискриминантные функции
Дискриминантный анализ является мощным статистическим средством разделения (дискриминации) многомерных нормально распределенных совокупностей на группы таким образом, чтобы была достигнута максимальная однородность внутри групп и ми нимальная между ними.
Задачи дискриминации отличаются от близких к ним задач классификации тем, что число групп (в простейшем случае две) за дается заранее и зависит от априорных сведений о соотношениях между пробами, в то время как классификация внутренне замкнута, а число кластеров (групп) не может быть заранее определено.
Линейная дискриминантная функция преобразует множество измерений, входящих в выборку, в единственное дискриминантное число (дискриминантную метку). Последним определяется граница разделения совокупностей.
Для нахождения линейной дискриминантной функции строится уравнение регрессии, в котором в качестве зависимых переменных выступают разности между_многомерными средними двух анализи руемых групп Н j =Uj - V j . С этой целью решается матричное уравнение вида [С] [а] = [Я], где [С] - ковариационная матрица объединенной выборки размерности т х от; [о] - вектор-столбец коэффициентов дискриминантной функции; [Я] - вектор-столбец разностей между средними значениями признаков групп). Уравне ние решается с помощью операции обращения и умножения матриц [а] = [Ср'[Я], после чего по вычисленным коэффициентам щ, а2, ...
ор,..., о*, строится дискриминантная функция
к
DXи Хг...,Хр,...,Х к = Y . aPX P-
р=\
Дискриминантный индекс Do, определяющий принадлежность испытуемого объекта к той или иной группе, рассчитывается по формуле:
Он соответствует середине «обобщенного расстояния» между центрами обеих групп в многомерном пространстве изучаемых при
знаков.
Процедура построения линейной дискриминантной функции сводится к следующему. Обозначим через щ результат измерения признака с номером / в пробе с номером j, взятой из первой сово купности. В результате мы получим матрицу U порядка к х п ре зультатов наблюдений над этой совокупностью:
«11 |
«12 |
«13 |
и \ щ |
«21 |
« 2 2 |
« 2 3 |
« 2 „ , |
«*1 « * 2 « * 3 « fa ,
Обозначим через Vy результат измерения признаков с номером / в пробе с номером j, взятой из второй совокупности, и получим
матрицу [У] порядка к х п2. |
|
|
V,1 |
V|2 |
Vl»2 |
V21 |
v22 |
v |
>V*2 V*»2
Используя эти данные, вычисляем элементы выборочной кова риационной матрицы [5], которую можно представить в матричной записи:
В = |
(S „ -S v), |
И, + «2 - 2
где Suи Sv- матрицы сумм центрированных квадратов и смешанных произведений, вычисленные по элементам матриц [U] и [V]. Далее находим обращенную матрицу (Су), вычисляем коэффициенты а,, а2, ..., а/с и строим дискриминантную функцию
D ( x ) = ^ O j X j .
у=1
После расчета порогового значения (дискриминантного индек са) D0 оцениваются значения центров обеих исходных групп D-и
Dv, путем подстановки начала значений й/ , а затем оу в уравнение
дискриминантной функции. «Обобщенное расстояние» между дву мя многомерными средними D2 называют расстоянием (или крите рием) Махалонобиса. Оно вычисляется путем вычитания D- из D -, что эквивалентно подстановке вектора разности между средними значениями двух групп Uj и Vj в дискриминантную функцию
Проверка значимости разделения объектов имеет смысл только при соблюдении ряда условий: случайности наблюдений признаков в каждой группе; равной вероятности того, что неизвестное наблю дение принадлежит к любой из групп; нормальном распределении признаков и одинаковом порядке ковариационных матриц различ ных групп.
Чем больше D2, тем более уверенное разделение можно провес ти между объектами. Уровень ошибочной классификации опреде ляется как вероятность попадания наблюдения, принадлежащего первому объекту, в область, определяющую второй объект, и на оборот. Численное выражение ошибок классификации определяется из соотношения Р = 1 - <t>(D2), где 0(D2) - функция нормального распределения.
Величину D2 можно использовать в дискриминантном анализе при последовательном наборе признаков и минимизации их числа в классификации. Для этой цели нужно расположить признаки по величине их влияния на D(x). Первым ставится признак, для ко торого величина D2 наибольшая из всех остальных, взятых в от дельности. Вторым ставится признак, который по величине больше всех других, исключая первый, и т. д. Признаки, характеризующие ся отрицательными значениями обобщенного расстояния, отбрасы ваются.
Дискриминантный анализ позволяет не только надежно решать классификационные задачи, но и определять информативность ис
пользуемых для классификации признаков и выбирать из первона чального набора признаков оптимальную комбинацию, то есть под бирать рациональный комплекс поисковых или разведочных иссле дований.
Отнесение наблюдаемого объекта г к одной из заданных сово купностей /?,, по значениям дискриминантной функции подразуме вает, что классифицируемый объект г принадлежит к одной из обу чающих совокупностей Л,. На практике же могут встретиться си туации, когда г принадлежит классу, не вошедшему в число этих совокупностей. Тогда применение дискриминантного анализа мо жет привести к неправильным представлениям и выводам.
Методы линейного дискриминантного анализа широко исполь зуются при решении самых разнообразных геологических задач: для разделения фаций осадочных и магматических пород, перспек тивных отложений или территорий и неперспективных, огнеупор ных и неогнеупорных глин и других геологических объектов.
В качестве примера разделения рассмотрим классификацию ким-берлитовых пород одного из месторождений Сибири по петрохимическим данным.
На месторождении выделены три типа кимберлитов: афировые туфы северо-восточной части месторождения, кластопорфировые брекчии центральной части месторождения и афировые туфы югозапада. Если брекчии резко отличаются от туфов, то туфы двух уча стков очень близки между собой по внешнему облику и петрогра фическим особенностям. В результате статистической обработки для каждой пары кимберлитовых пород были получены линейные дискриминантные функции. Так, при сравнении афировых туфов двух участков была получена линейная дискриминантная функция следующего вида: 45,157MnO - l,236FeO + 1,642СаО - 33,489N20 + +21,809К2О + 43,213Р20 5 - 1,4868сульф - 1,040С02 - 61,386 = D(x).
Если D(x) > 0, то кимберлитовая порода относится к афировым кимберлитам северо-востока, при D(x) < 0 - к афировым туфам югозапада.
Из 16 компонент, определенных в каждой пробе, только десять оказались информативными. Ошибка классификации не превышает 0,1%. Для оценки ошибки классификации был проведен экзамен на других массивах данных.