Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Geostatiscics-Part2(new).DOC
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
1.43 Mб
Скачать

Кореляційна матриця

Нехай маємо групу з випадкових змінних (дослі­джуваних параметрів), що представлені вибірками обсягу кожна. Для усіх можливих різних пар індексів можна обчислити парні коефіцієнти кореляції . Для , тобто для двох ідентичних наборів, можна прийняти , що відповідає лінійній функціональній залежності (тото­жності) для всіх пар значень у вибірках. Коефіцієнти кореляції запишемо у вигляді підсумкової симетричної матриці :

. (3.14)

Після перевірки кожного з коефіцієнтів на значущість (достатньо це зробити для елементів матриці над головною діагоналлю) і заміни коефіцієнтів, що менше , нулем, “очище­на” кореляційна матриця відображає “справжні” стати­стично значимі зв’язки між змінними.

Аналіз структури кореляційної матриці є дуже важливим методом для виявлення, наприклад, парагенетичних асоціацій у геохімічних дослідженнях [5], а також основою інших методів аналізу (наприклад, факторного). З огляду на це часто виникає завдання порівняти різні коефіцієнти кореляції. Оскільки істинні коефіцієнти кореляції та невідомі, то рішення ухвалюють, користуючись їхніми вибірковими оцінками та на підставі статистичного доведення.

1. Формулюємо нульову гіпотезу про рівність коефіцієнтів кореляції

: (3.15)

та альтернативну їй

: . (3.16)

2. Вибираємо рівень значущості .

3. Оскільки розподіл коефіцієнтів кореляції за умови має значну асиметрію, то використовуємо перетворені величини

(3.17)

і будуємо статистику

, . (3.18)

4. В умовах гіпотези статистика має асимптотично нор­мальний розподіл з нульовим середнім та дисперсією, що дорівнює 1.

5. Знаходимо критичні значення статистики, тобто квантилі стандартного нормального розподілу, наприклад, для маємо .

6. Якщо

, (3.19)

то гіпотеза про рівність коефіцієнтів не суперечить вибірковим даним (для заданого ).

4. Вступ до регресійного аналізУ Рівняння прямої регресії

Відображення зв’язку між двома випадковими величинами і у вигляді залежності називають регресією на , і навпаки: у випадку кажуть про регресію на . Якщо лінії регресії є прямими, то регресію називають лінійною, в іншому випадку – нелінійною. Випадок прямої регресії є найпро­стішим, а тому найуживанішим в аналізі експериментальних даних.

У прямокутній системі координат рівняння лінійної регресії можна записати аналітично так:

; (4.1)

, (4.2)

де і – сталі величини – параметри рівняння регресії.

Головною властивістю рівняння регресії є те, що вона мінімізує суму квадратів (дисперсію) відхилень точок на лінії від експериментальних даних

(4.3)

Аналогічно для другого рівняння регресії

(4.4)

Властивості (4.3), (4.4) є в основі методу найменших квадратів оцінки параметрів регресії і .

Коефіцієнти прямої регресії пов’язані з коефіцієнтом коре­ляції, а саме: регресія на

(4.5)

і, аналогічно, лінійна регресія на

. (4.6)

У разі порівняння, наприклад, (4.5) з (4.1), маємо

. (4.7)

Двовимірний нормальний закон розподілу та геометрична інтерпретація прямої регресії

Сприятливими умовами для побудованої лінійної регресійної моделі є узгодження пари випадкових величин та з двовимірним нормальним законом розподілу (рис. 4.1).

Рис. 4.1. Двовимірний нормальний розподіл [1].

Кожному фіксованому (можливому) значенню відповідає набір можливих значень , що мають свої ймовірності появи цих значень і підпорядковані, вва­жа­ти­­ме­мо, нормальному закону розподілу з математичним споді­ван­ням та дисперсією . Розподіл величини для фіксова­ного називають умовним розподілом з розподілом . Аналогічно для фіксованого маємо нормальний закон роз­по­ді­лу випадкової величини з математичним сподіванням , дисперсією , густиною розподілу . Отже, кожна з можливих пар значень має ймовірність появи (згідно з формулою ймовірності для добутку подій)

,

що задає двовимірний нормальний закон розподілу:

,

(4.8)

де – відповідно, загальні (не умовні!) матема­тичні сподівання, дисперсії та парний коефіцієнт кореляції.

Геометричне місце точок, що відповідає центрам умовних розподілів , називають лінією регресії на , аналогічно, центри умовних розподілів дають лінію регресії на .

Рис. 4.2. Лінії регресії та умовні нормальні розподіли [2].

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]