Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
-Математичні методи в психології..docx
Скачиваний:
23
Добавлен:
25.08.2019
Размер:
2.74 Mб
Скачать

Графики гетероскедастичности

В соответствии с одной из предпосылок МНК нужно, чтобы дисперсия остатков была гомоскедастичной. Это означает, что для каждого значения фактора X остатки е, имеют одну и ту же дисперсию. Если это условие не соблюдается, то имеет место гетероскедастичность. Наличие гетероскедастичности можно наглядно продемонстрировать на поле корреляции (см. рис.).

Гомоскедастичность остатков означает, что дисперсия остатков одна и та же для каждого значения X. Используя трехмерное изображение, можно получить следующие графики, которые проиллюстрируют гомо- и гетероскедастичность

Рисунок с гомоскедастичностью показывает, что для каждого значения Х, распределения остатков одинаково в отличие от гетероскедастичности.

Для множественной регрессии вид графиков является наиболее наглядным способом изучения гомо- и гетероскедастичности.

Наличие гетероскедастичности может в ряде случаях привести к смещенности оценок коэффициентов регрессии, хотя несмещенность оценок коэффициентов регрессии, как правило, зависит от соблюдения второй предпосылки МНК, т. е. независимости остатков и величин факторов. Гетероскедастичность будет сказываться на уменьшении эффективности оценок b. В ча-стности, становится затруднительным использование формулы стандартной ошибки коэффициента регрессии Sb, которая предполагает единую дисперсию остатков для любых значений фактора.

Определение гетероскедастичности

При малом объеме выборки, что характерно для большинства задач эконометрики, для оценки гетероскедастичости используют метод Гольдфельда — Квандта, который был разботан в 1965 г. Гольдфельдом и Квандтом, где они рассмотрели однофакторную линейную модель, для которой дисперсия остатков возрастает пропорционально квадрату фактора. Чтобы оценить нарушение гомоскедастичности, они предложили выполнить следующие операции.

  1. Упорядочить наблюдения по мере возрастания фактора Х.

  2. Исключить из рассмотрения С центральных наблюдений, причем (n — С): 2 > р, где р — число оцениваемых параметров.

  3. Разделить совокупность из (n — С) наблюдений на две группы (с малыми и большими значениями фактора X).

  4. Определить остаточную сумму квадратов для первой (S1) и второй (S2) групп и нахождение отношения: R = S1 : S2.

При выполнении нулевой гипотезы о гомоскедастичности отношение R будет удовлетворять критерию Фишера с (n — С — 2p) : 2 степенями свободы для каждой остаточной суммы квадратов. Чем больше величина R превышает табличное значение F-критерия, тем в большей степени нарушена предпосылка о равенстве дисперсий остаточных величин.

33.ФАКТОРНЫЙ АНАЛИЗ (от лат. factor — действующий, производящий и греч. analysis — разложение, расчленение) — совокупность методов, которые на основе объективно существующих корреляционных взаимосвязей признаков (или объектов) позволяют выявлять латентные (или скрытые) обобщающие характеристики структуры изучаемых объектов и их свойств.

  • Фактор - скрытая переменная

  • Нагрузка -корреляция между исходной переменной и фактором

Таким образом можно выделить 2 цели Факторного анализа:

  • определение взаимосвязей между переменными, (определение основных влияний единиц вариации);

  • сокращение числа переменных.

Метод главных компонент — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации.

П Р.: Выбор признаков зависит от их влияния. При помощи коэффициента ковариации исследуется зависимость признаков. То есть с его помощью, необходимо выбрать признак, на который оказывает наиболее существенное влияние тот или иной фактор. Например, если исследовать зависимости между прибылью и объемом продукции, выручкой, себестоимостью, уровнем цен, количеством нематериальных активов, величиной собственного капитала, изменением количества материальных активов, то зависимость прибыли и первыми 4мя факторами будет наиболее существенной. Это не значит, что остальные факторы не важны, они просто менее важны относительно первых 4х. Таким образом, производится уменьшение измерений, то есть выделяется самое важное. Однако данные основания требуют подтверждения на практике, с помощью коэф корр и ковар. Если коэфф корр-ции, например, прибыли и с/с равен 0,7, то можно зделать вывод о его высокой значимости.

Расчет коэффициента корреляции:

Он помогает установить не причинность связи, а лишь ее наличие. Например, пересечение кругов (факторов) - графическое изображение.

Так же метод ковариации (Ковариация=Σ(х-хср.)*(у-уср.) /n-1.) различных психологических, социологических, экономических и других переменных, т.е. метод, который приводит к выделению определенного числа основных факторов, лежащих в основе рассчитанных корреляций. Далее это позволяет исследовать взаимосвязи признаков и тех закономерностей, которым они подчиняются.

Иногда один объект может хар-ся множеством признаков (многомерные объекты), тогда возникает необходимость сокращения числа наблюдений, но при условии, что новые переменные так же хорошо характеризуют явления.

Причины снижения числа наблюдений:

  1. Необходимость наглядного представления исходных данных;

  2. Стремление к локанизму исследуемых моделей.

  3. Необходимость существенного сжатия объемов хранимой информации.

Корреляционная (ковариационная) матрица. Для определения собственных чисел и векторов уравнение с использованием матричной записи имеет след форму:

Где R – матрица, для которой ищется решение. V – искомый собственный вектор, альфа – собственное число. Детерминант матрицы имеет вид: что дает для квадратной матрицы уравнение: которое по определению детерминанта должно быть представлено в виде: Собственные числа теперь могут быть получены при решении квадратного уравнения. Для двумерной корреляционной матрицы собственные числа имеют вид: Если между двумя переменными имеется линейная зависимость, то одно собственное число будет 2, а другое – 0. Для некоррелированных переменных оба собственных числа будут равны 1. Сумма – равна числу переменных, а произведение – детерминанту. Первое собственное большее число представляет величину дисперсии, соответствующую первой главной оси, а второе –второй и т.д. Т.к.при использовании корреляционной матрицы сумма собственных чисел равна числу переменных, то, разделив первое собств число на m (число переменных), можно получитьдолю дисперсии, соотв-ю данному направлению или компоненте.

Корреляция заданий друг с другом не должна быть слишком высокой (rxy ≤0,3), иначе задания начинают дублировать друг друга. Если корреляция между двумя заданиями близка  к единице, то одно из них лишнее.

Отрицательная корреляция задания с другими заданиями нежелательна. Если задание отрицательно коррелирует с большим количеством других заданий, то это означает, что исход ответов на него противоположен результатам по другим заданиям. По всей вероятности у такого задания либо имеются грубые ошибки в содержании и (или) оформлении (например, нет правильного ответа), либо проверяются знания из другой предметной области.

Пр.:

В нашем примере отрицательной корреляцией отличаются задания 1, 3, 6, 7, 8. Обращает на себя внимание то, что отрицательная корреляция у заданий 1, 6, 7 и 8 наблюдается именно с заданием 3. Это наводит на мысль, что проблематичным является задание 3. В пользу этого свидетельствует и самый низкий средний коэффициент корреляции (0,074) и, самое главное, низкая корреляция с индивидуальными баллами испытуемых (rpb =0.175). Задание 3 следует удалить из теста.  В результате отрицательная корреляция останется между 7 и 8 заданиями. Задание 8 находится под подозрением, так как у него rpb =0.365. Это задание также следует удалить из теста. Если какое-либо задание отрицательно коррелирует с индивидуальными баллами (rpb < 0), то такое задание, безусловно, подлежит удалению.

Эвристический анализ, как и рассмотренные выше методы прогнозирования, строится на принципах индуктивной логики, поскольку его центральным понятием является достоверность гипотезы, степени ее справедливости.

Эвристические методы относятся к неформальным методам решения экономических задач. Они используются в основном для прогнозирования состояния объекта в условиях частичной или полной неопределенности, когда основным источником получения необходимых сведений служит научная интуиция ученых и специалистов, работающих в определенных сферах науки и бизнеса.

Наиболее распространенным из них является метод экспертных оценок. Сущность его заключается в организованном сборе суждений и предложений специалистов (экспертов) по исследуемой проблеме с последующей обработкой полученных ответов. Основой данного метода является опрос специалистов. Опрос может быть индивидуальный, коллективный, очный, заочный, анонимный и т.д. Организаторы опроса определяют объект и цели экспертизы, подбирают экспертов, проверяют их компетентность, анализируют и обобщают результаты экспертизы.

Эвристические методы находят широкое применение в функционально-стоимостном анализе, в финансовом анализе для диагностики и оценки степени финансовых рисков.

Стандартная обработка данных косвенных (непрямых) измерений может выполняться при условиях постоянства аргументов (1) и отсутствии их взаимной связи (2). Поэтому стандартная обработка данных косвенных измерений выполняется 2 этапа: На первом этапе выполняется проверка отсутствия корреляции между результатами наблюдений каждой пары аргументов. На втором этапе проводится собственно определение результата косвенных измерений. Значение искомой физической величины, косвенно определяемой по результатам прямых измерений m ее аргументов Xj ¦ j = 1, ..., M и соответствующим образом обработанных, вычисляется в виде: Y = Yd + ΔY ; p = p* где: Yd - действительное значение, принимаемое в качестве истинного и являющееся наиболее вероятным значением, т.е. Y = Y(Х1ср, Х2ср, ..., ХMср);

 δY(X) / δXj - частная (парциальная) чувствительность результата косвенных измерений к погрешности прямых измерений j-го аргумента; ΔXj - погрешность значения j-го аргумента, определенная в результате стандартной обработки данных его прямых измерений (*) частные случаи:

для функции одной переменной Y=Y(X) результат измерений определяется как Y = Yd ± ∆X * ¦ ∂Y(X) / ∂X ¦; для алгебраической суммы Y = A1X1 + A2X2 +... результат косвенных измерений определяется как y = Y ± ((A1∆X1)^2 + (A2∆X2)^2 + ...)^0,5; для произведения Y = k * X1^A1 * X2^A2 * ... результат косвенных измерений определяется как y = Y(1 ± (A1∆X1/X1ср)^2 + (A2∆X2/X2ср)2 +...)^0,5  

Выберите в меню Analyze (Анализ) Data Reduction (Сокращение объема данных) Factor... (Факторный анализ)

Модель факторной системы - это математическая формула, выражающая реальные связи между анализируемыми явлениями. В общем виде она может быть представлена так:

где - результативный признак;

- факторные признаки.

Таким образом, каждый результативный показатель зависит от многочисленных и разнообразных факторов. В основе факторного анализа - лежат выявление, оценка и прогнозирование влияния факторов на изменение результативного показателя. Чем детальнее исследуется зависимость результативного показателя от тех или иных факторов, тем точнее результаты анализа и оценка качества работы предприятий. Без глубокого и всестороннего изучения факторов нельзя сделать обоснованные выводы о результатах деятельности, выявить резервы производства, обосновать планы и управленческие решения.

Основная модель факторного анализа записывается следующей системой равенств:

То есть полагается, что значения каждого признака xi могут быть выражены взвешенной суммой латентных переменных (простых факторов) fi, количество которых меньше числа исходных признаков, и остаточным членом εi с дисперсией σ2i), действующей только на xi, который называют специфическим фактором. Коэффициенты lij называются нагрузкой i-й переменной на j-й фактор или нагрузкой j-го фактора на i-ю переменную. В самой простой модели факторного анализа считается, что факторы fj взаимно независимы и их дисперсии равны единице, а случайные величины εi тоже независимы друг от друга и от какого-либо фактора fj.

Факторный анализ может быть одноступенчатым и многоступенчатым. Первый тип используется для исследования факторов только одного уровня (одной ступени) подчинения без их детализации на составные части. Например, . При многоступенчатом факторном анализе проводится детализация факторов a и b на составные элементы с целью изучения их поведения. Детализация факторов может быть продолжена и дальше. В этом случае изучается влияние факторов различных уровней соподчиненности.

Обязательные условия факторного анализа:

  • Все признаки должны быть количественными;

  • Число признаков должно быть в два раза больше числа переменных;

  • Выборка должна быть однородна;

  • Исходные переменные должны быть распределены симметрично;

  • Факторный анализ осуществляется по коррелирующим переменным.

К оэффициент корреляции – это величина, которая может варьировать в пределах от +1 до –1. В случае полной положительной корреляции этот коэффициент равен плюс 1 (говорят о том, что при увеличении значения одной переменной увеличивается значение другой переменной), а при полной отрицательной – минус 1 (свидетельствуют об обратной связи, т.е. При увеличении значений одной переменной, значения другой уменьшаются).

Дисперсия (сигма квадрат) – рассеивание – мера разброса случайной величины.

- для негрупп: сумма(Х-Хср)2

- для сгрупп: сумма(Х-Хср.)2*частоту/суммарную частоту

Дисперсия – средний квадрат отклонения вариант от их средней величины. При расчете дисперсии не указываются ед измерения.

Св-ва дисперсии:

- если все значения признака уменьшить или увеличить на одну и туже пост величину А, то дисперсия от этого не изменится;

- если все значения признака уменьшить или увеличить в одно и тоже число И раз, то Д.соответсвенно уменьшиься или увеличется в И2 раз.

Анализ изменений признака под влиянием контролируемых условий:

Фактор – качество, либо свойство, в соответствии с которым классифицируется данные. Каждый фактор имеет несколько уровней (высокий, низкий уровень обслуживания)

Уровень – общий термин, используемый для описания конкретного свойства, определяющего каждую категорию рассматриваемой классификации.

  1. под влиянием одного фактора:

Модель факторной системы:

Модель однофакторного анализа: Уij = M + τj + ξij

Уijзначение наблюдаемое. iномер наблюдения, j – номер класса.

Mобщая средняя по выборке

τjэффект столбца

Если не будет влияния качественного фактора, то: Уij = M + ξij

  1. под влиянием нескольких факторов одновременно:

Модель двуфакторная: оценивает влияет или нет два качественных фактора. Пр.: оценить влияет ли образование (гуманит, технич,..) и опыт работы (с….; без… - это уровни фактора) на уровень зарплаты.

Уij = M +αi + βj + ξij

Yij – наблюдаемое значение.

M – средний уровень (Хср зарплаты, например)

αi – влияние iго фактора

βj – jго фактора

ξij – случайная составляющая

Модель двуфакторная с взаимодействием факторов: Уij = M +αi + βj + ϒij + ξij

ϒij – совместное влияние iго и jго фактора.

При анализе в один фактор объединяются сильно коррелирующие между собой переменные, как следствие происходит перераспределение дисперсии между компонентами и получается максимально простая и наглядная структура факторов. После объединения коррелированность компонент внутри каждого фактора между собой будет выше, чем их коррелированность с компонентами из других факторов. Эта процедура также позволяет выделить латентные переменные, что бывает особенно важно при анализе социальных представлений и ценностей. Например, анализируя оценки, полученные по нескольким шкалам, исследователь замечает, что они сходны между собой и имеют высокий коэффициент корреляции, он может предположить, что существует некоторая латентная переменная, с помощью которой можно объяснить наблюдаемое сходство полученных оценок. Такую латентную переменную называют фактором. Данный фактор влияет на многочисленные показатели других переменных, что приводит нас к возможности и необходимости выделить его как наиболее общий, более высокого порядка. Для выявления наиболее значимых факторов и, как следствие, факторной структуры, наиболее оправданно применять метод главных компонентов (МГК). Суть данного метода состоит в замене коррелированных компонентов некоррелированными факторами. Другой важной характеристикой метода является возможность ограничиться наиболее информативными главными компонентами и исключить остальные из анализа, что упрощает интерпретацию результатов. Достоинство МГК также в том, что он — единственный математически обоснованный метод факторного анализа.

Весь процесс факторного анализа можно представить как выполнение 5 этапов:

  1. Выбор исходных данных.

Модель факторного анализа разрабатывалась для метрических данных. Поэтому первое требование к исходным данным — представление всех при­знаков в метрической шкале (не обязательно с одинаковыми средними и дис­персиями).

Включение в анализ порядковых или бинарных данных допустимо, но ис­следователь должен отдавать себе отчет, что искажения факторной структуры при этом будут соответствовать искажениям коэффициентов корреляций, и характер этих искажений неизвестен. В общем случае желательно перейти к единой шкале для всех признаков, либо ранговой, либо бинарной, затем вы­числять матрицу интеркорреляций, выбирая соответствующие меры взаимо­связи. Исследователь потеряет при этом существенную долю исходной ин­формации. Если цель факторного анализа заключается только в определении струк­туры взаимосвязей переменных, то допустимо применение порядковых дан­ных, но перед проведением факторного анализа необходимо перейти к ран­гам по каждой переменной. Допустимо также использовать факторный анализ в отношении дихотомических переменных, если задача ограничивается оп­ределением структуры взаимосвязей и дихотомические корреляции между переменными не очень велики (не превышают 0,7)'.

Порядковые и даже дихотомические данные могут использоваться для вычисления оценок факторов, но при условии действительно простой фак­торной структуры, высоких значениях общностей и факторных нагрузок переменных, определяющих каждый фактор При этом же­лательно проверять устойчивость факторной структуры на параллельных вы­борках.

Как и в других многомерных методах, недопустимы функциональные за­висимости между переменными и корреляции, близкие к единице.

Количественное соотношение признаков и объектов зависит от целей исследования. Если цель анализа — изучение структуры взаимосвязей при­знаков, уменьшение их исходного количества путем перехода к новым пере менным — факторам, то строгих ограничений нет. Желательно лишь, чтобы количество признаков было не меньше количества объектов. Если исследо­ватель хочет обнаружить и обосновать наличие факторов за взаимосвязями переменных, то желательно иметь в три раза больше объектов, чем призна­ков. Данное соотношение может сложиться и в процессе анализа — при отсе­ивании мало информативных переменных. Если же стоит задача обоснова­ния выявленной факторной структуры для генеральной совокупности, то объектов должно быть еще больше, для проверки устойчивости этой структу­ры на параллельных выборках.

  1. Предварительное решение проблемы числа факторов.

На этом этапе матрица интеркорреляций исходных признаков обрабаты­вается с использованием анализа главных компонент. Применяется крите­рий отсеивания Р. Кеттелла и критерий Кайзера — величины собственного значения фактора, большего 1 (Eigenvalue, > 1). Эти критерии не являются жесткими, поэтому далее проверяется несколько гипотез о числе факторов. Начинать при этом рекомендуется с максимально возможного числа факто­ров, с учетом обоих критериев, постепенно уменьшая их число.

  1. Факторизация матрицы интеркорреляций.

Выбирается метод факторизации, желательно — главных осей, наимень­ших квадратов или максимального правдоподобия. Задается число факторов, в соответствии с проверяемой гипотезой. Результатом данного этапа являет­ся матрица факторных нагрузок (факторная структура) до вращения, которая не подлежит интерпретации.

Полезной информацией на этом этапе могут являться суммарная доля дис­персии (информативность) факторов и значения общностей переменных. Суммарная доля дисперсии — показатель того, насколько полно выделяемые факторы могут представить данный набор признаков, а этот набор — выделя­емые факторы. Общность переменной — показатель ее «участия» в фактор­ном анализе, насколько она влияет на факторную структуру. Переменные с наименьшими общностями — ближайшие кандидаты на исключение из ана­лиза в дальнейшем.

  1. Вращение факторов и их предварительная интерпретация.

На этом этапе выбирается один из аналитических методов вращения фак­торов, обычно — варимакс-вращение (Varimax normalized). Существуют и дру­гие методы вращения, в том числе косоугольного, но они выходят за рамки

нашего рассмотрения. В результате вращения достигается факторная струк­тура, наиболее доступная для интерпретации при данном соотношении пе­ременных и факторов.

Интерпретация факторов производится по таблице факторных нагрузок после вращения в следующем порядке. По каждой переменной (строке) выде­ляется наибольшая по абсолютной величине нагрузка — как доминирующая. Если вторая по величине нагрузка в строке отличается от уже выделенной менее чем на 0,2, то и она выделяется, но как второстепенная. После про­смотра всех строк — переменных, начинают просмотр столбцов — факторов. По каждому фактору выписывают наименования (обозначения) переменных, имеющих наибольшие нагрузки по этому фактору — выделенных на преды­дущем шаге. При этом обязательно учитывается знак факторной нагрузки переменной. Если знак отрицательный, это отмечается как противополож­ный полюс переменной. После такого просмотра всех факторов каждому из них присваивается наименование, обобщающее по смыслу включенные в него переменные. Если трудно подобрать термин из соответствующей теории, до­пускается наименование фактора по имени переменной, имеющей по срав­нению с другими наибольшую нагрузку по этому фактору.

  1. Принятие решения о качестве факторной структуры.

Качество факторной структуры определяется степенью приближения к простой структуре.

Следует отметить общий принцип соотношения качества факторной струк­туры и качества исходных данных: чем ниже качество исходных данных в смысле требований, предъявляемых к метрическим переменным, тем выше требования к простоте факторной структуры, величине общностей и фактор­ных нагрузок.

В настоящее время не существует формальных критериев соответствия факторной структуры простой. Поэтому основным критерием остается воз­можность хорошей содержательной интерпретации каждого фактора по двум и более исходным переменным. Если перед исследователем стоит дополни­тельно проблема обоснования устойчивости (воспроизводимости) факторной структуры в генеральной совокупности, то добавляется требование однознач­ного соотнесения каждой переменной с одним из факторов. Это требование означает, что каждая переменная имеет большую по абсолютной величине нагрузку (0,7 и выше) только по одному фактору и малые (0,2 и менее) — по всем остальным.

Можно предложить способы максимального приближения к простой структуре путем пошагового сокращения числа факторов и переменных.

Если по результатам интерпретации выявлен фактор, по которому ни одна из переменных не получила максимальной нагрузки (по строке), то это свидетельствует о необходимости сокращения количества факторов на один и повторения этапов 3 и 4 с новым числом факторов. То же касается фактора, идентифицируемого лишь по одной переменной, когда остальные в него не попадают даже с второстепенными нагрузками.

Определяются неоднозначные переменные. Каждая такая переменная имеет примерно одинаковые по абсолютной величине максимальные нагрузки по двум и более факторам. Если обосновывается устойчивость факторной структуры, то неоднозначной является переменная, у которой между макси­мальной и следующей за ней по величине нагрузкой разность менее 0,5. Нео­днозначные переменные поочередно удаляются из числа исходных перемен­ных, и каждый раз повторяются этапы 3 и 4.

Очевидно, что приближение к простой структуре связано с невосполни­мой потерей исходной эмпирической информации. И каждый раз исследо­ватель должен решать, насколько целесообразна эта потеря в свете стоящих перед ним задач. Наиболее жестки требования к простой структуре в случае обоснования устойчивости и воспроизводимости факторов, например, при разработке теста или факторной теоретической модели. Гораздо мягче тре­бования при решении наиболее часто встречающихся задач — при изуче­нии структуры взаимосвязей или при сокращении исходного набора при­знаков для дальнейшего исследования, например, различий между группами объектов.

Исследователь, в зависимости от своих целей, решает, сколько раз повто­рить эту последовательность, какие из этапов будут пропущены и насколько глубоко будет проработан каждый из них. Например, если исследователя ин­тересует только структура взаимосвязей признаков, то достаточно выполнить эту последовательность один раз, без последнего этапа.

Разведочный анализ (он осуществляется при исследовании скрытой факторной структуры без предположения о числе факторов и их нагрузках) или конформаторный (предназначенным для проверки гипотез о числе факторов и их нагрузках. Практическое выполнение факторного анализа начинается с проверки его условий) содержат 3 ступени (однако на практике, особенно при использовании гипотез необязательны):

  1. Подготовка соответствующей матрицы ковариаций. Перед проведением ФА необходимо решить: использовать ли как исходную матрицу ковариации (корреляции) между переменными ИЛИ использовать корреляции между индивидуумами (объектами).

  2. Выделение первоначальных факторов. На первом этапе может применятся модель общих факторов, а так же анализ главных компонент, цель которого отлична от цели ФА. В то же время оба метода широко используются эффективными взаимосвязями между переменнями. Их отличие др от др: мгк – линейная функция, а общ факторы – не выражаются через комбинацию наблюдаемых переменных.

Альтернатива анализа первоначальных факторов – образ-факторы, в которых предполагается, что наблюдаемые переменнные выбраны из бесконечного множества переменных, при чем вводятся «образы-факторы», являющиеся линейными комбинациями переменных.

Еще методы выделения первоначальных факторов: решение, получаемое методом максимального правдоподобия (включая канонический фа); решение по мнк; альфа-факторный анализ.

  1. Вращение с целью получения окончательного решения. Вращение включает 2 варианта: ортогональное и косоугольное вращение. Косоугольные делятся: те, котороые основаны на прямом упрощении матрицы коэффициентов факторного отображения И те, которые используют упрощение матрицы нагрузок на вторичные оси.

В SPSS: Порядок выполнения факторного анализа

На первом шаге процедуры факторного анализа происходит стандартизация заданных значений переменных (z-преобразование); затем при помощи стандартизированных значений рассчитывают корреляционные коэффициенты Пирсона между рассматриваемыми переменными.

Исходным элементом для дальнейших расчётов является корреляционная матрица. Для понимания отдельных шагов этих расчётов потребуются хорошие знания, прежде всего, в области операций над матрицами; интересующимся подробностями советуем обратиться к специальной литературе. Для построенной корреляционной матрицы определяются, так называемые, собственные значения и соответствующие им собственные векторы, для определения которых используются оценочные значения диагональных элементов матрицы (так называемые относительные дисперсии простых факторов).

Собственные значения сортируются в порядке убывания, для чего обычно отбирается столько факторов, сколько имеется собственных значений, превосходящих по величине единицу. Собственные векторы, соответствующие этим собственным значениям, образуют факторы; элементы собственных векторов получили название факторной нагрузки. Их можно понимать как коэффициенты корреляции между соответствующими переменными и факторами. Для решения такой задачи определения факторов были разработаны многочисленные методы, наиболее часто употребляемым из которых является метод определения главных факторов (компонентов).

Описанные выше шаги расчёта ещё не дают однозначного решения задачи определения факторов. Основываясь на геометрическом представлении рассматриваемой задачи, поиск однозначного решения называют задачей вращения факторов. И здесь имеется большое количество методов, наиболее часто употребляемым из которых является ортогональное вращение по так называемому методу варимакса. Факторные нагрузки повёрнутой матрицы могут рассматриваться как результат выполнения процедуры факторного анализа. Кроме того на основании значений этих нагрузок необходимо попытаться дать толкование отдельным факторам.

Если факторы найдены и истолкованы, то на последнем шаге факторного анализа, отдельным наблюдениям можно присвоить значения этих факторов, так называемые факторные значения. Таким образом для каждого наблюдения значения большого количества переменных можно перевести в значения небольшого количества факторов.

36.

Иногда один объект может хар-ся множеством признаков (многомерные объекты), тогда возникает необходимость сокращения числа наблюдений, но при условии, что новые переменные так же хорошо характеризуют явления.

Причины снижения числа наблюдений:

  1. Необходимость наглядного представления исходных данных;

  2. Стремление к локанизму исследуемых моделей.

  3. Необходимость существенного сжатия объемов хранимой информации.

Предпосылки перехода от бОльшего числа признаков р к меньшему р’:

  1. Дублирование информаии, описываемой сильно взаимодействующими признаками,

  2. Не информативность признаков, маломеняющихся при переходе от 1го объекта к др.

  3. Возможность агрегирования (простого суммирования по некоторым признакам).

Для этой цели используется анализ методом главных компонентов – статистический метод сокращения числа наблюдений, необходимый для описания того или иного явления. Суть метода — сократить число объясняющих пе­ременных до наиболее существенно влияющих факторов. Метод главных компонент применяется для исключе­ния или уменьшения мультиколлинеарности объясняющих пере­менных регрессии. Основная идея заключается в сокращении числа объясняющих переменных до наиболее существенно влия­ющих факторов. Это достигается путем линейного преобразова­ния всех объясняющих переменных xi (i=0,..,n) в новые пере­менные, так называемые главные компоненты. При этом требу­ется, чтобы выделению первой главной компоненты соответство­вал максимум общей дисперсии всех объясняющих переменных xi (i=0,..,n). Второй компоненте — максимум оставшейся дис­персии, после того как влияние первой главной компоненты ис­ключается и т. д. (гл компонента представляет собой линейную комбинацию р-переменных).

*Коэффициенты гл компонент оцениваются таким образом, чтобы дисперсия гл компоненты была максимальной.

*Если переменые Х представлены в одних и тех же единицах измерения, то необходимо использовать ковариационную матрицу, если нет –то корр.

*сумма квадратов всех компонент д.б.=1

*первая гл компонента характеризуется максимальной дисперсией, чем больше значение дисперсии, тем важнее компонента.

37. Интерпритация факторов: На данном этапе исследователь должен превратиться из статистика, заботящегося в первую очередь о правильности и точности вычислений, в эксперта по проблеме, закономерности которой исследовались с помощью факторного анализа. Теперь необходимо взять на вооружение все наши знания о переменных, подвергшихся фа, и начать с тщательного анализа последней факторной матрицы для определения того, какие переменные существенно нагружены данным фактором, а какие вообще с ними не связаны. Первые гипотезы о природе выявленных факторов могут основываться на наблюдениях и наших знаниях о самих переменных.

Пр.: от Кеттела: выобрака из 2х пьяных и 2х трезвых людей. 1 пил виски с содовой, 2- вино с содовой, трезвые – ничего не пили. То получим корреляции, которые укажут на какой-то общий фактор. Этим фактором больше всех будут загружены переменные «состояние опьянения» и «содовая вода». В этом случае только тот, кто знает, что переменные «виски « и «вино» включает общий фактор – алкоголь, распознает его роль при переменной «состояние опьянения». Только использование достаточно обширной выборки, включающей также людей, которые пили только содовую веду без алкоголя, уменьшит у переменной «содовая вода» нагрузку факторов «опьянения» и особенно «алкоголь» до минимальных размеров.

Сущностью факторного анализа является процедура вращения факторов, то есть перераспределения дисперсии по определённому методу. Цель ортогональных вращений — определение простой структуры факторных нагрузок, целью большинства косоугольных вращений является определение простой структуры вторичных факторов, то есть косоугольное вращение следует использовать в частных случаях.

Необходимость вращения факторов возникает чаще всего, когда выявленным факторам не удается дать достаточно четкую содержательную интерпретацию. Например, факторные нагрузки для рассматриваемого фактора могут быть близкими по величине и одинаковыми по знаку у многих признаков, так что трудно однозначно определить, какой фактор 'стоит' за выделенной комбинацией признаков. Вращение позволяет сделать матрицу факторных нагрузок более 'контрастной' за счет увеличения нагрузок по одним признакам и уменьшения по другим, что способствует более отчетливому выявлению групп признаков, определяющих тот или иной фактор.

Вращение бывает:

  • ортогональным

  • косоугольным.

При первом виде вращения каждый последующий фактор определяется так, чтобы максимизировать изменчивость, оставшуюся от предыдущих, поэтому факторы оказываются независимыми, некоррелированными друг от друга (к этому типу относится МГК). Второй вид — это преобразование, при котором факторы коррелируют друг с другом. Преимущество косоугольного вращения состоит в следующем: когда в результате его выполнения получаются ортогональные факторы, можно быть уверенным, что эта ортогональность действительно им свойственна, а не привнесена искусственно.

Аналитические и геометрические методы – может быть это расчитанные вручную и нарисованные (графическое изображение)-не уверена!!!

Решение задач можно осуществлять 2 методами:

  1. используя геометрическую интерпретацию проблемы (рисунки, графики, модели);

  2. выполняя соответствующие вычисления, приводящие к определению нового положения системы новых проекций.

Используя лишь графики, нельзя достич высокой точности результатов, не говоря уже о том, что в многмерных случаях их применение требует кропотливой работы. Однако, применительно к задаче определения наилучшего положения осей графическая интерпритация играет главную роль. Только с ее помощью можно представить наглядно, как перемещаются отдельные группы точек относительно вращаемых осей, что облегчает поиск простой структуры.

Точное определение можно получить с помощью алгебраических и тригоноометрических вычислений, которое осуществляется в факторном анализе посредством вычисления формул.

Факторные нагрузки.

Пр.: Теперь проведем анализ главных компонент и рассмотрим решение с двумя факторами. Для этого рассмотрим корреляции между переменными и двумя факторами (или "новыми" переменными), как они были выделены по умолчанию; эти корреляции называются факторными нагрузками.

STATISTICA ФАКТОРНЫЙ АНАЛИЗ

Факторные нагрузки (Нет вращения) Главные компоненты  

Переменная

Фактор 1

Фактор 2

РАБОТА_1 РАБОТА_2 РАБОТА_3 ДОМ_1 ДОМ_2 ДОМ_3

.654384 .715256 .741688 .634120 .706267 .707446

.564143 .541444 .508212 -.563123 -.572658 -.525602

Общая дисперсия Доля общей дисп.

2.891313 .481885

1.791000 .298500

Т.О.: По-видимому, первый фактор более коррелирует с переменными, чем второй. Это следовало ожидать, потому что, как было сказано выше, факторы выделяются последовательно и содержат все меньше и меньше общей дисперсии.

Экспертное оценивание — процедура получения оценки проблемы на основе мнения специалистов (экспертов) с целью последующего принятия решения (выбора).

Существует две группы экспертных оценок:

  • Индивидуальные оценки основаны на использовании мнения отдельных экспертов, независимых друг от друга.

  • Коллективные оценки основаны на использовании коллективного мнения экспертов.

Совместное мнение обладает большей точностью, чем индивидуальное мнение каждого из специалистов. Данный метод применяют для получения количественных оценок качественных характеристик и свойств. Например, оценка нескольких технических проектов по их степени соответствия заданному критерию, во время соревнования оценка судьями выступления фигуриста.

Формирование гипотез:

  • Влияние количественных факторов на другие количественные. Пр.: Была проведена акция. Положительно ли повлияла акция? Х1 ср – до акции, Х2 ср – после.

Н0 – не повлияло : Х1ср=Х2 ср.; Х1ср<Х2 ср. Н1: Х1ср>Х2 ср.

  • Влияние качественных на количественные (и наоборот). анализ влияния качественных факторов на количественные (Пр.: влияет ли качество – уровень обслуживания на посещаемость – обращение клиентов в банк).

Результат анализа – да/нет. Т.е. влияет качественный фактор или нет.

Проверяется нулевая гипотеза: Н0: сигма1 в квадрате=сигма2 в квадрате = сигма житое в квадрате = 0!!! Если применяется эта гипотеза, то качественный фактор НЕ оказывает влияние на количественный.

Н1: сигма1 в квадрате ≠сигма2 в квадрате ≠сигма житое в квадрате ≠ 0. Значит качественный фактор оказывает влияние на количественный.

Методы линейного программирования (транспортная задача, задача оптимального раскроя, задача оптимальной смеси и пр.) используются для решения многих оптимизационных аналитических задач, где функциональные зависимости исследуемых явлений и процессов детерминированы. Задача линейного программирования при проведении экономического анализа состоит в поиске экстремальных значений исследуемых параметров объекта, доставляющих максимум (минимум) критерию при ресурсных ограничениях. Оптимальное линейное программирование. Нахождение максимума или минимума целевой функции при заданных ограничениях. Необходимое условие использования оптимального подхода к планированию и управлению (принципа оптимальности) — гибкость, альтернативность производственно-хозяйственных ситуаций, в условиях которых приходится принимать планово-управленческие решения. Традиционные критерии оптимальности: «максимум прибыли», «минимум затрат», «максимум рентабельности» и др.

Модель любой задачи линейного программирования включает: целевую функцию, оптимальное значение которой (максимум или минимум) требуется отыскать; ограничения в виде системы линейных уравнений или неравенств; требование неотрицательности переменных.

В общем виде модель записывается следующим образом:

 целевая функция:

= c1x1 + c2x2 + ... + cnxn → max(min);

(2.1)

 ограничения:

a11x1 + a12x2 + ... + a1nxn {≤ = ≥} b1, a21x1 + a22x2 + ... + a2nxn {≤ = ≥} b2,

...            

am1x1 + am2x2 + ... + amnxn {≤ = ≥} bm;

(2.2)

 требование неотрицательности:

xj ≥ 0,  

(2.3)

При этом aij, bi, cj (   ) - заданные постоянные величины.

Задача состоит в нахождении оптимального значения функции (2.1) при соблюдении ограничений (2.2) и (2.3).

Систему ограничений (2.2) называют функциональными ограничениями задачи, а ограничения (2.3) - прямыми.

Вектор , удовлетворяющий ограничениям (2.2) и (2.3), называется допустимым решением (планом) задачи линейного программирования. План , при котором функция (2.1) достигает своего максимального (минимального) значения, называется оптимальным.

Далее приведем примеры некоторых типовых задач, решаемых при помощи методов линейного программирования. Такие задачи имеют реальное экономическое содержание.

38. Кластерный анализ - совокупность математических методов, предназначенных для формирования относительно "отдаленных" друг от друга групп "близких" между собой объектов по информации о расстояниях или связях (мерах близости) между ними.

По смыслу аналогичен терминам: автоматическая классификация, таксономия, распознавание образов без учителя. Такое определение кластерного анализа дано в последнем издании "Статистического словаря".

Фактически "кластерный анализ" - это обобщенное название достаточно большого набора алгоритмов, используемых при создании классификации. В ряде изданий используются и такие синонимы кластерного анализа, как классификация и разбиение. Кластерный анализ широко используется в науке как средство типологического анализа. В любой научной деятельности классификация является одной из фундаментальных составляющих, без которой невозможны построение и проверка научных гипотез и теорий.

Большое достоинство кластерного анализа в том, что он позволяет производить разбиение объектов не по одному параметру, а по целому набору признаков. Кроме того, кластерный анализ в отличие от большинства математико-статистических методов не накладывает никаких ограничений на вид рассматриваемых объектов, и позволяет рассматривать множество исходных данных практически произвольной природы. Это имеет большое значение, например, для прогнозирования конъюнктуры, когда показатели имеют разнообразный вид, затрудняющий применение традиционных эконометрических подходов.

Кластерный анализ позволяет рассматривать достаточно большой объем информации и резко сокращать, сжимать большие массивы социально-экономической информации, делать их компактными и наглядными.

Важное значение кластерный анализ имеет применительно к совокупностям временных рядов, характеризующих экономическое развитие (например, общехозяйственной и товарной конъюнктуры). Здесь можно выделять периоды, когда значения соответствующих показателей были достаточно близкими, а также определять группы временных рядов, динамика которых наиболее схожа.

Кластерный анализ можно использовать циклически. В этом случае исследование производится до тех пор, пока не будут достигнуты необходимые результаты. При этом каждый цикл здесь может давать информацию, которая способна сильно изменить направленность и подходы дальнейшего применения кластерного анализа. Этот процесс можно представить системой с обратной связью.

Строение: пусть множество I = {I1, I2,…,In} обозначает n объектов (индивидов), принадлежащих некоторой популяции п1. Предположим также, что существует некоторое множество наблюдаемых показателей или характеристик С = (С1, С2, …, Ср)Т, которыми обладает каждый индивид из I. Наблюдаемые характеристики могут быть как качественными так и количественными; однако основная часть нашего рассмотрения будет посвящена количественным данным, которое иногда называются измерениями. Результат измерения итой характеристики Ij объекта будет обозначаться символом Хij, а вектор Хj=[xij] размерности р×1 будет отвечать каждому ряду измерений (для житого индивида). Т.О., для множетсва индивидов I исследователь располагает множеством векторов измерений Х={Х1, Х2, …, Х n}, которые описывают множество I.Множество Х может быть представлено как n точек в р-мерном эвклидовом пространстве Ер.

Мера сходства: измерения могут быть представлены в виде матрицы. Неотрицательная вещественная функция s (Xi, Xj)=sij, называется мерой сходства, если:

  1. 0 ≤ s (Xi, Xj)<1 для Xi≠Xj

  2. s (Xi, Xj)=1

  3. s (Xi, Xj)= s (Xi, Xj)

Также пары значений мер сходства можно объединить в матрицу (где по диагонали 1). Sij – коэффициент меры сходства.

*Если каждый вектор измерения Х-итое состоит из 0 и 1, то это коэффициент ассоциации (парный коэф-т).

*коэфф-т корреляции – мера линейного сходства:

Пр.:

Р асстояние: Неотрицательная вещественнозначная функция d (Xi, Xj) называется функцией расстояния (метрикой), если:

  1. d (Xi, Xj)≥0 для всех Xi и Xj из Ер;

  2. d (Xi, Xj)=0, тогда и только тогда, когда Xi = Xj;

  3. d (Xi, Xj) = d (Xj, Xi);

  4. d (Xi, Xj)≤ d (Xi, Xк)+ d (Xк, Xj), где Xi, Xj, Xк – любые три вектора из Ер.

Значение d (Xi, Xj) для заданных Xi и Xj называется расстоянием между Xi и Xj и эквивалентно расстоянию между Ii и Ij соответственно выбранным характеристикам С = (С1, С2, …, Ср)Т. Некот функции расстояния(табл)

Однородность: неотъемлемой частью задачи кластерного анализа является понятие оптимального критерия (целевой функции), которое позволяет установить, когда достигается желательное разбиение. Для введения подобного критерия необходимо найти меру внутренней однородности кластера и меру разнородности кластеров между собой.

Пусть I = {I1, I2,…,In} и J={J1, J2,…, Jn2} обозначают два кластера объектов, принадлежащих некоторой популяции п. Пусть С = (С1, С2, …, Ср)Т будет множеством характеристик, которые генерируют два множества измерений Х={Х1, Х2, …, Х n1} и Х={У1, У2, …, У n2}, соответствующие I и J.

Обозначим через D={d(Xi, Yj), i=2,…,n1; j=1,2,…,n2} множество всех расстояний. Величину:

D 1(I,J)=min (либо макс) d (Xi, Yj), i=1,…,n1, j=1,…,n2 – будем называть минимальным (либо максимальным) локальным расстоянием между кластерами I и J, соответствующим данной функции расстояния d.

D3 – среднее расстояние между I и J, соответствующее данной функции расстояния d.

- статистическое расстояние между кластерами I и J.

- Матрица межгруппового рассеивания (к ней прибивляются внутригрупповые рассеивания I и J).

Сравнение кластерного и факторного анализов:

Главное сходство между кластерным и факторным анализами в том, что оба предназначены для перехода от исходной совокупности множества переменных (или объектов) к существенно меньшему числу факторов (кластеров).

Основные отличия

1. Цель факторного анализа – замена большого числа исходных переменных меньшим числом факторов. Кластерный анализ, как правило, применяется для уменьшения числа объектов путем их группировки. В кластерном анализе обычно переменные не группируются, а выступают в качестве критериев для группировки объектов. Кластерный анализ применяется обычно для выделения групп объектов, исходя из их сходства по измеренным признакам.

Группы объектов, выделенные в результате кластерного анализа на основе заданной меры сходства между объектами, называются кластерами.

2. Начиная с версии SPSS 10.0, программа позволяет проводить кластерный анализ и только объектов, и переменных. В последнем случае кластерный анализ может выступать как более простой аналог факторного анализа.

3. Различие в выполнении статистических операций:

  • факторный анализ – на каждом этапе извлечения фактора для каждой переменной подсчитывается доля дисперсии, которая обусловлена влиянием данного фактора.

  • кластерный анализ – вычисляется расстояние между текущим объектом и всеми остальными объектами, и кластер образует та пара, для которой расстояние оказалось наименьшим. Подобным образом каждый объект группируется либо с другим объектом, либо включается в состав существующего кластера. Процесс кластеризации конечен и продолжается до тех пор, пока все объекты не будут объединены в один кластер.

4. Вид кластерного анализа – иерархический кластерный анализ, часто используется в биологии, экономике, социологии, политологии, а в психологии, обычно анализируют переменные для определения статистических связей между ними; которые, как правило, указывают на сходство между теми или иными исследуемыми факторами.

5. Как и в случае факторного анализа, выполнение кластерного анализа и его результаты зависят от ряда параметров: способа вычисления расстояния между объектами, кластеризации индивидуальных объектов и т. д.

При проведении кластерного анализа отдельные кластеры могут формироваться при помощи пошагового слияния, для которого существует ряд различных методов. Важную роль играют иерархические и партиционные методы, причём последние применяются в подавляющем большинстве случаев. Оба эти метода можно задействовать, если пройти через меню Analyze (Анализ) Classify (Классифицировать). Они помещены в этом меню под именами Hierarchical Cluster... (Иерархический кластер) и K-Means Cluster... (Кластерный анализ методом к-средних).

АЛГОРИТМ ПОСЛЕДОВАТЕЛЬНОЙ КЛАСТЕРИЗАЦИИ (из книги Дюрана – «кластерный анализ»):

Рассмотрим I = {I1, I2,…,In} как множество кластеров {I1}, {I2}, …, {In}; выберем два из них, скажем Ii и Ij, которые в некотором смысле наиболее близки друг другу, и объединим их в один кластер. Новое множество кластеров, состоящее уже из n-1 кластеров, будет: {I1}, {I2}, …,{IiIj}, …, {In}.

Повторяя процесс мы получим последовательные множества кластеров, состоящие из n-2, n-3 и т.д. кластеров. В конце этой процедуры получится кластер, состоящий из n объектов и совпадающий с первоначальным множеством I = {I1, I2,…,In}.

В качестве меры расстояния примем квадрат евклидовой метрики d2ij. Для наглядности вычислим матрицу D={d2ij}, где d2ij – расстояния между Ii и Ij.

Предположим, что расстояние между Ii и Ij минимально, т.е., что d2ij = min{d2ij , i≠j}, образуем с помощью Ii и Ij новый кластер {Ii, Ij}. Построим новую (n-1)×(n-1) матрицу расстояния. Значения d2ij после первого объединения:

Легко видеть, что n-2 строки для этой матрицы можно непосредственно взять из старой, однако первую строку необходимо вычислить заново. Очевидно, вычисления будут сведены к минимуму, если удастся выразить d2ijк, к=1,2,…, n, к≠i≠j через элементы первоначальной матрицы.

Ланс и Уильямс предложили рекурсивную процедуру, в которой вычисления матрицы расстояний опираются только на значения расстояний в предыдущей матрице. Их рекурсивная сх предполагает использование мин (объединение 2х кластеров, имеющих наименьшее мин локальное расстояние) и макс локальных расстояний (билет 38), медианы, групповых средних и центра. Медианный метод такой же как центроидный, за исключением того, что здесь при объединении кластеров I и J предполагается, что ni=nj, и поэтому центр нового кластера лежит точно посередине между центрами старых клатеров. Уишарт считает, что процедуру Уорда можно объединить с пятью, рассмотренными выше.

О бъединение кластеров I и J ведет к увеличению ВСК (внутригрупповая сумма квадратов) на величину Wij:

Г де

Е сли кластер IUJ = L объединяется с К, то можно показать, что

Тогда: , из этого следует, что: , при подставке получаем:

Последнее уравнение определяет вел ВСК при объединении К и IUJ.

Начиная с матрицы квадратов евклидовых расстояний (самой первой) D={d2ij , i=1,2,…,n; j=1,2,…,n} процедура заключается в объединении таких кластеров Ip и Iq, для которых d2pq=2Wpq минимально. Кластер Ip, состоящий из одного объекта, заменяется на IpUJq, а расстояния d2ip , i=1,2,…,n; j=1,2,…,n; i≠р, q в матрице D заменяются на d2ip=2Wip. Элементы q-го столбца и строки полагаются равными нулю, т.е.Sq становится «недействительным». Соответственно nр заменяется на nр + nq, а nр приравнивается к нулю. Равенство: d2ip=2Wip выполняется для всех {d2ij}, i, j≠q. Подставляем:

где nr=np+nq. Если на каждом шаге объединения р-е столбцы и строки матрицы D преобразовываются по последней формуле, то равенство d2ij будет выполнятся для всех d2ij и всех действительных множеств Si и Sj. Заметим, что d2ij в его формуле не является евклидовым расстоянием, если не рассматриваются только два кластера, содержащих по одному элементу.

Окончательная запись алгоритма группировки:

  1. Найдем d2pq=min { d2ij}, i=1,…, j-1; j=2,…,n; ni > 0; nj >0;

  2. Увеличение целевой функции при объединении двух кластеров Ip Iq равно Wpq=1/2 d2pq;

  3. Ip заменяется на SpUSq; строка { d2iр} и столбец { d2рj}матрицы D пересчитывается по последней формуле, i=1,2,…,р-1; ni > 0; j=р+1,…, n; j≠q; nj > 0;

  4. Полагаем nр= nр+ nq и nq=0, превращая Sq в недействительное множество;

  5. Записываем элементы кластера Sq в кластер Sр, возвразаемся к (1) и повторяем процедуру n-2 раз.