- •Глава 2
- •Глава 1
- •Глава 2
- •§ 1. Психофизические шкалы
- •§ 2. Нольмерное шкалирование
- •§ 3. Одномерное шкалирование
- •§ 4. Модель шкалирования Терстоуна
- •§ 5. Многомерный анализ сложных стимулов
- •§ 6. Многомерное шкалирование
- •Часть I локализация точки на шкале (нольмерное шкалирование)
- •Глава 1. Методы измерения порогов
- •§ 1. Метод минимальных изменений
- •§ 2. Метод средней ошибки
- •§ 3. Метод постоянных раздражителей
- •Результаты эксперимента по определению пространственного порога тактильного восприятия
- •Методические рекомендации по выполнению учебных заданий по теме
- •Литература
- •Требования к оформлению отчета по учебному заданию
- •Глава 2. Методы обнаружения сигнала
- •§ 1. Общие понятия
- •§ 2. Метод “Да-Нет”
- •Исходы эксперимента по обнаружению сигнала
- •§ 3. Метод двухальтернативного вынужденного выбора (2авв)
- •§ 4. Метод оценки
- •Теоретические результаты эксперимента с использованием метода оценки
- •Способ расчета p(h) и p(fa) по полученным данным в методе мо
- •Обработка результатов
- •Обсуждение результатов
- •Литература
- •Дополнительные сведения о критериях принятия решения
- •Краткое описание программы yes_no.Exe
- •Часть II одномерное шкалирование
- •Глава 1. Метод балльных оценок
- •§ 1. Графические шкалы
- •§ 2. Числовое шкалирование
- •§ 3. Шкалирование по стандартной шкале
- •§ 4. Проблемы, связанные с построением шкал балльных оценок
- •§ 5. Проблемы, связанные с обработкой полученных данных
- •Литература
- •Методические указания по выполнению учебных заданий по теме
- •Глава 2. Метод парных сравнений. Модель терстоуна
- •§ 1. Закон сравнительных суждений
- •§ 2. Процедура измерения
- •§ 3. Упрощенные варианты закона сравнительных суждений
- •§ 4. Процедура решения V варианта закона сравнительных оценок для полной матрицы
- •Матрица частот f
- •Матрица вероятностей p
- •Матрица z ‑ оценок
- •§ 5. Процедура решения V варианта закона сравнительных суждений для неполной матрицы исходных данных
- •Матрица вероятностей p
- •Матрица z — оценок
- •Литература
- •Глава 3. Методы прямой оценки
- •§ 1. Метод установления заданного отношения
- •Результаты оценки испытуемыми стимула как половины стандартного (по Харперу и Стивенсу, 1948)
- •§ 2. Метод оценки величины
- •Литература
- •Методические рекомендации по выполнению учебного задания по теме
- •Часть III многомерное шкалирование
- •Глава 1. Факторный анализ
- •Введение
- •§ 1. Область применения факторного анализа
- •§ 2. Исходные принципы и предположения
- •§ 3. Основные этапы факторного анализа
- •Использование различных методов факторизации для получения двухфакторного решения
- •§ 4. Дополнительные статистические показатели для оценки результатов факторного анализа
- •§ 5. Несколько замечаний по поводу конфирматорного фа
- •Методические рекомендации по выполнению учебного задания по теме «Факторный анализ»
- •Литература
- •Глава 2. Метрическое и неметрическое многомерное шкалирование
- •§ 1. Основные положения
- •§ 2. Исходные данные. Матрица сходств и различий
- •§ 3. Построение пространственной модели стимулов
- •§ 4. Построение метрической модели
- •§ 5. О развитии моделей многомерного шкалирования
- •Литература
- •Методические рекомендации по выполнению учебного задания по теме
- •Методика
- •Обработка результатов
§ 2. Исходные данные. Матрица сходств и различий
Для МШ существенным является определенная организация исходного экспериментального материала в так называемую матрицу сходств. Элементом матрицы (Sij) является некоторая мера сходства между парой стимулов i и j или обратная ей величина Dij — мера различия.
Оценки различий можно получить от испытуемого разными методами. В каждом случае выбор метода шкалирования различий зависит от конкретных экспериментальных условий. Но существует разделение этих методов на два больших класса, которое зависит только от того, какая модель МШ используется для анализа матрицы различий — метрическая или неметрическая.
Условия, налагаемые на элементы матрицы различий в метрическом МШ, строго соответствуют аксиомам расстояния в геометрическом пространстве:
1. Рефлексивность различия:
Dij = 0 (5)
подразумевает, что различие между двумя идентичными стимулами (диагональные элементы матрицы различий) должно равняться нулю.
2. Симметричность различий:
Dij = Dji (6)
означает, что оценка различия не должна зависеть от временных и пространственных перестановок стимулов относительно друг друга при оценивании (элементы матрицы различий, симметричные относительно главной диагонали).
3. Аксиома треугольника:
Dij + Djk Dik (7)
требует, чтобы суммарное различие между любыми двумя парами из трех данных стимулов было не меньше, чем различие между оставшейся парой стимулов.
В терминах теории измерений это означает, что субъективные оценки различий должны представлять собой величины на шкале отношений. Только в этом случае их можно рассматривать непосредственно как расстояния между точками в психологическом пространстве или субъективные расстояния.
Методы для шкалирования психологического расстояния между сложными стимулами в большей части прямо аналогичны методам одномерного шкалирования. Большинство методов вполне могут быть расширены до шкалирования многомерных различий. Однако в каждом случае от испытуемого требуется более сложное суждение. Прямое расширение моделей требует некоторой модификации (Торгерсон, 1958). Эти изменения определяются, во-первых, усложнением стимулов, и, во-вторых, сменой содержания оценочных суждений. В одномерном случае оценка представляет величину стимула на шкале, тогда как в МШ оценивается психологическое расстояние между парами стимулов. Если в ситуации одномерного шкалирования шкала отношений или интервалов строилась для самих оценок стимулов, то теперь эти шкалы строятся для межстимульных различий.
Несколько более слабые ограничения налагает на элементы матрицы различий модель неметрического МШ. В общем случае достаточно, чтобы оценки различий удовлетворяли отношениям, установленным для шкалы порядка. Методы порядкового шкалирования основываются на ясных и простых принципах, которые легко реализуются в большинстве экспериментальных ситуаций.
Например, испытуемому могут быть предъявлены все пары стимулов одновременно и он должен упорядочить их по степени сходства. Иногда порядок различия оценивается в баллах.
В некоторых случаях информацию о сходствах можно получить из данных о смешении стимулов. Информацию о смешениях можно получить на основе идентификации испытуемым предъявляемых стимулов. Тогда в клетку ij матрицы заносится число, равное числу случаев, когда испытуемый идентифицировал стимул i как j. Частота случаев идентификации стимула i как j может служить мерой их сходства. Испытуемому можно предложить упорядочить все стимулы в один ряд. Такое упорядочивание производится по отношению к каждому стимулу. Сходство двух стимулов оценивается по частоте их попадания в соседние участки ряда.
Пристального внимания заслуживает вариант, в котором предлагается упростить работу испытуемого, заменив задачу оценивания попарных различий более простой задачей классификации стимулов. Пусть имеется множество многомерных стимулов (цвета, шрифты, вкусовые качества пищевых продуктов, геометрические фигуры и т.п.). Для данного множества стимулов <N> выбирается произвольный набор классов <k> (категорий, наименований) так, чтобы каждый стимул всегда можно было бы отнести по крайней мере к какому-нибудь одному классу. Набор классов должен исчерпывать классификацию стимулов. Например, для множества вкусовых качеств пищевых продуктов можно предложить набор из четырех основных классов (кислый, сладкий, горький, соленый). Классификация заключается в отнесении каждого данного стимула к одному или нескольким классам. Причем, если стимул относится к одному классу, например, “кислый” для вкуса, то класс заполняется полным весом стимула, или единицей, если же стимул относится сразу к двум классам, например, “кисло-сладкий”, то каждому классу приписывается по половине веса стимула. Если имеет значение место класса в названии, то тому классу, который ставится на первое место, надо приписывать больше веса. Процедура распределения весов стимулов при классификации может быть самой различной, необходимо лишь, чтобы сохранялось порядковое соответствие между распределением весов по классам и предпочтением при классификации стимулов.
В результате классификации стимулов по данному набору классов строится матрица Eij, в которой строка определяется номером стимула Si - Sn, а столбец указывает класс (Ai + Aj). Элементом матрицы Eij является число, показывающее вес стимула Si по классу Aj, просуммированный по числу предъявлений. Каждая строка матрицы представляет собой вектор , компонентами которого служат элементы строки . Все строки образуют векторное пространство реакций размерности k (по числу классов). В этом пространстве вводится некоторая мера различия между векторами, и тогда попарные различия всех векторов дадут матрицу субъективных различий между стимулами. Полученная таким образом матрица различий вводит данные в систему МШ.
Такая процедура успешно применялась Шепардом и Кэрролом (1966) и Измайловым (1979) к данным называния цветов Бойтона и Гордона (1965) для построения пространства цветоразличения.