- •Редакционный совет: в.И Бахмин, я.М. Бергер, е.Ю. Гениева, г.Г. Дилигенский, в.Д. Шадриков
- •Предисловие
- •Введение в психологическое шкалирование §1. Психофизические шкалы
- •§2. Нольмерное шкалирование
- •§3. Одномерное шкалирование
- •§4. Модель шкалирования Терстоуна
- •§5. Многомерный анализ сложных стимулов
- •§6. Многомерное шкалирование
- •Часть I. Локализация точки на шкале (нольмерное шкалирование) Глава 1. Методы измерения порогов
- •§1. Метод минимальных изменений
- •§2. Метод средней ошибки
- •§3. Метод постоянных раздражителей
- •Результаты эксперимента по определению пространственного порога тактильного восприятия
- •Методические рекомендации по выполнению учебных заданий по теме: "Локализация точки на шкале"
- •Литература
- •Приложение 1. Требования к оформлению отчета по учебному заданию
- •Приложение 2. Таблица для перевода значений р в значения z
- •Глава 2. Методы обнаружения сигнала §1. Общие понятия
- •§2. Метод "Да-Нет"
- •Исходы эксперимента по обнаружению сигнала
- •§ 3. Метод двухальтернативного вынужденного выбора (2авв)
- •§ 4. Метод оценки
- •Теоретические результаты эксперимента с использованием метода оценки
- •Способ расчета р(н) и p(fa) по полученным данным в методе мо
- •Методические рекомендации по выполнению учебных заданий по теме "Методы обнаружения сигнала"
- •Результаты тренировочных серий (задача -обнаруживать q на фоне о, длит. Стимула - 250 мс, мси - 2000 мс)
- •Литература
- •Приложение 1. Дополнительные сведения о критериях принятия решения*
- •Приложение 2. Краткое описание программы yes_no.Exe
- •Фрагмент протокола эксперимента, выводимого программой на экран монитора после окончания серии
- •Часть II. Одномерное шкалирование Глава 1. Метод балльных оценок
- •§ 1. Графические шкалы
- •§ 2. Числовое шкалирование
- •§ 3. Шкалирование по стандартной шкале
- •§ 4. Проблемы, связанные с построением шкал балльных оценок
- •§ 5. Проблемы, связанные с обработкой полученных данных
- •Литература
- •Методические указания по выполнению учебных заданий по теме "Метод балльных оценок"
- •Глава 2. Метод парных сравнений. Модель Терстоуна § 1. Закон сравнительных суждений
- •§2. Процедура измерения
- •§ 3. Упрощенные варианты закона сравнительных суждений
- •§ 4. Процедура решения V варианта закона сравнительных оценок для полной матрицы
- •Матрица частот — f
- •Матрица вероятностей р
- •Матрица z - оценок
- •§5. Процедура решения V варианта закона сравнительных суждений для неполной матрицы исходных данных
- •Литература
- •Методические указания по выполнению учебного задания по теме: "Метод парных сравнений"
- •Глава 3. Методы прямой оценки
- •§ 1. Метод установления заданного отношения
- •Результаты оценки испытуемыми стимула как половины стандартного (по Харперу и Стивенсу, 1948)
- •§2. Метод оценки величины
- •Субъективная шкале запаха амилацетата, разведенного в диэтилфтолате
- •Индивидуальные оценки концентраций пентанола (Кайн, 1968)
- •Скорректированные оценки испытуемых, представленные в табл. 3 (по Энгену)
- •Литература
- •Методические указания по выполнению учебного задания по теме: "Методы прямой оценки"
- •Часть III. Многомерное шкалирование Глава 1. Факторный анализ Введение
- •§ 1. Область применения факторного анализа
- •§ 2. Исходные принципы и предположения
- •§ 3. Основные этапы факторного анализа
- •Использование различных методов факторизации для получения двухфакторного решения
- •Статистические показатели для определения минимального количества факторов
- •§ 4. Дополнительные статистические показатели для оценки результатов факторного анализа
- •Данные описательной статистики для 9 переменных
- •§ 5. Несколько замечании по поводу конфирматорного фа
- •Методические рекомендации по выполнению учебного задания по теме «Факторный анализ»
- •Литература
- •Глава 2. Метрическое и неметрическое многомерное шкалирование
- •§ 1. Основные положения
- •§ 2. Исходные данные. Матрица сходств и различий
- •§ 3. Построение пространственной модели стимулов
- •§4. Построение метрической модели
- •§5. О развитии моделей многомерного шкалирования
- •Литература
- •Методические указания по выполнению учебного задания по теме: "Многомерное шкалирование"
- •Содержание
§ 4. Процедура решения V варианта закона сравнительных оценок для полной матрицы
В V варианте закона, записанном в общем виде (9), единицы измерения шкальных значений всегда можно подобрать так, чтобы константа "с" была равна 1. Тогда:
В случае отсутствия ошибок в оценках искомое различие будет равно наблюдаемому (обозначим его z'j,i). Но в результате ошибок между z'j,i и z.j,i будет некоторое расхождение σ. Задача заключается в получении такого множества оценок шкальных значений стимулов, для которых сумма квадратов всех расхождений является минимальной, т.е. необходимо минимизировать величину
Подставив вместо zi,j идеальные значения, получим:
Все аi,j для всех zi,j из матрицы Z дадут матрицу ошибок α.. Чтобы минимизировать каждую αi,j, необходимо взять частную производную αi,j по Si и Sj. Каждое частное значение Si в матрице ошибок а появляется только в i-той строке и i-том столбце, но поскольку матрица ошибок так же кососимметрична [zi,j = -zj,i и (Si - Sj) = - (Sj - Si)], как и матрица Z, то для каждой Si частная производная будет касаться только i-гo столбца. Дифференцируя элементы каждого столбца по Si, получим:
Приравняем частную производную нулю и после переноса получим:
Разделим выражение (16) на n и возьмем начальное значение шкалы, равное . В результате получим:
Таким образом, для минимизации ошибки необходимо просто взятъ среднее арифметическое по столбцу матрицы Z и мы получим оптимальное значение шкальной величины Si.
Рассмотрим практический пример решения V варианта закона сравнительных оценок методом наименьших квадратов (данные вымышлены). Испытуемому в случайном порядке предъявляются 6 цветных карт из малого набора теста Люшера и просят в каждой паре выбрать наиболее красивый. Каждая пара предъявляется по 50 раз. В итоге для одного из испытуемых была получена следующая матрица частот F (табл.1):
Таблица 1
Матрица частот — f
Примечание: элементом матрицы fi,j является частота, с которой в паре j,i стимул i оценивался более красивым, чем стимул j.
Полученная матрица частот F преобразуется в матрицу вероятностей Р делением частоты fi,j на число предъявлений (N = 50).
Таблица 2
Матрица вероятностей р
Примечания: элементом матрицы рi,j является вероятность, с которой стимул i в паре j,i оценивался более красивым, чем стимул j.
Каждое значение вероятности рi,j из матрицы Р переводится далее с помощью таблицы в единицы стандартного отклонения нормальной кривой — zi,j, по которым и вычисляются шкальные значения Si каждого стимула.
Таблица 3
Матрица z - оценок
Примечания: элементом матрицы zi,j является вероятность рj,i, преобразованная в единицы стандартного отклонения.
Рассмотренная процедура дает возможность для каждого стимула Si получить его значение на шкале интервалов.
§5. Процедура решения V варианта закона сравнительных суждений для неполной матрицы исходных данных
Реальные экспериментальные данные очень часто отличаются от той классической матрицы данных, которая анализировалась выше. Наиболее распространенный артефакт в процедуре парного сравнения, который связан с ограничением на возможное число предъявлений, — стопроцентное предпочтение одного стимула другому, что приводит к появлению в матрице вероятностей нулей и единиц. Ноль и единица в терминах модели Терстоуна не несут сравнительной информации о различии стимулов, поэтому не могут быть использованы для расчетов шкальных значений стимулов.
Для матриц с нулями и единицами (они называются неполными матрицами) существуют особые алгоритмы анализа. Наиболее распространенный из них подробно описан в работе Торгерсона (1958) и вкратце состоит в следующем.
Из выражения (12) для стимула j следует, что стимул j+1 будет описываться следующим выражением:
Вычтя из уравнения (18) уравнение (12), мы получим сравнительное различие для интересующего нас стимула косвенным путем. В терминах минимизированной ошибки эта величина может быть вычислена из выражения:
где nj — есть индекс суммирования.
Для практического удобства матрицу Z следует перестроить таким образом, чтобы столбцы были упорядочены по величине. Порядок столбцов в матрице Z определяется суммой по столбцу матрицы Р. Для такой упорядоченной матрицы Z различие Sj+e - S, можно прямо вычислить из выражения (19). Если мы шкальное значение первого стимула (S;) приравняем к нулю, то шкальное значение любого стимула есть сумма шкального значения стимула и расстояния между данным стимулом и предшествующим:
Рассмотрим практический пример решения для неполной матрицы частот, взятый из работы Торгерсона (1958). Пусть нам дана матрица вероятностей предпочтения i-го стимула j-му с некоторыми вырожденными (пустыми) элементами, равными 0 или 1.
Таблица 4
Матрица вероятностей Р
Примечания: элементом матрицы рi,j является вероятность, с которой стимул i в nape j,i оценивался более предпочтительным, чем стимул j.
Преобразуем вероятности рi,j в единицы стандартного отклонения нормального распределения — zi,j.
Таблица 5
Матрица Z — оценок
Примечания: элементом матрицы Zi,j является вероятность рj,i, преобразованная в единицы стандартного отклонения.
Таблица 6
Матрица Z' — оценок
Примечания: элементом матрицы Zi,j является вероятность р'j,i преобразованная в единицы стандартного отклонения. Столбцы упорядочены по возрастанию ∑ p'j,i .
Переставим столбцы в матрице Z в таком порядке, чтобы первый столбец имел наименьшую сумму элементов, а последний — наибольшую.
Таблица 7
Матрица разностей между столбцами
Из матрицы Z' можно получить матрицу различий между соседними парами столбцов, вычитая их поэлементно один из другого. В каждой j-й строке элемент этой матрицы будет равен (zj,i+1 - zj,i).
Пользуясь выражением (20), вычисляем из полученных различий шкальные значения стимулов, приняв, что S1 = 0:
S1 = 0,
S3 = 0 + 1.5 = 1.5,
S5 = 1.5 + 0.53 = 2.03,
S4 = 2.03 + 0.98 = 3.01,
S2 = 3.01 + 0.56 = 3.97.
Из рассмотренной процедуры видно, что недостающие элементы матрицы компенсируются наличием внутренней связи между элементами столбца, что позволяет рассматривать разность между столбцами матрицы как результат алгебраической интерполяции отсутствующих элементов в столбце.