- •Isbn 5-8291-0726-0 (Академический Проект) isbn 5-902357-51-9 (Фонд «Мир»)
- •Isbn 5-8291-0726-0 isbn 5-902357-51-9
- •Глава 1
- •2.1. Основные стратегии исследований (номотетический и идиографический подход]
- •5.2. Эксперимент как особый тип исследования
- •5.3. Оценка эффективности программ
- •5.4. Выборочное исследование
- •5.5. Изучение случая
- •Социалогическое исследование в социальной работе.
- •6.3. Этапы социологического исследования
- •6.4. Основные виды социологического исследования
- •7.1. Программа исследования
- •7.2. Методологическая часть программы
- •7.3. Методическая часть программы
- •1.1. Анкетирование - основная разновидность опроса
- •1.2. Виды анкетирования
- •Вводная часть.
- •Основная часть.
- •«Паспортичка».
- •3.2. Основные термины и понятия
- •3.3. Классификация видов наблюдения
- •I Карточка выступающего
- •II Карточка регистрации реакции аудитории на выступление
- •III Карточка регистрации общей ситуации во время выступлений
- •3.4. Этапы проведения наблюдения
- •3.5. Достоинства и недостатки метода наблюдения
- •3.6. Подготовка наблюдателя
- •3.7. Надежность данных наблюдения
- •4.1. Применение метода анализа документов
- •4.2. Классификация видов документов
- •4.3. Виды анализа документов
- •4.4. Использование контент-анализа в социальных науках
- •4.5. Выбор необходимых видов документов для проведения исследования
- •4.Б. Этапы проведения контент-анализа
- •4.7. Достоинства и недостатки анализа документов
- •1. Качественные методы
- •2. Количественный анализ
- •2.1. Описательная статистика
- •2.2. Статистический вывод
- •Глава 4
- •3.1. Композиция диссертации
- •3.2. Оформление текста научной работы
- •4.1. Монографическое библиографическое описание
- •4.2. Аналитическое библиографическое описание
- •5.1. Виды библиографических ссылок и общие правила их оформления
- •5.2. Приемы сокращения библиографических ссылок
- •Глава 3.
- •Глава 4.
2.2. Статистический вывод
Теперь обратимся ко второй большой группе количественных методов анализа, на основе которых делается статистический вывод. В этом случае стоит задача перехода от отдельной выборки к характеристикам (параметрам) генеральной совокупности, то есть всего класса объектов в целом. Дело в том, что исследователь редко имеет возможность изучать всех представителей какой-то группы или социальной категории. Можно, например, обследовать все многодетные семьи, проживающие в данном микрорайоне. Но тогда выводы в полной мере будут относиться лишь к этой конкретной группе людей. Насколько они справедливы для многодетных семей всего города или области? Чтобы ответить на этот вопрос, нужно знать, насколько типична или специфична обследованная группа. Если она типична, то сходные проблемы выявятся и у других многодетных семей. Если группа очень специфична, то мы не имеем права обобщать полученные данные. На языке статистики это значит, что наша выборка принадлежит к другой генеральной совокупности. Опять мы сталкиваемся с задачей сравнения характеристик выборки и генеральной совокупности, с необходимостью суждения об их тождестве или различии.
В реальной практике исследования вопрос чаще всего ставится несколько иначе, но логически он относится к тому же классу. Требуется сравнить две группы (выборки) и решить, насколько значимо они различаются между собой. Любой эксперимент предполагает оценку эффекта изучаемого воздействия. Исследователь в этом случае стремится показать, что экспериментальная группа существенно отличается в интересующем его отношении от контрольной группы. Оценивая эффективность образовательных программ, лечебных и оздоровительных мероприятий, мы смотрим, насколько существенными оказываются позитивные сдвиги. И что называть сдвигом? Если больной выздоровел, то это — явный качественный сдвиг. Если ему стало легче, его меньше беспокоят боли, то это некоторый количественный сдвиг. Но можно ли говорить о переходе из одного состояния в другое ? Для этого нам нужны критерии тождества или различия двух состояний. Статистика в этой второй своей роли предлагает определенные формальные правила, позволяющие делать такого рода выводы.
Общая логика рассуждений такова. У нас есть два множества объектов. Если различие между ними по какому-то параметру настолько очевидное, что эти два множества не пересекаются, мы с уверенностью говорим, что это два разных класса объектов. Например, если минимальное значение дохода в одной группе населения превышает максимальное значение дохода в другой группе, то мы в праве утверждать, что группы различаются по своему материальному положению. Но это случай весьма тривиальный. Никому не придет в голову проводить исследования, чтобы доказать, что слон больше муравья. Это очевидно. Наука имеет дело с нетривиальными задачами, то есть с такими ситуациями, где на основании имеющихся знаний мы выдвигаем какие-то более или менее правдоподобные гипотезы, которые еще нуждаются в проверке и в доказательстве. Обычный случай, с которым имеет дело ученый, — это частично пересекающиеся множества (частично перекрывающиеся распределения). Вот тут и встает проблема различения и отождествления.
Проблема осложняется тем, что, кроме нечеткости категорий (математики в этом случае говорят о размытых множествах), нужно учитывать возможность всякого рода ошибок. Ошибки измерений связаны с точностью тех инструментов, которые мы используем. Никакой инструмент не дает абсолютной точности измерений. А надежность тех методов сбора информации, которыми пользуются исследователи в социальных науках, далеко уступает надежности физических приборов. Кроме того, нужно учитывать возможную ошибку выборки. Так как для исследования берутся только некоторые экземпляры, у нас нет никакой гарантии, что они являются типичными представителями популяции в целом. Рассмотренные нами ранее способы корректного построения выборки направлены на устранение систематической ошибки. Но случайные ошибки полностью исключить невозможно. Статистика не претендует на то, чтобы сделать наши суждения абсолютно достоверными. Она ставит перед собой более скромную задачу: оценить степень надежности получаемых данных и степень надежности тех выводов, которые делаются на их основе. Для этой цели используется аппарат теории вероятностей.
Нетрудно доказать, что ошибка выборки зависит от двух моментов: от размера выборки и от степени вариации признака, который нас интересует. Чем больше выборка, тем меньше вероятность того, что в нее попадут индивиды с крайними значениями исследуемой переменной. С другой стороны, чем меньше степень вариации признака, тем в целом ближе будет каждое значение к истинному среднему. Размер выборки нам известен. А степень вариации признака можно примерно оценить по степени разброса данных. Таким образом, зная размер выборки и получив меру рассеяния наблюдений, нетрудно вывести показатель, который называется стандартная ошибка среднего. Он дает нам интервал, в котором должна лежать истинная средняя популяции.
Описанная процедура основана на том факте, что ошибки выборки и ошибки измерений вообще подчиняются нормальному закону, поскольку они обусловлены множеством случайных факторов. При этом совершенно не обязательно, чтобы само распределение данных имело нормальный вид. Представим себе, что мы изучаем разные случайные выборки из одной генеральной совокупности. Оценки среднего, получаемые в каждом случае, будут несколько различаться между собой, но в целом они будут группироваться вокруг истинного значения. Если построить распределение этих оценок, то оно окажется нормальным. В центре его будет лежать среднее по генеральной совокупности, а стандартное отклонение будет равно стандартной ошибке среднего. Но последний показатель, как мы видели, можно вывести и на основании одной выборки. Он вычисляется по формуле: стандартное отклонение деленное на корень квадратный из числа наблюдений. Теперь, зная свойства нормального распределения, можно указать интервал, в котором должно находиться истинное среднее. Выше, рассматривая свойства нормального распределения, мы отмечали, что в диапазоне двух стандартных отклонений в обе стороны от среднего сосредоточено примерно 95 % всех случаев. Значит, вероятность получить значение, выходящее за эти пределы, не превышает 5 %, то есть такие ошибки будут встречаться не чаще, чем один раз из 20 случаев. С вероятностью 0,95 можно утверждать, что истинное значение лежит в указанных границах, которые задают доверительный интервал.
Итак, поскольку какая-то вероятность ошибки всегда присутствует, мы вводим количественную меру надежности наших выводов. Все статистические критерии построены по этому принципу. Уровень 95 % принят как соответствующий достаточной надежности суждений. Если мы стремимся к еще большей надежности, то можно взять 99 % уровень. Это означает, что случайная ошибка допускается не чаще, чем в одном случае из ста. Точные доверительные границы для 95 % уровня составляют ±1,96 стандартной ошибки среднего, а для 99 % уровня мы используем коэффициент 2,58. В первом случае вне этого интервала остается не более 5 % возможных значений (по 2,5 % с каждой стороны). Во втором случае — не больше 1 % (по 0,5 % с каждой стороны). Рассмотрим пример. Допустим, что в некоторой группе безработных из 25 человек средний возраст оказался 32 года. А массовые исследования говорят, что средний возраст для этой категории составляет 40 лет, а стандартное отклонение составляет 6 лет. Нас интересует вопрос, типична или нетипична наша выборка. Если это перевести на язык статистики, то мы спрашиваем, можно ли объяснить различие средних ошибкой выборки.
Статистический вывод представляет собой процесс проверки гипотез. Причем первоначально всегда выдвигается предположение, что наблюдаемые различия носят случайный характер, то есть выборка принадлежит к той же генеральной совокупности. В статистике такое предположение получило название нулевая гипотеза. Итак, мы полагаем для начала, что наша выборка вполне типична. А затем мы спрашиваем: Какова вероятность получить выборку с таким средним (32 года) из генеральной совокупности, средний возраст которой нам известен (40 лет) ? Мы знаем, что при многократных испытаниях получаемые значения будут распределены нормально, и средняя этого распределения будет равна 40 годам. Стандартную ошибку при условии, что мы будем каждый раз брать по 25 человек, можно рассчитать по известной нам формуле: мы делим 6 (стандартное отклонение) на корень квадратный из 25 и получаем значение 1,2 года (стандартная ошибка среднего). Затем вычисляется доверительный интервал, который в нашем случае при уровне достоверности в 95 % составит:
40 ±1,96- 1,2 года = 40 ± 2,35 года (т. е. от 37, 65 до 42, 35)
Значение среднего для нашей выборки (32) лежит вне найденного диапазона. Это может означать, что:
а) либо мы наткнулись на тот чрезвычайно редкий случай, который лежит на самом краю распределения;
б) либо наше предположение, что два средних (по выборке и по генеральной совокупности) не различаются, ошибочно.
Если основываться только на имеющихся данных, то мы имеем основание отклонить нулевую гипотезу, то есть считать, что наша группа какая-то особая. Мы говорим, что различие между средними статистически значимо на уровне р < 0,05. Вероятность ошибки составляет менее 5 %, и поэтому мы с достаточной уверенностью утверждаем, что различие не случайно. Если мы задаем более строгий критерий (99 %), то у нас еще больше оснований отклонить нулевую гипотезу. Мы говорим тогда, что различие статистически высоко значимо. Для социальных исследований 95 % уровень значимости считается вполне приемлемым.
Разобранный пример иллюстрирует случай сравнения эмпирического и теоретического распределения. Аналогичная процедура применяется и тогда, когда требуется оценить различие двух выборок. Мы исходим из допущения, что наблюдаемое различие средних обусловлено случайными факторами (ошибкой выборки и измерения). Другими словами, мы предполагаем, что обе выборки принадлежат к одной генеральной совокупности, параметры которой нам неизвестны. Затем мы оцениваем различие средних с учетом наблюдаемого рассеяния данных в каждой из выборок. Критические значения задаются с учетом выбранного уровня значимости. Если заданная величина оказывается превышенной, мы отвергаем нулевую гипотезу и считаем, что наблюдаемые различия не случайны.
Мы разобрали принципы проверки статистических гипотез. Существуют разные статистические критерии, разработанные для разных типов данных. Некоторые из них, так называемые параметрические критерии, применимы только к данным, полученным с помощью интервальных шкал. Название отражает тот момент, что в основе процедуры оценки лежит предположение о характере распределения данных. Если эти условия не выполняются, то выводы оказываются сомнительными. К наиболее известным критериям этого типа относится f-критерий Стьюдента, применяемый для оценки различия средних. Но разработан также целый ряд статистических процедур, которые не привязаны к какому-то определенному распределению. Эти критерии, которые называются непараметрическими, особенно удобны для анализа данных, с которыми обычно имеют дело социальные науки. Примером может случить критерий хи-квадрат, который основан на сравнении частот. Кстати, этот же метод используется для оценки связи между качественными признаками. Выбор подходящего критерия — задача весьма непростая. Здесь следует обратиться к помощи специалиста по математической статистике.
Заканчивая раздел о количественных методах анализа, сделаем несколько замечаний общего характера. Во-первых, как читатель смог убедиться, грамотное применение статистики требует от исследователя специальной подготовки. Но это касается и приемов качественного анализа, и методов сбора данных. По методам обработки социальной информации имеется обширная литература — от элементарных учебников до серьезных руководств. Мы надеемся, что теперь, после знакомства с основными идеями и понятиями статистики, эта литература станет вам доступнее. Во-вторых, статистика есть особый инструмент исследования, овладеть которым по-настоящему можно только на практике. Важно подчеркнуть, что статистика — это не собрание стандартных приемов обработки данных, а продолжение логики научного исследования, доведение ее до математической строгости. В этом смысле она полезна не только профессиональному исследователю, но и любому специалисту, который пытается осмыслить свой собственный опыт и опыт своих коллег.
Наконец, нельзя не затронуть вопрос о границах применения статистики в социальных науках. Мы возвращаемся к той проблеме, которая была поднята в первой главе: к проблеме специфики предмета исследования в социальных науках, к спору между позитивизмом и феноменологией, между представителями номотетического и идиографического подходов. Действительно, целый ряд факторов ограничивает сферу применения традиционных математических моделей для изучения социальных явлений. Недаром столь значительное место здесь занимает качественный анализ. Характер данных часто мешает использовать наиболее мощные статистические процедуры, привязанные к нормальному распределению. И тем не менее, количественный анализ прочно занял свое место в арсенале социальных наук. Разрабатываются новые математические модели, лучше учитывающие характер исследовательских задач. В частности, активнее привлекаются непараметрические критерии. Принципиально новые возможности открывает использование компьютера. Все это позволяет прогнозировать новый всплеск интереса к количественным методам анализа данных среди ученых-гуманитариев, более широкое и грамотное их применение во всех сферах исследования.
■ 3. Использование компьютера для анализа данных
Современный компьютер, как известно, является устройством, позволяющим эффективно оперировать информацией разного рода, но в первую очередь текстовой и числовой. Само название происходит от арг-лийского слова «вычислять». И первые компьютеры действительно предназначались для сложных математических расчетов. Недаром и по-русски их вначале именовали электронно-вычислительными машинами (ЭВМ). Правда, и внешне они существенно отличались от современного персонального компьютера. Такая машина занимала целое большое помещение и обслуживалась целым штатом инженеров и программистов. Она использовалась в основном для инженерных и экономико-статистических расчетов.
За последние двадцать лет в области компьютерной техники произошла подлинная революция. Прогресс был связан в первую очередь со значительным повышением быстродействия и сокращением размеров ЭВМ. Появился так называемый персональный компьютер, который сейчас становится не только обязательным атрибутом любого учреждения, но и широко входит в быт. Современный портативный компьютер, свободно умещающийся в портфеле, вовсе не уступает по возможностям своим предшественникам — ЭВМ тридцатилетней давности, но при этом он стал значительно проще в обращении. Конечно, эта простота относительная. Будучи универсальным устройством переработки информации, компьютер совмещает в себе целый ряд функций — от функции пишущей машинки до функции терминала для связи с удаленными базами данных. Всеми этими функциями приходится специально овладевать. * Вряд ли существует человек, который досконально владеет всеми возможными операциями. Их слишком много. Но есть базовые навыки, которые необходимы любому пользователю. Они образуют то, что сейчас принято называть компьютерной грамотностью.
Удобства, которые компьютер предоставляет в обращении с текстовой и цифровой информацией, делают его незаменимым помощником в работе ученого-исследователя. Сейчас уже трудно себе представить, что еще совсем недавно основными инструментами ученого при работе с текстом были ручка, ножницы и клей, а при работе с цифровым материалом — счеты, арифмометр и карандаш. Теперь практически все делается на компьютере. Мы уже не говорим о тех удобствах, которые создает хранение информации на электронных носителях. Недаром многие научные издательства сегодня требуют, чтобы материалы подавались авторами в компьютерном виде — на дискетах. Это избавляет от необходимости набора текстов. Короче говоря, компьютер превращается в обязательный инструмент исследователя.
Для анализа информации существуют разнообразные специальные программы, но некоторые элементы качественного и количественного анализа можно осуществлять даже с помощью обычного текстового редактора. Имеется в виду тот редактор, который входит в состав наиболее распространенной сейчас системы Windows. Он позволяет просматривать текст, выделять его отдельные участки, вставлять заметки, находить в тексте заданные слова и словосочетания, располагать списки в алфавитном порядке. С его помощью можно также создавать таблицы, производить арифметические вычисления, рисовать диаграммы.
Специализированные программы для качественного анализа позволяют более гибко структурировать текст, вычленять его элементы, подсчитывать их, использовать многоуровневую систему кодирования, выявлять характер отношений между элементами, представлять их в виде наглядных схем. Эти программы удобны для работы с большими массивами информации, когда непосредственный просмотр становится слишком трудоемким и неэффективным.
Для работы с информацией, представленной в табличной форме, в состав системы Windows входит особая программа Excel. Она может работать как с цифровой, так и с текстовой информацией. С ее помощью можно сортировать данные, производить основные статистические вычисления, преобразовывать таблицы в диаграммы. Имеются и специальные программы статистической обработки данных. Пожалуй, наиболее распространенной из них является программа под названием SPSS, что расшифровывается как «Статистический пакет для социальных исследований». Это комплекс программ, реализующий практически все применяющиеся в настоящее время процедуры.
Преимущества машинной обработки количественных данных перед ручной неоспоримы даже при небольшом объеме вычислений. Во-первых, это скорость. Результаты получаются практически мгновенно. Основное время затрачивается на ввод данных. I Jo зато после того как данные заложены в компьютер, мы получаем возможность подвергать их самым разным процедурам обработки. Можно, например, разбить какую-то группу и сравнивать между собой подгруппы. Во-вторых, это точность. Достаточно правильно ввести данные и правильно задать нужную процедуру, и верность любых дальнейших результатов гарантирована. При расчетах вручную почти неизбежно вкрадываются ошибки, обнаружение pi устранение которых отнимает очень много времени. В-третьих, что легкость внесения изменений. При ручной обработке любое изменение означает, что нужно заново пес пересчитывать. Если мы работаем с программой h'xeel или аналогичной ей, то при изменении содержимого любой клетки или добавлении новых значений машина сама производит пересчет итогов по столбцам и по строкам. Наконец, чрезвычайно облегчается процедура построения всевозможных графиков. Машина i ама строит их по тем данным, которые содержатся и таблице, выбирая оптимальный масштаб. А затем уже человек получает возможность варьировать детали внешнего оформления. Исследователь освобождается от рутинной работы и может сосредоточиться на содержательной стороне анализа.
Говоря о преимуществах машинной обработки данных и о тех новых возможностях, которые она открынаот, нельзя не отметить, что в связи с этим к исследователю предъявляются дополнительные требования. И это естественно. Компьютер — это только инструмент в руках исследователя, инструмент мощный, но довольно сложный. Он может многое, но ему нужно точно сказать, что требуется сделать. И сделать это надо на языке, понятном машине. Конструкторы немало потрудились над тем, чтобы облегчить общение человека с машиной. Сейчас для работы на компьютере не надо быть специалистом-программистом. Но определенная подготовка, конечно, требуется. Нужно иметь базовые навыки обращения с компьютером, а также разобраться в устройстве соответствующей программы. Что касается овладения новой программой на уровне пользователя, то лучше всего найти человека, который в ней хорошо разбирается, и делать первые шаги под его непосредственным руководством. Дальше уже можно переходить к чтению описаний. Никакое описание не может заменить прямого показа. В некоторых современных программах, в частности в последней версии SPSS, имеются специальные обучающие подпрограммы. Они являются хорошим подспорьем для начинающего.
Но самое главное требование, которое компьютер предъявляет к исследователю — это четкое представление структуры данных и тех потребностей анализа, которые вытекают из задач исследования. Постановка задачи и интерпретация результатов не могут быть переданы машине. Самые изощренные приемы формального анализа способны только помочь преобразовать первичные данные в вид, удобный для интерпретации. Компьютер сам не думает, он лишь точно выполняет инструкции, которые ему дает человек. И эти инструкции должны быть совершенно определенными и недвусмысленными. Все проблемы определения и осмысления выпадают на долю человека.
Собираясь проводить исследование с использованием машинной обработки данных, следует заранее продумать, в каком виде мы будем вводить их в компьютер. Проще всего в этом случае работать с данными, структурированными еще на этапе их сбора. Проблем не возникает, когда используются готовые анкеты или тесты: тогда мы сразу получаем информацию, пригодную для дальнейшего количественного анализа. Если наша исходная информация носит неструктурированный (текстовый) характер, а мы хотим использовать количественные методы анализа, то нужно предусмотреть способ ее кодирования. О кодировании речь уже шла выше. Сейчас мы укажем на некоторые особенности этой процедуры, когда она проводится с ориентацией на машинную обработку данных.
Очень важно, чтобы данные были приведены к единообразной форме. В качестве стандартной формы для введения количественных данных в компьютер используется таблица, где строки соответствуют случаям, а столбцы — переменным. В каждую клетку заносится число, характеризующее значение некоторой переменной для данного случая.
Если данные носят количественный характер, то заносится результат измерения или оценки. Если данные представляют собой качественные категории, то в таблицу заносятся их условные коды. Каждая клетка должна содержать одно и только одно значение. Вся таблица должна быть заполнена, то есть в ней не должно оставаться пустых клеток. В практике нередко случается, что какие-то значения отсутствуют. Например, респондент при заполнении анкеты пропустил один или несколько вопросов. Или отвечает «не знаю». Все такие случаи должны особым образом кодироваться.
Отсутствующие данные могут быть двух типов: принципиально невозможные или реально отсутствующие. В первом случае к какой-то подгруппе испытуемых вопрос просто неприложим. У неграмотного бессмысленно спрашивать, какие газеты он читает. У домохозяйки нет смысла спрашивать про ее зарплату. У сироты — про возраст родителей. Но если вопросы такого рода задавались другим испытуемым, то принципиально невозможные ответы нужно особым образом кодировать. Если такие случаи не единичные, то их следует анализировать отдельно. Во втором случае человек просто пропускает вопрос или выбирает категорию «не знаю». Такого рода явления чаще всего встречаются в заочных (почтовых) опросах. Если у одного респондента подобных ответов много, то надежность остальных ответов тоже оказывается сомнительной. Такого респондента лучше вообще исключить. Правда, если этот случай не единичный, исследователь должен насторожиться. Выбрасывание нескольких случаев не только уменьшает выборку, но может стать источником систематической ошибки, поскольку нельзя исключить, что тут мы имеем дело с группой людей, отличающихся от остальных в плане интересующих нас свойств.
После того как данные введены в компьютер, рекомендуется просмотреть распределение каждой переменной путем построения таблицы частот или соответствующих графиков. Компьютер дает возможность делать это легко и быстро. Просмотр может быть полезным в нескольких отношениях. Во-первых, иногда выявляются ошибки, допущенные при вводе данных. Допустим, вопрос предполагает выбор одного из пяти вариантов ответа, а построенное распределение обнаруживает числа больше пяти, которые явно настораживают. Во-вторых, может оказаться, что выбраны слишком дробные значения переменной и некоторые классы стоит укрупнить. Нужно только помнить, что в случае шкалы названий можно объединять любые классы, а в случае шкалы порядка — только соседние. Наконец, характер распределения может помочь выбрать наиболее адекватные методы дальнейшего анализа, а также навести на интересные гипотезы. Так, при скошенном распределении мы склоняемся к использованию непараметрических критериев. При бимодальном распределении возникает гипотеза о внутренней неоднородности выборки, и можно попробовать выделить разные типы испытуемых или ответов.
Сама процедура обсчета целиком передается машине, а исследователь получает готовые результаты, причем часто в виде, пригодном для использования в докладе или отчете. Некоторые более сложные вычислительные процедуры осуществляются в интерактивном режиме: на каждом шаге вычислений машина запрашивает дополнительные инструкции. Обычно пользователь каждый раз выбирает одну из возможных альтернатив. Понятно, что для этого надо иметь представление о том, какие задачи решаются на каждом этапе вычислений и как выбор той или иной тактики может повлиять на окончательные результаты.
Итак, компьютер значительно облегчает процесс обработки эмпирических данных, но одновременно заставляет исследователя овладевать дополнительными знаниями и навыками. Иногда кажется, что игра не стоит свеч, что затраты сил и времени не окупают выигрыша, что проще ограничиться карандашом и карманным калькулятором. На это можно ответить, что машинная обработка данных совершенно необходима в случаях, когда: а) имеются большие массивы информации, б) используются сложные статистические методы анализа, в) исследования по одной программе проводятся неоднократно (мониторинг). В первых двух случаях без компьютера просто не обойтись. В третьем случае стоит раз потратить усилия на рационализацию всей процедуры, чтобы затем избежать массы рутинной работы. В остальных случаях приходится решить, исходя из конкретных условий, стоит ли затевать игру.
Современная исследовательская практика предъявляет высокие требования к человеку, который ею занимается. Он должен иметь не только глубокие познания в области непосредственных проблем, которые он изучает, но владеть также методологией и техникой проведения исследований и обработки их результатов. Вряд ли возможно одинаково хорошо разбираться во всех этих сферах. Поэтому очень важно налаживать профессиональные контакты, чтобы в случае нужды иметь возможность обратиться за консультацией и помощью. Потребность в помощи специалиста по анализу данных, как правило, оказывается необходимой на трех этапах проведения исследования:
-
на этапе планирования исследования;
-
на этапе подготовки данных к машинной обработке;
-
на этапе интерпретации полученных результатов.
На практике сплошь и рядом оказывается, что исследователь обращается к специалисту-методологу слишком поздно — когда материал уже набран и нужно решать, что с ним делать дальше. Тут нередко выясняется, что некоторые важные моменты были упущены из виду, что какая-то важная информация потеряна, что форма данных не отвечает требованиям задуманного анализа. Отсюда совет: учесть этот печальный опыт и не повторять подобных ошибок.
Общение со специалистом другой области имеет свои особенности. Для того чтобы оно было продуктивным, нужно уметь найти общий язык. А это возможно лишь в том случае, если каждый имеет некоторое представление в смежной области. В нашем примере, специалист по статистике должен иметь опыт работы с социальной информацией. В свою очередь, от специалиста в любой области требуется иметь представление о тех приемах анализа информации, которые чаще всего используются в исследовательской практике. Иначе это будет разговор слепого с глухим. Мы возвращаемся к тому пункту, с которого начинали во введении. Связь между наукой и практикой в действительности оказывается теснее, чем это может показаться на первый взгляд. Исследования, особенно прикладные, направлены на осмысление практического опыта и служат в конечном счете повышению эффективности практических усилий. Профессионала отличает знание и понимание дела, глубокое осмысление опыта как собственного, так и коллективного. А для этого он должен быть в душе исследователем. Ему нужна достаточная методологическая культура для того, чтобы обобщать свой опыт и передавать его другим, чтобы быть в курсе новейших достижений не только в своей области, но и в смежных областях знаний, чтобы вносить свой личный вклад в повышение эффективности того вида деятельности, которому он посвящает жизнь. Владение арсеналом современных методических приемов, в том числе и исследовательских, должно входить в крут его компетенции. Компьютер сегодня становится важным инструментом интеллектуального труда вообще. Поэтому компьютерная грамотность превращается в обязательный компонент подготовки любого специалиста, а тем более специалиста-исследователя.
Основные понятия
Сжатие информации, схематизация, кодирование, таблицы, диаграммы, распределение частот, меры центральной тенденции, меры рассеяния, нормальное распределение, коэффициент корреляции, факторный анализ, статистическая значимость различий, параметрические критерии, непараметрические критерии.
Темы рефератов
-
Качественная информация и работа с ней.
-
Методы статистического описания данных.
-
Методы графического представления данных.
-
Корреляционный анализ и сферы его применения.
-
Многомерный статистический анализ.
-
Параметрические и непараметрические критерии.
-
Использование компьютера для статистической обработки данных.
Вопросы для обсуждения на семинарских занятиях
-
В чем различие качественных и количественных данных?
-
Каковы приемы сжатия информации?
Каковы способны наглядного представления информации?
4.Как можно повысить надежность качественных данных?
-
Каковы основные приемы статического описания данных?
-
Что такое корреляция и как ее измеряют?
-
Каковы принципы статистического вывода?
Литература
Калинин СИ. Компьютерная обработка данных для психологов. СПб.: Речь, 2002.
2.
3.
4.
5.
6.