- •1)) Табличные и графические формы представления данных, их построение и анализ
- •2)) Обработка и анализ нечисловых (категорийных) данных с помощью сводных таблиц
- •4)) Методы группировки данных
- •5)) Методы группировки данных с помощью функции частота
- •7)) Показатели изменения уровней ряда динамики
- •9)) Методы сглаживания динамических рядов
- •10)) Аналитическое выравнивание динамического ряда. Виды трендовых моделей
- •Трендовые модели прогнозирования
- •12)) Автокорреляция уровней ряда. Свойства коэффициентов автокорреляции. Коррелограмма
- •13)) Сезонные колебания. Расчетов индексов сезонности.
- •14)) Построение аддитивных и мультипликативных моделей прогнозирования
- •15)) Доверительные интервалы прогноза. Оценка адекватности и точности моделей
- •17)) Создание файлов данных. Элементы описательной статистики в ппп statistica
- •18)) Представление многомерных данных в пакете statistica Стандартизация данных.
- •19)) Определение и экономическая интерпретация коэффициентов корреляции и детерминация Построение корреляционной матрицы в пакете statistica и её анализ, средствами пакета
- •Коэффициент корреляции Пирсона
- •20)) Многомерный регрессионный анализ в пакете statistica: Определение коэффициентов уравнения регрессии, оценка адекватности уравнения и оценка параметров и остатков
- •21)) Понятие кластерного анализа и области его применения
- •22)) Основные способы определения расстояний между объектами. Методы разбиения на кластеры
- •23))Математические характеристики кластера
- •24))Методика объединения (разбиения) в кластеры по иерархическому агломеративному методу. Дендограмма
- •25))Технология выполнения метода к- средних. Описания графика средних
- •26))Проверка статистической значимости построенных кластеров
- •27)) Дисперсионный анализ результатов метода к – средних
20)) Многомерный регрессионный анализ в пакете statistica: Определение коэффициентов уравнения регрессии, оценка адекватности уравнения и оценка параметров и остатков
Коэффициенты регрессии показывают интенсивность влияния факторов на результативный показатель. Если проведена предварительная стандартизация факторных показателей, то b0 равняется среднему значению результативного показателя в совокупности. Коэффициенты b1, b2, ..., bn показывают, на сколько единиц уровень результативного показателя отклоняется от своего среднего значения, если значения факторного показателя отклоняются от среднего, равного нулю, на одно стандартное отклонение. Таким образом, коэффициенты регрессии характеризуют степень значимости отдельных факторов для повышения уровня результативного показателя. Конкретные значения коэффициентов регрессии определяют по эмпирическим данным согласно методу наименьших квадратов (в результате решения систем нормальных уравнений).
Аналитические достоинства регрессионных моделей заключаются в том, что, во-первых, точно определяется фактор, по которому выявляются резервы повышения результативности хозяйственной деятельности; во-вторых, выявляются объекты с более высоким уровнем эффективности; в-третьих, возникает возможность количественно измерить экономический эффект от внедрения передового опыта, проведения организационно-технических мероприятий.
Рассмотрим пример построения регрессионной модели в пакете Statistica 6.0. Для этих целей обычно используется модуль Multiple Regressions (Множественная регрессия), который позволяет предсказать зависимую переменную по нескольким независимым переменным. В стартовом диалоговом окне этого модуля (рис.1) при помощи кнопки Variables указываются зависимая (dependent) и независимые(ая) (independent) переменные. В поле Input file указывается тип файла с данными: Raw Data - данные в виде строчной таблицы; Correlation Matrix - данные в виде корреляционнойматрицы.
В поле MD deletion указывается способ исключения из обработки недостающих данных: Casewise - игнорируется вся строка, в которой есть хотя бы одно пропущенное значение; Mean Substitution - взамен пропущенных данных подставляются средние значения переменной; Pairwise - попарное исключение данных с пропусками из тех переменных, корреляция которых вычисляется. На первом этапе исследований учтем, что при наличии одной зависимой переменной (rost) и двух независимых переменных (vozrast и rost) можно предложить различные модели линейной регрессии: № Модели Вид зависимости Комментарии 1 rost= одномерная 2 rost= одномерная 3 rost= многомерная О качестве предложенной модели регрессии будем судить по величине коэффициента детерминации. После выбора всех опций стартового диалогового окна регрессионного анализа и нажатия кнопки ОК появляется окно результатов регрессионного анализа Multiple Regressions Results (см. рис. 4). Детально проанализируем полученные результаты регрессионной модели. В верхней части окна приведены наиболее важные параметры полученной регрессионной модели: Multiple R - коэффициент множественной корреляции, который характеризует тесноту линейной связи между зависимой и всеми независимыми переменными. Может принимать значения от 0 до 1. - коэффициент детерминации. Численно выражает долю вариации зависимой переменной, объясненную с помощью регрессионного уравнения. Чем больше , тем большую долю вариации объясняют переменные, включенные в модель. adjusted R - скорректированный коэффициент множественной корреляции. Включение новой переменной в регрессионное уравнение увеличивает не всегда, а только в том случае, когда частный F-критерий при проверке гипотезы о значимости включаемой переменной больше или равен 1. В противном случае включение новой переменной уменьшает значение и adjusted R. F - F-критерий используется для проверки значимости регрессии. В данном случае в качестве нулевой гипотезы проверяется гипотеза: между зависимой и независимыми переменными нет линейной зависимости; df - числа степеней свободы для F-критерия; p - вероятность нулевой гипотезы для F-критерия; Standard error of estimate - стандартная ошибка оценки (уравнения); Эта оценка является мерой рассеяния наблюденных значений относительно регрессионной прямой; Intercept – оценка свободного члена уравнения; Std.Error - стандартная ошибка оценки свободного члена уравнения; t - t-критерий для оценки свободного члена уравнения; p - вероятность нулевой гипотезы для свободного члена уравнения. Beta - β-коэффициенты уравнения. Это стандартизированные регрессионные коэффициенты, рассчитанные по стандартизированным значениям переменных. По их величине можно оценить значимость зависимых переменных. Коэффициент показывает, на сколько единиц стандартного отклонения изменится зависимая переменная при изменении на одно стандартное отклонение независимой переменной, при условии постоянства остальных независимых переменных. Свободный член в таком уравнении равен 0. Проверка качества уравнения регрессии осуществлялась с помощью статистики . По статистическим таблицам Фишера – Снедекора с данными степенями свободы гипотезу (линейная зависимость отсутствует) можно принять с вероятностью ; при уровне значимости α = 0.05 принимаем альтернативную гипотезу – линейная зависимость значима. Одновременно проверялась статистическая значимость коэффициентов множественной регрессии (критерий Стьюдента). Видно (см. рис. 5), что коэффициенты и значимо отличаются от нуля, коэффициент незначимо отличается от нуля.
В таблицу включены все случаи (м), приведены исходные данные (Observed), данные модели (Predicted) и остатки (Residual). Остатки – это разность исходных и предсказанных данных.
