- •1. Предмет математической статистики.
- •2. Статистические совокупности, их виды.
- •3. Определяющее свойство статистической совокупности.
- •4. Признаки единиц совокупности, их классификация.
- •5. Описательная характеристика статистических совокупностей.
- •6. Ранжированный ряд распределения, техника его построения.
- •7. Анализ ранжированного ряда распределения.
- •8. Вариационный ряд распределения, техника построения для дискретного признака.
- •9. Интервальный вариационный ряд распределения, техника его построения.
- •10. Анализ дискретного и интервального вариационного ряда распределения.
- •11. Определение статистического показателя применительно к абстрактной статистической совокупности.
- •12. Система статистических показателей для всесторонней характеристики статистического ряда распределения.
- •13. Показатели центральной тенденции, их классификация.
- •14. Параметрические показатели центральной тенденции, их виды, условия применения и алгоритмы расчета.
- •15. Условия типичности параметрических средних.
- •16. Непараметрические средние. Алгоритмы их расчета в ранжированном ряду распределения.
- •17. Алгоритмы расчета структурных средних в дискретном и вариационном рядах распределения.
- •18. Взаимосвязь средней арифметической, моды и медианы.
- •19. Сравнение средней арифметической, моды и медианы.
- •20. Понятие о вариации.
- •Показатели вариации, алгоритмы их расчета
- •Интерпретация показателей вариации
- •Сравнение вариации одного и того же признака в двух совокупностях, сравнение вариации разных по содержанию признаков
- •Конкретная ошибка выборки, распределение конкретных ошибок выборки
- •Средняя ошибка выборки для выборочной средней и выборочной доли
- •61.Область согласия и область отказа. Соотношение между ними
- •62. Статистические таблицы , как инструмент принятия ( отказа ) гипотез
- •68. Особенности проверки гипотезы о соответствии фактического распределения нормальному.: постановка гипотезы; содержание ожидаемых частот; расчет критерия
- •69 Особенности проверки гипотезы о соответствии фактического распределения распределению Пуассона: постановка гипотезы; содержание ожидаемых частот; расчет критерия
- •71. Как критерий независимости. Постановка нулевой и альтернативной гипотез.
- •72. Как критерий независимости. Содержание и алгоритм расчета ожидаемых частот
- •73. Как критерий однородности. Содержание выдвигаемых гипотез
- •74. Как критерий однородности.Какие сравнения определяют величину фактического значения критерия.
- •75. Определение табличного значения критерия при различных аспектах его использования.
- •76. Схема проверки гипотез относительно генеральной средней
- •77. Критерий двухсторонний и односторонний
- •78. Особенности принятия альтернативной гипотезы при направленном ее характере
- •79. Выборки зависимые и независимые
- •80. Особенности проверки гипотез относительно двух средних при равных численностях выборок и равных дисперсиях
- •91. Проверка гипотезы относительно доли признака в двух совокупностях, если хотя бы одна из выборочных долей лежит вне интервала 0,1-0,9
- •92. Проверка гипотезы о принадлежности конкретного наблюдения исследуемой совокупности с использованием критерия t – нормального распределения
- •93. Проверка гипотезы о принадлежности конкретного наблюдения исследуемой совокупности с использованием критерия Диксона
- •94. Постановка гипотез при дисперсионном анализе
- •95 Критерий f- Фишера. Условия его применимости
- •96.Преобразование исходных данных с целью проведения дисперсионного анализа
- •97.Необходимость конкретизации результатов дисперсионного анализа
- •98. Конкретизация результатов дисперсионного анализа на основе критерия q- Тьюки
- •99 Понятие о контрастах
- •100. Схема конкретизации результатов дисперсионного анализа методом контрастов Шефе
- •101. Модель дисперсионного анализа с постоянным эффектом факторов, постановка гипотез и расчет фактического значение критерия.
- •102. Модель дисперсионного анализа со случайным эффектом факторов, постановка гипотез и расчет фактического значение критерия.
- •103. Проверяемые гипотезы при двухфакторном дисперсионном анализе.
- •104. Разложение общего объема вариации признака при двухфакторном дисперсионном анализе и неслучайном формировании повторностей.
- •105. Понятие о многомерном дисперсионном анализе.
- •106. Понятие о корреляционной связи.
- •107. Требования к совокупности и факторным признакам при построении корреляционного уравнения связи.
- •108. Этапы построения уравнения связи.
- •108. Методы нахождения вида уравнения.
- •109. Метод наименьших квадратов, содержание и реализация.
- •110. Интерпретация коэффициентов уравнения.
- •122. Приведение матрицы исходных данных в сопоставимый вид при построении многомерной средней.
- •122. Нормирование исходных данных.
- •125. Выбор итерации, соответствующей оптимальному разбиению.
- •126. Метод k-средних (кластерный анализ с обучением).
- •127. Методы установления центров тяжести.
- •128. Назначение факторного анализа.
- •129. Техника факторного анализа.
- •130. Разложение единичной дисперсии.
- •131. Общность, специфичность, надежность в факторном анализе.
- •132. Общий алгоритм факторного анализа.
- •133. Решение проблемы общности при факторном анализе.
- •134. Установление числа факторов.
- •135. Простая структура Терстоуна.
- •136. Факторные нагрузки.
- •137. Вращение матрицы факторных нагрузок и интерпретация факторов.
- •138. Методы вращения матрицы факторных нагрузок.
- •139. Расчет значений факторов по отдельным наблюдениям.
- •140. Применение результатов факторного анализа при построении регрессионных уравнений.
- •141. Назначение дискриминантного анализа.
- •142. Переменные группировочные и независимые
- •143.Пошаговое включение переменных (переменные в модели и вне модели)
- •144. Канонический анализ, его составляющие
- •150.Матрица классификации
140. Применение результатов факторного анализа при построении регрессионных уравнений.
Число факторов < числа признаков.
Факторный анализ уменьшает число факторов.
Благодаря конденсации исходных признаков, в уравнение вместо исходных признаков включаются факторы, т.о. уравнение связи становится более надежным.
141. Назначение дискриминантного анализа.
Дискриминантный анализ – комплекс методов многомерного анализа. Особенности:
- реализуется комплекс методов
- сочетает 2 функции: классификация единиц совокупности и конденсация признаков.
Суть:
Имеются заранее выделенные группы единиц – обучающая выборка, затем, исследуя их, строятся дискриминантные функции, которые характеризуют различия выделенных групп.
Дискриминантные функции можно использовать для классификации незнакомых совокупностей.
142. Переменные группировочные и независимые
Признаки группировочные:
- качественные должны быть проиндексированны, т.е. приведены в количественные.
- дискретные количественные:
1) в небольшом интервале меняет величину – за группировочный берется без изменений
2) в большом интервале меняет величину – строится интервальный вариационый ряд и группы получают индекс
- непрерывные – выделяют интервальные группы → индекс
143.Пошаговое включение переменных (переменные в модели и вне модели)
Критерий λ-Уинкса может быть преобразован в критерий F-Фишера. Критерий F-Фишера используется как пошаговый критерий с включений и исключением:
1. Пошаговый критерий с включением означает, что считают наилучшей переменную ту, которая дает наибольшее значение и т.д. пока не наткнется на F ниже порогового.
2. Считают все исходные переменные нужными для построения (до порогового значения)
144. Канонический анализ, его составляющие
Когда проводится дискриминантный анализ нескольких групп, вы не должны указывать, каким образом следует комбинировать группы для формирования различных дискриминирующих функций. Вместо этого, вы можете автоматически определить некоторые оптимальные комбинации переменных, так что первая функция проведет наилучшую дискриминацию между всеми группами, вторая функция будет второй наилучшей и т.д. Более того, функции будут независимыми или ортогональными, то есть их вклады в разделение совокупностей не будут перекрываться. С вычислительной точки зрения система вы проводите анализ канонических корреляций , которые будут определять последовательные канонические корни и функции. Максимальное число функций будет равно числу совокупностей минус один или числу переменных в анализе в зависимости от того, какое из этих чисел меньше.
145. Бета-коэффициенты
β-коэффициенты – весомость каждой переменной в функции
146. Факторная структура, ее назначение
Факторные нагрузки дают содержательную интерпретацию каждой переменной (коэффициент корреляции)
147. Средние по дискриминантным функциям, их назначение.
Средние по дискриминантным функциям – какую именно группу отделяет данная от других.
148 . Классификация на основе дискриминантных функций
После получения дискриминантных функций следует интерпретация:
- оценка различий в β-коэффициентах
- анализ матрицы факторных нагрузок
- среднее значение функции
149. Функции классификации, алгоритм их построения
Функции классификации предназначены для определения того, к какой группе наиболее вероятно может быть отнесен каждый объект. Имеется столько же функций классификации, сколько групп. Каждая функция позволяет вам для каждого образца и для каждой совокупности вычислить веса классификации по формуле:
Si = ci + wi1*x1 + wi2*x2 + ... + wim*xm
i - соответствующая совокупность
индексы 1, 2, ..., m обозначают m переменных;
ci являются константами для i-ой совокупности,
wij - веса для j-ой переменной при вычислении показателя классификации для i-ой совокупности;
xj - наблюдаемое значение для соответствующего образца j-ой переменной. Величина Si является результатом показателя классификации.
Поэтому можно использовать функции классификации для прямого вычисления показателя классификации для некоторых новых значений.