- •1.Предмет и задачи теории вероятностей. Пространство элементарных событий.
- •2. Случайные события и их классификация. Операции над событиями.
- •3 Частота появления случайного события и ее свойства.
- •4. Вероятность случайного события и её свойства
- •5.Статистическое, классическое, аксиоматическое и геометрическое опред вероятности случайного события.
- •6. Теоремы сложения вероятностей событий.
- •7.Теоремы умножения вероятностей событий. Условная вероятность. Независимость событий.
- •9.Схема испытаний Бернулли. Формула Бернулли. Производящая функция. Наивероятнейшее число наступления события.
- •10.Теоремы Муавра-Лапласа и Пуассона и их применение в схеме испытаний Бернулли.
- •11. Формула полной вероятности. Формула Байеса.
- •12. Определение случайной величины. Классификация случайных величин. Закон распределения случайной величины. Формы задания закона распределения дискретной св
- •13. Функция распределения и ее свойства.
- •14.Плотность вероятности случ величины и ее св-ва.
- •16. Биноминальное распределен и его числ. Хар-ки
- •18.Равномерное распределение и его числовые характеристики.
- •19. Показательное распределение и его числовые характеристики.
- •20. Нормальный закон распределения и его числовые характеристики. Функция Лапласа.
- •22.Теоремы Чебышева, Бернулли и Пуассона.
- •23. Центральная предельная теорема теории вероятностей и ее следствие.
- •24. Предмет и задачи мат. Статистики. Ген. И выборочная сов-ти. Формы записи исходных статистич. Данных. Статистический, вариационный и интервальный ряды и их хар-ки.
- •25.Графическое представление распределений.
- •26. Понятие оценки. Виды оценок. Свойства оценок. Точечные оценки параметров ген. Совокупности и методы их получения
- •27.Понятие интервальной оценки. Доверительный интервал и доверительная вероятность. Доверительный интервал для генеральной средней нормально распределенной сов-ти.
- •30. Критерии проверки параметрических и непараметрических гипотез: t-критерий, f –критерий, критерий согласия Пирсона, критерий согласия Колмогорова (самостоятельно).
- •32. Проверка гипотезы о числовом значении дисперсии признака в генеральной совокупности.
- •33.Проверка гипотезы о числовом знач доли признака в гс.
- •36. Проверка гипотезы о нормальном распределении генеральной совокупности по критерию Пирсона.
- •37. Проверка гипотезы о показательном распределении генеральной совокупности с помощью критерия Пирсона.
- •38. Проверка гипотезы о равномерном распределении генеральной совокупности с помощью критерия Пирсона.
- •39.Проверка гипотезы о равномерном распределении генеральной совокупности с помощью критерия Колмогорова
- •40. Проверка гипотезы о распределении генеральной сов-ти по биномиальному закону с помощью критерия Пирсона.
- •41. Проверка гипотезы о распределении ген. Сов-ти по з-ну Пуассона с помощью критерия Пирсона.
- •42.Основные понятия дисперсионного анализа. Проверка гипотезы о равенстве генеральных групповых дисперсий. Критерий Бартлетта.
- •43.Проверка гипотезы о значимости влияния фактора на результативный признак с помощью дисперс анализа.
- •44. Проверка гипотезы о равенстве групповых средних с помощью дисперсионного анализа.
- •46.Выборочный парный коэффициент линейной корреляции, его свойства и значимость. Коэффициент детерминации, его свойства и интерпретация.
- •47.Выборочный множественный коэффициент корреляции, его свойства и значимость
- •48.Выборочные частный коэффициенты корреляции, их свойства и значимость. Матрица парных коэффициентов корреляции.
- •15. Основные и не основные числовые характеристики случайной величины, их свойства и способы их вычисления. (зр и чх св)
- •49. Понятие регрессии. Задачи регресс анализа. Модель регрессии. Линейная парная регрессия. Метод наим квадратов опред параметров линейного уравнения регрессии.
- •45 Понятие о линейной корреляции и регрессии. Представление данных в корреляционном анализе.
49. Понятие регрессии. Задачи регресс анализа. Модель регрессии. Линейная парная регрессия. Метод наим квадратов опред параметров линейного уравнения регрессии.
Регрессия – средн изменение результативного признака, приходящееся на единицу изменения факторного признака, а функция, отображающая связь между признаками, называется уравнением регрессии.
Регрессионн. анализ служит для опред вида связи между результирующим или факторным признаком и дает возможность прогнозировать значения результ. признака по знач независимых факторн. призн.
Модели регрессии: парная и множественная регрессии. Уравнение регрессии, отображающее зависимость результативного признака лишь от 1го факторного – уравнение парной регрессии, а отображающая зависимость результирующего признака от двух и более факторных – уравнение множественной регрессии.
Парная линейная регрессия – линейная связь между двумя переменными Х и У (описывается в виде прямой), уравнение = aх + b
Метод наименьших квадратов. Суть метода наим квадратов заключается в выборе такой линии регрессии, чтобы сумма квадратов отклонений по вертикали между точками и этой линией была бы минимальной:
Схема: 1.Сумма квадратов отклонений S(a, b) экспериментальных значений признака У, от значений данного признака, получаем из уравнения регрессии: x,i=ахi=и
S (a, b)= 2 <=> S (a, b)= 2
2. Находятся частные производные по а и b от реальной данной суммы квадратов отклонений:
= *(-xi)
(Um)´= mum-1
= *(-1)
3. Система уравнений относительно а и b приравниваем данные производных к 0:
*(-xi)=0
*(-1)=0
a
a xi + bm =
Решение полученная система, относительно а и b.
a = rb* , b= b - b*rb*
Подставляются найденные значения а и b в искомое уравнение регрессии и принимает вид: x=rb* (x- b)+ b
45 Понятие о линейной корреляции и регрессии. Представление данных в корреляционном анализе.
Корреляция — взаимосвязь двух или нескольких случайных величин. При этом изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции r.
Статистическая зависимость между признака называется корреляционной, если все признаки выражаются случайными величинами; и наз. регрессионной, если результирующий признак выражается случайной величиной, а факторный – неслучайными величинами.
По форме корреляционные связи могут быть линейными и нелинейными.
Данные представляются в виде корреляционной таблицы:
|
y1 |
… |
ym |
nx,i |
xi |
n11 |
... |
n1,m |
nx,1 |
… |
… |
… |
… |
… |
xk,i |
nk,1 |
… |
nk,m |
nx,k |
ny,i |
ny,1 |
… |
nx,m |
n = |
n – Объем выборки
или корреляционного поля – графического изображения значений пары признаков (Х,У) в виде точек.