- •3.Геом-ий метод реш-ия з-чи лин-го пр-ия
- •4) Симплекс-метод решения злп в норм. Форме
- •5.Теория двойств-ти в лин-ом прогр-ии
- •6.Транспортная задача.Построение первоначального плана
- •7.Транспортная задача.Метод потенциалов
- •8.Элементы динамического программирования
- •9.Задача выбора кратч-го пути на трансп-ой сети
- •11.Классическое опр-ие вер-ти
- •12.Геометр-ое опр-ие вер-ти
- •13.Теоремы сложения и умножения вер-ей
- •15.Схема незав-ых исп-ий Бернулли
- •17.Случайные вел-ны.Ф-ия распред-ия
- •18.Непрерывные случ.Вел. Плотность вероятности
- •19.Числовые хар-ки сл.Вел.И их св-ва
- •22.Системы двух сл-ых вел-ин
- •24.Матем-ая статистика.Осн-ые опред-ия
- •25) Графические представления статистических рядов
- •26.Точечные оц-ки парам-ов распр-ия
- •27.Интервальные оц-ки парам-ов распр-ия
- •28) Статистическая проверка статистических гипотез
- •29) Критерий согласия Пирсона
- •30) Осн. Понятия дисперс, корреляцио, регре анализа. М-д наим-их кв-ов.
29) Критерий согласия Пирсона
Критерий Пирсона, или критерий χ² (Хи-квадрат) — наиболее часто употребляемый критерий для проверки гипотезы о законе распределения. Критерий согласия хи-квадрат используется для проверки гипотезы о совпадении эмпирического и теоретического (постулируемого) распределений дискретных случайных величин. Критерий основывается на сравнении наблюденных и ожидаемых (теоретических) встречаемостей. Статистика критерия равна сумме квадратов разностей между наблюденными и ожидаемыми встречаемостями, деленных на ожидаемые встречаемости:
Хи-квадрат сравнивает нашу теорию с практикой. Если получилась большая выборка, оформляем в виде интервального статистического ряда и строим гистограмму. Гистограмма показывает нам гипотезу о законе распределения. Хи-квадрат сравнивается с критической. Если хи-квадрат < критической, то принимаем гипотезу. Но иногда это обман. Мы можем выбрать неправильную гипотезу, а хи-квадрат покажет, что это верная гипотеза.
30) Осн. Понятия дисперс, корреляцио, регре анализа. М-д наим-их кв-ов.
Регрессио́нный (линейный) анализ — статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных , а не причинно-следственные отношения.
Строго регрессионную зависимость можно определить следующим образом. Пусть Y, X1, X2, ...,Xp — случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значений X1 = x1,X2 = x2,...,Xp = xp определено условное математическое ожидание
y(x1,x2,...,xp) = E(Y | X1 = x1,X2 = x2,...,Xp = xp) (уравнение линейной регрессии в общем виде), то функция y(x1,x2,...,xp) называется регрессией величины Y по величинам X1,X2,...,Xp, а её график — линией регрессии Y по X1,X2,...,Xp, или уравнением регрессии.
Основная задача корреляционного анализа – ответить на вопрос – существует ли между признаками зависимость. В наиболее общем виде задача статистики в области изучения взаимосвязей состоит в количественной оценке их наличия и направления (прямая или обратная связь), а также характеристике силы (слабая, средняя или тесная связь) и формы влияния одних факторов на другие.
Корреляционное поле представляет собой точечный график в системе координат {x,y}. Каждая точка соответствует единице совокупности. Положение точек на графике определяется величиной двух признаков – факторного и результативного. Применение методов корреляционного анализа дает возможность выражать связь между признаками аналитически - в виде уравнения - и придавать ей количественное выражение.
Чтобы измерить тесноту прямолинейной связи между двумя признаками, пользуются парным коэффициентом корреляции, который обозначается r.
Коэффициент корреляции является мерой тесноты связи только для линейной формы связи, а индекс корреляции - и для линейной, и для криволинейной.
При прямолинейной связи коэффициент корреляции по своей абсолютной величине равен индексу корреляции: |r|=R.
Но интерпретируется не сам коэффициент корреляции, а его квадрат – коэффициент детерминации. Коэффициент детерминации r2 показывает, насколько изменения зависимого признака (в процентах) объясняются изменениями совокупности независимых признаков. То есть, это доля дисперсии зависимого признака, объясняемая влиянием независимых признаков.
Дисперсионный анализ – статистический метод, позволяющий оценить влияние одного или нескольких факторов на результирующий признак. Метод был разработан биологом Р. Фишером и применялся первоначально для оценки экспериментов в растениеводстве. В дальнейшем этот метод стал использоваться всюду, где требуется математическая обработка результатов экспериментов.
Сущность применяемой методики в следующем: проводится комбинированная группировка по результирующему и факторному признакам. Она обеспечивает разложение общей дисперсии на межгрупповую (факторную) и остаточную. Межгрупповая (факторная) дисперсия показывает размер отклонения групповых средних от общей средней, т. е. характеризует влияние исследуемого фактора, положенного в основание группировки. Внутригрупповая (остаточная) дисперсия характеризует случайную вариацию, т.е. колебания признака, возникающие под воздействием неучтенных факторов и независящую от вариации признака – фактора, положенного в основу группировки. Внутригрупповая дисперсия рассчитывается для каждой однородной группы.
Общая дисперсия измеряет вариацию признака во всей статистической совокупности под влиянием всех факторов, вызывающих эту вариацию.
Метод наименьших квадратов— один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащих случайные ошибки.
Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.
Когда искомая величина может быть измерена непосредственно, как, например, длина отрезка или угол, то, для увеличения точности, измерение производится много раз, и за окончательный результат берут арифметическое среднее из всех отдельных измерений. Это правило арифметической середины основывается на соображениях теории вероятностей; легко показать, что сумма квадратов уклонений отдельных измерений от арифметической середины будет меньше, чем сумма квадратов уклонений отдельных измерений от какой бы то ни было другой величины. Само правило арифметической середины представляет, следовательно, простейший случай метода наименьших квадратов.
