- •2. Классификация измерений и погрешностей измерений.
- •3. Формы представления погрешностей. Свойства случайных погрешностей.
- •4. Основные понятия теории вероятностей. Геометрическая вероятность.
- •5. Основные формулы комбинаторики. Примеры использования
- •6. Теорема сложения вероятностей и ее следствия
- •8.Формула полной вероятности. Формула Бейеса
- •9. Формула Бернулли. Примеры использования.
- •10.Дискретные и непрерывные случайные величины и их характеристики.
- •12. Свойства плотности и функции распределения вероятностей
- •13.Начальные и центральные моменты для дискретных и непрерывных случайных величин.
- •15. Закон больших чисел и центральная предельная теорема
- •17 Точечные и интервальные оценки.
- •18.Понятие доброкачественной оценки
- •19. Методы получения доброкачественных оценок. Метод максимального правдоподобия.
- •20. Равномерный закон распределения случайных величин
- •21. Биномиальный закон распределения
- •22. Локальная и интегральная теоремы Лапласа
- •23. Нормальный закон распределения случайных величин. M(X), d(X), σ.
- •24. Показательное (экспоненциальное) распределение. M(X), d(X), σ
- •26.Распределение Стьюдента
- •27. Распределение хи-квадрат. M(X), d(X), σ
- •28. Гамма распределение
- •29. Мешающие параметры, необходимость их выявления. Критерии Аббе и Граббса
- •30. Приближённые методы исследования ряда случайных величин на соответствие закону распределения.
- •31.Характеристики формы, их вычисление и суть
- •32. Графический критерий исследования ряда погрешностей на соответствие нормальному закону распределения
- •33. . Точные критерии исследования ряда случайных величин. Критерии Пирсона и Колмогорова.
- •34.Основные методы наименьших квадратов. Способы составления систем нормальных уравнений. Метод наименьших квадратов
- •35.Линейная и квадратичная аппроксимация. Построение линий тренда.
- •37.Полиномиальные преобразования при помощи функции нескольких переменных
- •38 . Оценка точности в методе наименьших квадратов.
- •39. Понятие веса. Классическая обработка неравноточных измерений
- •40.Классическая обработка равноточных измерений. Задача эталонирования
- •41.Выявление мешающих параметров непараметрическими методами. Критерий Хэмпэла
- •44.Адаптивная оценка Хогга. Два способа вычисления индикатора k
- •45.Выявление эффектов гетероскедастичности
- •46. Методы выявления систематического влияния. Критерии серий.
- •47. Методы выявления эффектов автокорреляции. Критерий Дарбина-Уотсона.
- •48. Второй центральный смешанный момент (ковариация).
- •49. Парные, частные и множественные коэффициенты корреляции
- •50. Выявление значимости связей.
- •51. Коэффициент достоверности аппроксимации. Оценка надёжности по критерию Фишера.
- •52. Понятие экстраполяции (прогнозирование результатов измерений)
- •53. Фундаментальная теорема переноса ошибок имеет вид:
- •54. Оценка точности функций зависимых результатов измерений.
50. Выявление значимости связей.
Исследуя зависимости между признаками, необходимо выделить два типа связей:
— функциональные – характеризуются полным соответствием между изменением факторного признака и изменением результативной величины: определенному значению признака-фактора соответствует одно и только одно значение результативного признака. Функциональная зависимость может связывать результативный признак с одним или несколькими факторными признаками. Зная величину факторного признака, можно точно определить величину результативного признака. Например, величина заработной платы напрямую зависит от количества отработанных часов;
— корреляционные – между изменением двух признаков нет полного соответствия, воздействие отдельных факторов проявляется лишь в среднем, при массовом наблюдении фактических данных. Одновременное воздействие на изучаемый признак большого количества самых разнообразных факторов приводит к тому, что одному и тому же значению признака-фактора соответствует целое распределение значений результативного признака, т.к. в каждом конкретном случае прочие факторные признаки могут изменять силу и направленность своего воздействия. Таким образом, при корреляционной связи изменение среднего значения результативного признака обусловлено изменением факторных признаков. Корреляционная связь является частным случаем стохастической, при которой причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем, при большом числе наблюдений.
Изучая взаимосвязи между признаками, их классифицируют по направлению, форме и числу факторов:
— по направлению связи делятся на прямые и обратные. При прямой связи направление изменения результативного признака совпадает с направлением изменения признака-фактора. Например, чем выше квалификация рабочего, тем выше его производительность труда. При обратной связи направление изменения результативного признака противоположно направлению изменения признака-фактора.
— по форме (виду функции, по аналитическому выражению) связи делят на линейные (прямая линия) и нелинейные (параболическая, гиперболическая и т.д.). При линейной связи с возрастанием значения факторного признака происходит равномерное возрастание (убывание) значения результативного признака;
— по количеству факторов, действующих на результативный признак, связи делят на однофакторные (парные) и многофакторные.
Содержание теории корреляции составляет изучение зависимости вариации признака от окружающих условий. Корреляционный анализ решает следующие задачи:
Отбор факторов, оказывающих наиболее существенное влияние на результативный признак, на основании измерения тесноты связи между ними.
Обнаружение ранее неизвестных причинных связей.
Установление численных значений причинных связей между параметрами и достоверности суждений об их наличии.
Основная задача корреляционного анализа – выявление взаимосвязи между случайными переменными путем точечной и интервальной оценки парных (частных) коэффициентов корреляции, вычисление и проверка значимости множественных коэффициентов корреляции и детерминации.
При выполнении всех условий применения дисперсионного анализа, разложение общей дисперсии математически выглядит следующим образом:
Doбщ. = Dфакт + D ост.,
Doбщ. - общая дисперсия наблюдаемых значений (вариант), характеризуется разбросом вариант от общего среднего. Измеряет вариацию признака во всей совокупности под влиянием всех факторов, обусловивших эту вариацию. Общее разнообразие складывается из межгруппового и внутригруппового;
Dфакт - факторная (межгрупповая) дисперсия, характеризуется различием средних в каждой группе и зависит от влияния исследуемого фактора, по которому дифференцируется каждая группа. Например, в группах различных по этиологическому фактору клинического течения пневмонии средний уровень проведенного койко-дня неодинаков — наблюдается межгрупповое разнообразие.
D ост. - остаточная (внутригрупповая) дисперсия, которая характеризует рассеяние вариант внутри групп. Отражает случайную вариацию, т.е. часть вариации, происходящую под влиянием неуточненных факторов и не зависящую от признака — фактора, положенного в основание группировки. Вариация изучаемого признака зависит от силы влияния каких-то неучтенных случайных факторов, как от организованных (заданных исследователем), так и от случайных (неизвестных) факторов.
Поэтому общая вариация (дисперсия) слагается из вариации, вызванной организованными (заданными) факторами, называемыми факториальной вариацией и неорганизованными факторами, т.е. остаточной вариацией (случайной, неизвестной).