Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ter_ver_i_MS.doc
Скачиваний:
57
Добавлен:
26.09.2019
Размер:
7.6 Mб
Скачать

38. Функциональная, статистическая и корреляционная связи. Примеры.

Сущ-ют 2 вида зависимостей между х и у:

1)функциональная зависимость (если с изменением значения одной из переменных вторая изменяется строго определенным образом, значению одной переменной соответствует одно или неск точно заданных значений другой) Такие связи являются абстракциями, в реальной жизни они встречаются редко, но находят широкое применение в точных науках. Например: зависимость площади круга отрадиуса: S=π∙r 2

2)статистическая зависимость (если с изменением значения одной из переменных вторая может в определенных пределах принимать любые значения с некоторыми вероятностями, но ее среднее значение или иные статистические (массовые) характеристики изменяются по определенному закону. Др словами, при статистической связи разным значениям одной переменной соответствуют разные распределения значений другой переменной) Примером может служить зависимость себестоимости ед. продукции от уровня производительности труда: чем выше производительность труда, тем ниже себестоимость. Но на себестоимость ед. продукции влияют и другие факторы: стоимость сырья, материалов, топлива, общепроизводственные и общехозяйственные расходы и т.д. 

Опр: зависимость называется стохастической, если каждому значению х поставлен в соответствии плотность вероятности Рх(у) случайной величины у.

Пример: Т – абс. Температура Т=С0 + 2730≥0 Т=0 =>С0= -2730 абс. Ноль

V- средняя скорость движения молекул в веществе. υ=υ1+υ2+…υnn

Т→ РТ(V) – плотность вероятности распределения скорости ы 1-атоме газа.

Корреляционная связь явл. частным случаем статистической связи, когда каждому значению независимой переменной х ставится в соответствие МО зависимой переменной у:

y=My*Pxydy

Пример: кол-во осадков в виде дождя в июне-июле х и средняя урожайность у

39. Коэффициент корреляции. Эмпирическая характеристика тесноты связи между случайными величинами по числовым значениям коэффициента корреляции.

Опр: Пусть Х и У случайные величины. Коэффициентом корреляции называется произведение случайных величин деленное на среднеквадратическое отклонение этих случайных величин.

M [(Х - х)(У- у)]

r = Х * У точная формула

r = ∑xyn_∑xn *∑yn ∑x-x2n*∑y-y2n = ∑xy-∑x*(∑y)n∑x2-∑x2n*∑y2-(∑y)2n приближенная формула (оценка коэф-та корелляции)

Если r ≤ 0,1, то говорят, что между Х и У связь отсутствует.

Если, 0,1 < r ≤ 0,3 то связь слабая

Если, 0,3 < r ≤ 0,65 то связь средней силы (тесноты)

Если, 0,65 < r ≤ 0,80 то связь тесная (сильная)

Если, 0,80 < r ≤ 0,95 то связь очень большой тесноты

Если, то связь между Х и У функциональная (например У = а+в*Х)

40. Метод наименьших квадратов для построения уравнения парной регрессии y на X. Проверка значимости коэффициента корреляции.

у=a+bxур-ние линейной парной регрессии у на х.

F(a,b)= ∑ni=1 [yi –(a+bxi)]2≥0

∂F/∂a=∂F/∂b=0

∂F/∂a=2∑ni=1 [ ]*(-1)=0→ na+b∑xi -∑yi=0~a+bx-y=0

∂F/∂b=2∑ni=1 [ ]*(-xi)=0→ a∑xi+b∑( xi)2-∑xiyi =0

=> a+bx-y=0→y=a+bx, аше ур-ние проходит через точку (x;y). Точка(x;y) всегда лежит на прямой парной регрессии. a=y-bx

a∑xi +b∑( xi)2-∑xiyi =0

-bx (∑xi)+y∑xi +b∑(xi )2-∑xiyi =0

b=(∑xiyi -x∑yi ) / (∑(xi )2-x∑xi ) = rﬞb SY/SX

где SX = √[∑(xi-x)2]/n; SY = √[∑(yi-y)2]/n

rﬞb = coυ (X,Y) / SX * SY=M[(X-x)(Y-y)]/ SX * SY=

[(X-x)(Y-y)]/ SX * SY= [∑( xi -x)( yi -y)]/n * SY = rﬞb SY/SX

SX2 * SY

y=a+bx ~ y= a+bx

tнабл = b1-r2b * n-2 tнабл = rb*n-21-rb2

χ2αin-2 = χ2крит

tнабл > χ2крит - можно пользоваться явл. значимым

1. Детерминированные, неопределенные и случайные события. Понятие статистической однородности. Примеры.

2. Определение вероятности – классическое, частотное, теоретико-множественное (аксиоматическое). Иллюстрирующие примеры.

3. Операции над событиями. Несовместные и независимые события, условная вероятность. Примеры.

4. Теорема о вероятности суммы двух и трех событий (без док-ва, с геометрической иллюстрацией).

5. Теорема о вероятности произведения двух событий (без док-ва, для зависимых и независимых событий).

6. Формула полной вероятности (с док-вом).

7. Формула Байеса (с док-вом).

8. Схема повторных испытаний. Расчет вероятности хотя бы одного успеха. Формула Бернулли.

9. Наивероятнейшее число успехов в серии п испытаний (без вывода).

10. Распределение Пуассона как предельный случай биномиального распределения (без вывода).

11. Случайные дискретные величины, их числовые характеристики.

12. Функция распределения и плотность вероятности случайных непрерывных величин. Их типовые графики. Расчет ф-ции распределения по плотности вероятности и наоборот.

13. Равномерное случайное распределение. Задача о встрече.

14. Показательный закон распределения, функция надежности.

15. Нормальное распределение, функция Лапласа. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило 3-х сигма.

16. Числовые характеристики случайных величин, их вычисление. Содержательный смысл и свойства математического ожидания и дисперсии.

17. Свойства математического ожидания одной и нескольких случайных величин.

18. Свойства дисперсии одной и нескольких случайных величин.

19. Математическое ожидание и дисперсия биномиального и пуассоновского случайных распределений.

20. Математическое ожидание и дисперсия равномерного случайного распределения (с выводом формул).

21. Локальная теорема Муавра-Лапласа (формулировка и значение).

22. Интегральная предельная теорема Муавра-Лапласа (формулировка и значение).

23. Центральная предельная теорема. В чем состоит ее общность по сравнению с интегральной предельной теоремой Муавра-Лапласа?

24. Закон больших чисел (формулировка и применения).

25. Объяснить на примерах понятия «генеральная совокупность», «варианта», «выборка», «вариационный ряд». Принципы формирования выборочной совокупности.

26. Дискретный и интервальный вариационные ряды. Формула Стёрджеса. Как рассчитать среднюю величину признака интервального вариационного ряда?

27. Размах, мода и медиана выборки.

28. Полигон и кумулята. Графический способ нахождения моды интервального вариационного ряда.

29. Коэффициент концентрации Джини и кривая Лоренца.

30. Точечные и интервальные оценки параметров генеральной совокупности. Какая оценка параметра генеральной совокупности называется несмещенной, состоятельной (на примере МО)?

31. Построение доверительного интервала по большой выборке для математического ожидания генеральной совокупности при известной дисперсии. Вероятностный смысл заданного параметра надежности.

32. Построение доверительного интервала по малой выборке для математического ожидания генеральной совокупности в случае, когда признак распределен по нормальному закону и дисперсия распределения неизвестна.

33. Построение доверительного интервала для дисперсии при условии, что признак имеет нормальное распределение в генеральной совокупности.

34. Проверка статистических гипотез. Ведущая и конкурирующая гипотезы. Ошибки 1-го и 2-го рода. Как влияет на ошибку 2-го рода увеличение доверительной вероятности для ведущей гипотезы.

35. Мощность критерия, его вероятностный смысл.

36. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события. Двусторонний, правосторонний и левосторонний критерии.

37. Критерий Пирсона для проверки гипотезы о законе распределения генеральной совокупности по выборочным данным.

38. Функциональная, статистическая и корреляционная связи. Примеры.

39. Коэффициент корреляции. Эмпирическая характеристика тесноты связи между случайными величинами по числовым значениям коэффициента корреляции.

40. Метод наименьших квадратов для построения уравнения парной регрессии Y на X. Проверка значимости коэффициента корреляции.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]