- •Що є предметом теорії імовірності?
- •2.Дати означення підмножини скінченної (нескінченної), зліченої і незліченої. Навести приклад.
- •3.Суми, різниці та добутку множин. Навести приклади.
- •4.Дати означення сполучення та розміщення із n елементів по k, переставлення із n елементів. Записати позначення. Навести приклади
- •5. Записати формулу, що пов’язує число переставлень, сполучень та розміщень. Сформулювати правила суми та добутку, що вик при розв’язуванні комбінаторних задач. Навести приклади.
- •7. Дати означення сумісних, несумісних та попарно несумісних подій. Навести приклади.
- •8. Дати означення суми (об’єднання), різниці та добутку (перетину) подій, протилежної події, повної групи подій. Навести приклади.
- •9. Як випадкова подія виражається через елементарні наслідки випадкового експерименту? Які елементарні наслідки називаються такими, що сприяють появі даної випадкової події? Навести приклади.
- •10. Дати означення поняття імовірності випадкової події. Сформулювати класичне визначення імовірності події і записати відповідну формулу. Навести приклади.
- •11.(Геометричне визначення).
- •12. Дати означення частоти та відносної частоти події.
- •13. Сформулювати теореми: а) про імовірність суми двох подій; б) про імовірність суми двох несумісних подій; в) про імовірність суми декількох попарно несумісних подій. Навести приклади.
- •14. Дати означення незалежності і залежності двох подій, умовної імовірності події, попарної незалежності декількох подій, незалежності у сукупності декількох подій. Навести приклади.
- •15. Записати формулу для обчислення імовірності хочаб однієї з декількох подій, незалежних у сукуупності.Пояснити букви, навести приклади.
- •16. Записати формули: а) повної імовірності; б) Байеса. Пояснити зміст позначень. Навести приклади.
- •17. Навести умови схеми випробувань Бернуллі. Записати формулу Бернуллі. Навести приклади застосування.
- •18. Граничні теореми у схемі випробувань Бернуллі. А)Пуассона. Б) Локальну та інтегральну Лапласа.
- •19.Записати формули для обчислення в схемі Бернуллі: а)імовірності відхилення частоти від імовірності б)найбільш імовірного числа появи подій
- •20. Дати означення випадкової величини (в.В.), дискретної (д.В.В.) та неперервної випадкої величини (н.В.В.). Навести приклади.
- •21. Дати означення закону та багатокутника розподілу ймовірностей д.В.В. Навести приклади.
- •22. Дати означення а) інтегральної; б) диференціальної функції розподілу н.В.В. Вказати їх основні властивості. Навести приклади.
- •24. Пояснити, що характеризують: а) математичне сподівання; б) дисперсія та середнє квадратичне відхилення; в) асиметрія; г) ексцес; д) мода; е) медіана.
- •25. Довести основні властивості математичного сподівання і дисперсії.
- •27.Записати основні закони розподілу н.В.В.: а) рівномірний; б) нормальний; в) показниковий. Пояснити зміст букв. Навести приклади н.В.В., розподілених за цими законами.
- •28.Що в теорії ймовірностей розуміють під терміном «Закон великих чисел»? Записати нерівність а. Чебишова. Пояснити зміст букв.
- •29.Сформулювати основні теореми закону великих чисел: а) Бернуллі; б) Чебишова; в) Центральну граничну теорему. Пояснити зміст букв.
- •31.Дати означення системі випадкових величин. Навести приклади. Дати означення закону розподілу дискретної двовимірної випадкової величини. Навести приклади.
- •32.Дати означення ф-ціїї розподілу двв. Основні властивості ф-ції розподілу, її геометричний зміст.
- •33.Дати означеня щільностей ймовірностей двв. Основні властивості, імовірнісний зміст.
- •34.Записати ф-ли для обчислення ймовірностей попадання випадкової точки в довільну двомірну область d; в прямокутник.
- •35. Означення залежності (незалежності) випадкових величин, що входять в с-му вв. Теореми про необхідну та достатню умови незалежності.
- •39. Навести основні властивості кореляційного моменту μxy та коефіцієнту кореляції rxy
- •40. Дати означення корельованості (некорельованості) двох в.В. Пояснити різнцю і зв’язок між корельованістю (некорельованістю) і залежністю двох в.В.
- •41. Вивести рівняння лінійної середньоквадратичної регресії y на х(х на y). Пояснити зміст позначень.Дати означення коефіцієнту регресії , залишкової дисперсії та пояснити, що вони характеризують.
- •42. Сформулювати теорему про корельованість складових нормально розподіленої двовимірної в.В.
- •45. Вказати вв що мають розподіл: Персона х2, Стьюдента, Фішера
- •46. Предмет мс є розробка методів, збору і обробки інформації, аналізу результатів обробки з метою одержання науково-обгрунтованих висновків і вироблення практичних рекомендацій.
- •47.Озн генеральної та вибіркової сукупності, об’єму вибірки, повторної і без повторної, репрезентативної вибірки
- •48.Озн статистичної (емпіричної) ф-ї розподілу, різниця між емпіричною і теоретичною ф-єю. Побудова графіків
- •49. Кумулятивної частоти та частостей.
- •50.Означення полігону, гістограми, кумулятивної частоти та частостей.
- •51.Означення статистичної оцінки параметра розподілу ген сукупності, незаміщеної еф обгр оцінки.
- •52.Означення генеральної та вибіркової середньої, довести...
- •53.Означення генеральних та вибіркових дисперсій та середнього квадр відхилення, формули
- •54.Дати озн вибіркових: Моди, медіани , початкового моменту, центрального моменту, асиметрії, ексцесу.
- •55.Означення точкової та інтегральної оцінки параметра, точність, надійність, інтервальна оцінка, надійний інтеграл
- •56.Вивести формули обч кінців надійного інтервалу для оцінки мат сподівання нормального розподілу: з відомим значенням а та з невідомим значенням а. Сформ взаємозалежності.
- •58.Записати формули для обчислення кінців надійного інтервалу для оцінки середнього квадратичного відхилення нормального розподілу. Пояснити зміст позначень.
- •59.Дати означення емпіричної та теоретичної частот, формули для обч теоретичних частот розподілів : Пуассона, нормальної та генеральної сукупності
- •60.Дати озн функціональної, статистичної, кореляційної залежності, умовного середнього, вибіркових рівняння та лінії регресії.
- •61.Вивести формули для обч параметрів вибіркового рівн лінійної регресії : а) за не згрупованими даними, б) за згрупованими
- •62.Записати формулу для обч вибіркової кореляції кінців надійного інтервалу для інтерн. Оцінки коеф кореляції нормально розподіленої ген сукупності
- •63.Дати озн статист гіпотези, назв осн види, означ нульової, альтернативної гіпотез, помилки 1 і 2 роду
- •64.Означення статистичного критерію, спостереженого та теор значенню критерію, Крит обл., обл. Прийняття гіпотези, критичних точок, однобічної та двобічної Крит обл., лівоб та правоб крит обл
- •65.Дати озн рівня значущості, потужності критерії. Способи знах одноб та двоб критичної обл.
39. Навести основні властивості кореляційного моменту μxy та коефіцієнту кореляції rxy
Корреляционный момент млужит для х-ки связи между величинами X и Y. КМ равен нулю, если X и Y независимы; следовательно, если КМ не равен нулю, то X и Y – зависимые случайные величины.
Величина коэф. корреляции не зависит от выбора единицы измерения случайных величин. В этом состоит преимущество коэф. корреляции перед корреляционным моментом. КК независимых сл. величин равен нулю (так как μxy = 0).
Абсолютная величина кор. момента двух случайных величин X, Y не превышает среднего геометрического их дисперсий:
Абсолютная величина коэф. кореляции не превышает единицы.
Властивості кор.моменту μ xy:
1) Кор.момент 2 незалежних в.в. Х та Y=0;І навпаки, якщо кор.момент не равен 0, то Х та Y – залежні в.в.
2) Абсолютна величина кор.моменту 2 в.в. Х та Y не перевищує середнього геометричного їх дисперсій: ||<=
Властивості коефіцієнта кореляції:
1) | rxy| <=1; 2) Якщо Х та Y незалежні, то rxy=0; 3) Якщо між Х та Y є лінійна залежність Y=a*X+b, де a та b – сталі, то | rxy|=1
Корельованими наз.2 в.в., якщо їх μ xy відрізняється від 0.
Некорельваними наз. 2 в.в., якщо їх μ xy=0
40. Дати означення корельованості (некорельованості) двох в.В. Пояснити різнцю і зв’язок між корельованістю (некорельованістю) і залежністю двох в.В.
Две случайные величины X и Y называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляцыии) отличен от нуля; X и Y называют некоррелированными величинами, если их корреляционный момент равен нулю. Две коррелированные величины также и зависимы. Действительно, допустив противное, мы должны заключить, что μxy = 0, а это противоречит условию, так как для коррелированных величин μxy не равняется 0. Обратное предположение не всегда имеет место, т.е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равнятся нулю. Для нормально распределенных составляющих двумерной случайной величины понятия независимости и некоррелированности равносильны.
Зв’язок між корел-тю(некорел-тю) та залежністю:
якщо Х, Y некорельовані μ xy=0, то залежність невідома.
якщо Х, Y корельовані , то вони залежні
якщо X, Y незалежні , то вони некорельовані X, Y =0
якщо X, Y залежні, то вони можуть бути як корельованими так і некорельованими
μ xy – індикатор залежності і незалежності X, Y
Різниця: із незалежності 2 величин слідує їх некорельованість , але із некорельваності неможна зробити висновок о незалежності цих величин
41. Вивести рівняння лінійної середньоквадратичної регресії y на х(х на y). Пояснити зміст позначень.Дати означення коефіцієнту регресії , залишкової дисперсії та пояснити, що вони характеризують.
Лінійна середньоквадратична регресія Y на Х має вигляд
g(X)=my+ (X – mx), де mx=М(Х), my=М(Y), σx=, σy=, r=μxy/( σxσy) – коефіцієнт кореляції величин Х та Y.
Виведення:
Введем у розгляд функцію двох незалежних аргументів та :
F(,)=M[Y - - X]2 . (*)
Враховуючи, що М(Х – mx)=M(Y – my)=0,
M[(X - mx)*(Y - my)]= μxy=r σxσy та виконав викладки, отримаємо
F(,)=+ - 2r σxσy+( my - - mx)2
Дослідим функцію F(,) на екстремум, для чого прирівняєм 0 часткові похідні :
, σxσy=0
Звідси , mx
Легко впевнитися , що при цих значеннях та розглянута функція приймає найменше значення. Звідси лінійна середньоквадратична регресія Y та X має вигляд
g (X)=X= - mx+X, або g(X)=my+ (X – mx),
Коефіцієнт = наз. коефіцієнтом регресії Y на X
Підставимо знайдені значення та у співвідношення (*), отримаємо мінімальне значення значення функції F(,) , яке дорівнює (1 – r2). Величину (1 – r2) наз. залишковою дисперсією в.в. Y відносно в.в. Х..Вона характеризує величину похибки , яку допускають при заміні Y лінійної функції g(X)=X. При r=+ -1 залишкова дисперсія =0
Аналогічно можно отримати пряму середньоквадратичної регресії Х на Y
X - mx=r(Y- my), де r- коефіцієнт регресії Х на Y.Залишкова дисперсія (1-r2) величини Х відносно Y.