- •1.1.Що є предметом теорії імовірності?
- •1.2.Дати означення підмножини скінченної (нескінченної), зліченої і незліченої. Навести приклад.
- •1.3.Суми, різниці та добутку множин. Навести приклади.
- •1.4.Дати означення сполучення та розміщення із n елементів по k, переставлення із n елементів. Записати позначення. Навести приклади
- •1.5. Записати формулу, що пов’язує число переставлень, сполучень та розміщень. Сформулювати правила суми та добутку, що вик при розв’язуванні комбінаторних задач. Навести приклади.
- •1.7. Дати означення сумісних, несумісних та попарно несумісних подій. Навести приклади.
- •1.8. Дати означення суми (об’єднання), різниці та добутку (перетину) подій, протилежної події, повної групи подій. Навести приклади.
- •1.9. Як випадкова подія виражається через елементарні наслідки випадкового експерименту? Які елементарні наслідки називаються такими, що сприяють появі даної події? Навести приклади.
- •1.10. Дати означення поняття імовірності випадкової події. Сформулювати класичне визначення імовірності події і записати відповідну формулу. Навести приклади.
- •1.11.(Геометричне визначення).
- •1.12. Дати означення частоти та відносної частоти події.
- •1.13. Сформулювати теореми: а) про імовірність суми двох подій; б) про імовірність суми двох несумісних подій; в) про імовірність суми декількох попарно несумісних подій. Навести приклади.
- •1.14. Дати означення незалежності і залежності двох подій, умовної імовірності події, попарної незалежності декількох подій, незалежності у сукупності декількох подій. Навести приклади.
- •1.15. Записати формулу для обчислення імовірності хочаб однієї з декількох подій, незалежних у сукуупності.Пояснити букви, навести приклади.
- •1.16. Записати формули: а) повної імовірності; б) Байеса. Пояснити зміст позначень. Навести приклади.
- •1.17. Навести умови схеми випробувань Бернулі. Записати формулу Бернулі.Навести приклади застосування.
- •1.18. Граничні теореми у схемі випробувань Бернулі. А)Пуассона. Б) Локальну та інтегральну Лапласа.
- •1.19.Записати формули для обчислення в схемі бернулі: а)імовірності відхилення частоти від імовірності б)найбільш імовірного числа появи подій
- •2.1. Дати означення випадкової величини (в.В.), дискретної (д.В.В.) та неперервної випадкої величини (н.В.В.). Навести приклади.
- •2.2. Дати означення закону та багатокутника розподілу ймовірностей д.В.В. Навести приклади.
- •2.3. Дати означення а) інтегральної; б) диференціальної функції розподілу н.В.В. Вказати їх основні властивості. Навести приклади.
- •2.5. Пояснити, що характеризують: а) математичне сподівання; б) дисперсія та середнє квадратичне відхилення; в) асиметрія; г) ексцес; д) мода; е) медіана.
- •2.6. Довести основні властивості математичного сподівання і дисперсії.
- •2.8.Записати основні закони розподілу н.В.В.: а) рівномірний; б) нормальний; в) показниковий. Пояснити зміст букв. Навести приклади н.В.В., розподілених за цими законами.
- •2.9.Що в теорії ймовірностей розуміють під терміном «Закон великих чисел»? Записати нерівність а. Чебишова. Пояснити зміст букв.
- •2.10.Сформулювати основні теореми закону великих чисел: а) Бернуллі; б) Чебишова; в) Центральну граничну теорему. Пояснити зміст букв.
- •2.12.Дати означення системі випадкових величин. Навести приклади. Дати означення закону розподілу дискретної двовимірної випадкової величини. Навести приклади.
- •2.13.Дати означення ф-ціїї розподілу двв. Основні властивості ф-ції розподілу, її геометричний зміст.
- •2.14.Дати означеня щільностей ймовірностей двв. Основні властивості, імовірнісний зміст.
- •2.15.Записати ф-ли для обчислення ймовірностей попадання випадкової точки в довільну двомірну область d; в прямокутник.
- •2.16. Означення залежності (незалежності) випадкових величин, що входять в с-му вв. Теореми про необхідну та достатню умови незалежності.
- •2.20. Навести основні властивості кореляційного моменту μxy та коефіцієнту кореляції rxy
- •2.21. Дати означення корельованості (некорельованості) двох в.В. Пояснити різнцю і зв’язок між корельованістю (некорельованістю) і залежністю двох в.В.
- •2.22. Вивести рівняння лінійної середньоквадратичної регресії y на х(х на y). Пояснити зміст позначень.Дати означення коефіцієнту регресії , залишкової дисперсії та пояснити, що вони характеризують.
- •2.23. Сформулювати теорему про корельованість складових нормально розподіленої двовимірної в.В.
- •2.26. Вказати вв що мають розподіл: Персона х2, Стьюдента, Фішера
- •3.1. Предмет мс є розробка методів, збору і обробки інформації, аналізу результатів обробки з метою одержання науково-обгрунтованих висновків і вироблення практичних рекомендацій.
- •3.2.Озн генеральної та вибіркової сукупності, об’єму вибірки, повторної і без повторної, репрезентативної вибірки
- •3.3.Озн статистичної (емпіричної) ф-ї розподілу, різниця між емпіричною і теоретичною ф-єю. Побудова графіків
- •3.4. Кумулятивної частоти та частостей.
- •3.5.Означення полігону, гістограми, кумулятивної частоти та частостей.
- •3.6.Означення статистичної оцінки параметра розподілу ген сукупності, незаміщеної еф обгр оцінки.
- •3.7.Означення генеральної та вибіркової середньої, довести...
- •3.8.Означення генеральних та вибіркових дисперсій та середнього квадр відхилення, формули
- •3.9.Дати озн вибіркових: Моди, медіани , початкового моменту, центрального моменту, асиметрії, ексцесу.
- •3.10.Означення точкової та інтегральної оцінки параметра, точність, надійність, інтервальна оцінка, надійний інтеграл
- •3.11.Вивести формули обч кінців надійного інтервалу для оцінки мат сподівання нормального розподілу: з відомим значенням а та з невідомим значенням а. Сформ взаємозалежності.
- •3.13.Записати формули для обчислення кінців надійного інтервалу для оцінки середнього квадратичного відхилення нормального розподілу. Пояснити зміст позначень.
- •3.14.Дати означення емпіричної та теоретичної частот, формули для обч теоретичних частот розподілів : Пуассона, нормальної та генеральної сукупності
- •3.15.Дати озн функціональної, статистичної, кореляційної залежності, умовного середнього, вибіркових рівняння та лінії регресії.
- •3.16.Вивести формули для обч параметрів вибіркового рівн лінійної регресії : а) за не згрупованими даними, б) за згрупованими
- •3.17.Записати формулу для обч вибіркової кореляції кінців надійного інтервалу для інтерн. Оцінки коеф кореляції нормально розподіленої ген сукупності
- •3.18.Дати озн статист гіпотези, назв осн види, означ нульової, альтернативної гіпотез, помилки 1 і 2 роду
- •3.19.Означення статистичного критерію, спостереженого та теор значенню критерію, Крит обл., обл. Прийняття гіпотези, критичних точок, однобічної та двобічної Крит обл., лівоб та правоб крит обл
- •3.20.Дати озн рівня значущості, потужності критерії. Способи знах одноб та двоб критичної обл.
2.20. Навести основні властивості кореляційного моменту μxy та коефіцієнту кореляції rxy
Корреляционный момент млужит для х-ки связи между величинами X и Y. КМ равен нулю, если X и Y независимы; следовательно, если КМ не равен нулю, то X и Y – зависимые случайные величины.
Величина коэф. корреляции не зависит от выбора единицы измерения случайных величин. В этом состоит преимущество коэф. корреляции перед корреляционным моментом. КК независимых сл. величин равен нулю (так как μxy = 0).
Абсолютная величина кор. момента двух случайных величин X, Y не превышает среднего геометрического их дисперсий:
Абсолютная величина коэф. кореляции не превышает единицы.
Властивості кор.моменту μ xy:
1) Кор.момент 2 незалежних в.в. Х та Y=0;І навпаки, якщо кор.момент не равен 0, то Х та Y – залежні в.в.
2) Абсолютна величина кор.моменту 2 в.в. Х та Y не перевищує середнього геометричного їх дисперсій: ||<=
Властивості коефіцієнта кореляції:
1) | rxy| <=1; 2) Якщо Х та Y незалежні, то rxy=0; 3) Якщо між Х та Y є лінійна залежність Y=a*X+b, де a та b – сталі, то | rxy|=1
Корельованими наз.2 в.в., якщо їх μ xy відрізняється від 0.
Некорельваними наз. 2 в.в., якщо їх μ xy=0
2.21. Дати означення корельованості (некорельованості) двох в.В. Пояснити різнцю і зв’язок між корельованістю (некорельованістю) і залежністю двох в.В.
Две случайные величины X и Y называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляцыии) отличен от нуля; X и Y называют некоррелированными величинами, если их корреляционный момент равен нулю. Две коррелированные величины также и зависимы. Действительно, допустив противное, мы должны заключить, что μxy = 0, а это противоречит условию, так как для коррелированных величин μxy не равняется 0. Обратное предположение не всегда имеет место, т.е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равнятся нулю. Для нормально распределенных составляющих двумерной случайной величины понятия независимости и некоррелированности равносильны.
Зв’язок між корел-тю(некорел-тю) та залежністю:
якщо Х, Y некорельовані μ xy=0, то залежність невідома.
якщо Х, Y корельовані , то вони залежні
якщо X, Y незалежні , то вони некорельовані X, Y =0
якщо X, Y залежні, то вони можуть бути як корельованими так і некорельованими
μ xy – індикатор залежності і незалежності X, Y
Різниця: із незалежності 2 величин слідує їх некорельованість , але із некорельваності неможна зробити висновок о незалежності цих величин
2.22. Вивести рівняння лінійної середньоквадратичної регресії y на х(х на y). Пояснити зміст позначень.Дати означення коефіцієнту регресії , залишкової дисперсії та пояснити, що вони характеризують.
Лінійна середньоквадратична регресія Y на Х має вигляд
g(X)=my+ (X – mx), де mx=М(Х), my=М(Y), σx=, σy=, r=μxy/( σxσy) – коефіцієнт кореляції величин Х та Y.
Виведення:
Введем у розгляд функцію двох незалежних аргументів та :
F(,)=M[Y - - X]2 . (*)
Враховуючи, що М(Х – mx)=M(Y – my)=0,
M[(X - mx)*(Y - my)]= μxy=r σxσy та виконав викладки, отримаємо
F(,)=+ - 2r σxσy+( my - - mx)2
Дослідим функцію F(,) на екстремум, для чого прирівняєм 0 часткові похідні :
, σxσy=0
Звідси , mx
Легко впевнитися , що при цих значеннях та розглянута функція приймає найменше значення. Звідси лінійна середньоквадратична регресія Y та X має вигляд
g (X)=X= - mx+X, або g(X)=my+ (X – mx),
Коефіцієнт = наз. коефіцієнтом регресії Y на X
Підставимо знайдені значення та у співвідношення (*), отримаємо мінімальне значення значення функції F(,) , яке дорівнює (1 – r2). Величину (1 – r2) наз. залишковою дисперсією в.в. Y відносно в.в. Х..Вона характеризує величину похибки , яку допускають при заміні Y лінійної функції g(X)=X. При r=+ -1 залишкова дисперсія =0
Аналогічно можно отримати пряму середньоквадратичної регресії Х на Y
X - mx=r(Y- my), де r- коефіцієнт регресії Х на Y.Залишкова дисперсія (1-r2) величини Х відносно Y.