Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТІМС Фінал.docx
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
3.29 Mб
Скачать

Зміст

1. Класифікація подій. Класичне поняття ймовірності (комбінаторна ймовірність). 3

2. Теореми про ймовірність суми подій. 3

3. Умовні ймовірності (ймовірності добутку подій) 3

4. Незалежні події 3

5. Незалежні в сукупності події 4

6. Формула повної ймовірності 4

7. Формула гіпотез (формула Байєса) 4

8. Залежні події. Регресія. Кореляція. 4

9. Послідовність незалежних спроб. Схема Бернуллі. Формула Бернуллі. 5

10. Біномний розподіл 5

11. Найімовірніше число успіхів у схемі Бернуллі 6

12. Локальна теорема Муавра-Лапласа 6

13. Теорема Пуасона 7

14. Інтегральна теорема Муавра-Лапласа. 7

15. Практичні застосування інтегральної теореми Муавра-Лапласа. Теоерма Бернуллі. 7

16. Геометричні ймовірності. Задача Бюффона. 8

17. Аксіоматика теорії ймовірності 8

18. Випадкові змінні, функції розподілу, їх властивості. 8

19. Класи випадкових змінних 8

20. Випадкові вектори. Незалежні випадкові вектори. 9

21. Перетворення ймовірностей. Приклади 9

22. Числові характеристики випадкових змінних 10

23. Математичні сподівання. (Див. 22) 10

24. Механічна інтерпретація математичного сподівання. (Див. 22) 10

25. Геометрична інтерпретація математичного сподівання. (Див. 22) 10

26. Властивості математичного сподівання. (Див. 22) 10

27. Дисперсія та її властивості. (Див. 22) 10

28. Закон великих чисел. Нерівність Маркова, Чебишева. 10

29. Закон великих чисел у формі Чебишева 11

30. Деякі наслідки теореми Чебишева. 11

31. Характеристична функція випадкової змінної 11

32. Властивості характеристичних функцій. (Див. 31) 12

33. Взаємно однозначна відповідність між функцією розподілу і характеристичною функцією 12

34. Теореми про суми характеристичних функцій 12

35. Стохастичні процеси, ланцюг Маркова. 12

36. Ймовірність переходу зі стану в стан за n кроків. 13

37. Стаціонарний розподіл ланцюга Маркова. 13

38. Пуасонівський процес. 13

39. Процеси розмноження і вимирання 13

40. Процес чистого розмноження з незалежними від часу інтенсивностями. 14

41. Процес чистого розмноження з незалежними від стану інтенсивностями. 14

42. Процес чистого вимирання з незалежними від часу інтенсивностями. 14

43. Процес чистого вимирання з незалежними від стану інтенсивностями. 14

44. Суть математичної статистики, предмет та методи 14

45. Представлення статистичного матеріалу 15

46. Числові характеристики статистичної змінної. Числові характеристики центральної тенденції. 15

47. Числові характеристики розсіяння 15

48. Квантилі. Інтерквантильні широти. 15

49. Моменти випадкової змінної 15

50. Числові характеристики форми 16

51. Лінійні перетворення статистичного матеріалу 16

52. Схема статистичного доведення. Приклади статистичного доведення. 16

53. Критерій Х^2 16

54. Метод максимуму правдоподібності 17

55. Статистичне оцінювання параметрів нормальної популяції. 17

56. Оцінка невідомого математичного сподівання нормальної генеральної сукупності 17

57. Порівняння мат. сподівань двох нормально розподілених генеральних сукупностей. 17

58. Інтервал довір’я невідомого математичного сподівання. 18

59. Оцінка дисперсії нормального розподілу популяції. 18

60. Інтервал довір’я для невідомого значення дисперсії нормальної популяції. 18

61. Порівняння дисперсій двох нормальних популяцій. Критерій Колмогорова. 18

62. Критерій Смирнова. 19

63. Критерій знаків. Інтервал для прийняття рішень. 19

64. Гіпотеза про медіану. 19

65. Критерій Вілкоксона. 19

66. Однофакторний варіансний аналіз. 20

67. Двофакторний варіансний аналіз. 20

68. Трифакторний варіансний аналіз. 20

69. Варіансний аналіз за схемою латинського квадрата. 21

70. Кореляційний аналіз (коваріація, кореляція, регресія). 21

71. Пряма регресія. 22

72. Кореляції вищих порядків. 23

73. Варіанси і стандарти вищих порядків. 23

  1. Класифікація подій. Класичне поняття ймовірності (комбінаторна ймовірність).

  • Випадкова (стохастична) подія – якщо при певній сукупності умов вона може відбутись, а може і не відбутись.

  • Масова подія – сукупність умов, які її породжують можна повторити безліч раз.

  • Протилежна подія до події A полягає в тому. що подія А не відбувається.

  • Об’єднання (сума) подій A і B – подія яка полягає в тому, що відбувається або А, або В, або А і В одночасно. Позначається , .

  • Суміщення (добуток) подій A і B – подія яка полягає в тому, що відбувається і А, і В одночасно. Позначається , .

  • Еквівалентні події – якщо поява кожної з них супроводжується появою іншої.

  • Несумісні – якщо їх добуток є неможливою подією.

Повна система подій – якщо вони попарно несумісні, а в об’єднанні – вірогідна подія.

Події A1,A2,…,An називаються сприятливими для події А, якщо вони попарно несумісні, а їх об’єднання дає подію А.

Якщо рівноможливі події Е12, …, En утворюють повну сукупність несумісних події, і з них деякі є сприятливими для події А, то ймовірністю події А є відношення кількості сприятливих для А подій до кількості подій в повній сукупності.

  1. Теореми про ймовірність суми подій.

Т. Ймовірність появи несумісних подій дорівнює сумі ймовірностей цих подій:

P(A+B) = P(A) + P(B), якщо A*B=V

Доведення:

Нехай повна сукупність рівно можливих несумісних подій складається з n елементарних подій. Нехай A розпадається на k сприятливих подій, B – на m сприятливих подій. Оскільки А і В несумісні, то немає подій, які сприятливі для A i B одночасно. Тому

P(A+B) = (k + m)/n = k/n + m/n = P(A) + P(B).

Т. Ймовірність суми двох подій рівна сумі їх ймовірностей мінус ймовірність їх суміщення.

P(A+B) = P(A) + P(B) – P(A*B)

Доведення: з діаграм Вена. (або алгебраїчно через суму несумісних)

  1. Умовні ймовірності (ймовірності добутку подій)

Якщо ймовірність виконання події А залежить від виконання іншої події В, то ймовірність появи події А в цьому випадку називається умовною ймовірністю. P(A/B) – ймовірність події А, за умови, що відбулась подія В.

Т. Ймовірність добутку двох подій рівна добутку ймовірності однієї на умовну ймовірність другої, за умови, що відбулась перша:

P(A*B) = P(A)* P(A/B) = P(B)* P(B/A)

Доведення: Нехай події E1,E2,…,En утворюють повну сукупність рівноможливих подій, з яких r сприятливі для A, s – для B, m – для А і В одночасно. Тоді

P(A*B) = m/n = (m/s) * (s/n) = P(B)*P(B/A)

P(A*B) = m/n = (m/r) * (r/n) = P(A)*P(A/B).

  1. Незалежні події

Якщо подія А не змінює ні сукупності умов S, ні сприятливих подій для події B, то подія B називається незалежною від події А.

Формальніше можна сказати так:

Подія А незалежна від події В, якщо P(A/B) = P(A). Аналогічно: подія В незалежна від події А, якщо P(В/А) = P(В).

Отже, з теореми про добуток подій отримуємо, що для незалежних подій

P(A*B) = P(A)*P(B).

Т. Якщо подія А не залежить від події В, то і подія В не залежить від події А.

Доведення: Якщо P(A/B) = P(A), то P(A*B) = P(B) * P(A/B) = P(A)*P(B) = P(A)*P(B/A) => P(B) = P(B/A) => B не залежить від А.

  1. Незалежні в сукупності події

Якщо подій більше двох, то вони можуть бути попарно залежні, незалежні, можуть зустрічатись ті чи інші види залежності в підмножинах подій.

Події А1,А2,…,An називаються незалежні в сукупності, якщо для будь-якої підмножини їх Ai1­­­­­, Ai2, …, Aik виконується P(Ai1* Ai2*…* Aik) = P(Ai1) * P(Ai2) * … * P(Aik).

Це означає, що події можуть бути попарно незалежні, а в сукупності – ні.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]