Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
LEKC1.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
280.58 Кб
Скачать

Лабораторная работа 1

ОСНОВНЫЕ ХАРАКТЕРИСТИКИ И ЭКСПЕРИМЕНТАЛЬНЫЙ АНАЛИЗ

СЛУЧАЙНЫХ ВЕЛИЧИН

Цель работы: — изучение основных понятий теории вероятностей, ознакомление с основными характеристиками случайных величин и возможными способами их экспериментального определения.

Задание: 1. Изучить методические указания к лабораторной работе и материалы

лекций по данной теме.

  1. Ознакомится с техническим описанием и принципом работы лабораторного стенда.

  2. Выполнить задания (1,2) и провести обработку экспериментальных данных.

  3. Оформить отчет о проделанной работе.

Методические указания

При подготовке к выполнению лабораторной работы необходимо изучить элементы теории вероятностей (основные понятия теории вероятностей, ознакомится с основными характеристиками случайных величин) и возможные способы экспериментального определения случайных величин.

1. Элементы теории вероятностей

Случайной величиной называют такую величину, значения которой изменяются при повторении опытов некоторым, заранее не предсказуемым образом. В отличие от неслучайных, детерминированных величин для случайной величины нельзя заранее точно сказать, какое конкретное значение она примет в определенных условиях, а можно только указать закон ее распределения. Закон распределения считается заданным, если: 1) указано множество возможных значений случайной величины; 2) указан способ количественного определения вероятности попадания случайной величины в любую область множества возможных значений.

Вероятность попадания в заданную область может быть определена следующим образом:

. (1.1)

Здесь Nm количество наблюдений случайной величины, оказавшихся в заданной области; N — общее число наблюдений (частотное определение вероятности).

Аналитическими выражениями законов распределения случайных величин являются функции распределения вероятностей — интегральная и дифференциальная.

Интегральная функция распределения F (х) случайной величины Х показывает вероятность того, что случайная величина не превышает некоторого заданного или текущего значения х, т.е. F(x)=P {X £ x}. Через Р обычно обозначают оператор вероятности, а через р — конкретную величину вероятности. Следовательно, вероятность того, что значение случайной величины Х заключено между х1 и х2, равна разности значений функции распределения, вычисленных в этих двух точках:

P{x1< X £ x2} = F(x2) - F(x1). (1.2)

Аналогично,

P{X > x}= 1 - F(x). (1.3)

Интегральная функция распределения случайной величины Х обладает следующими свойствами:

1) ; 2) ;

3) F(x) ³ 0 для всех х; 4) F(x2) ³ F(x1), если х2 > х1.

Если функция F (х) дифференцируема для всех значений случайной величины X, то закон распределения вероятностей может быть выражен в аналитической форме также с помощью дифференциальной функции распределения вероятностей:

. (1.4)

Таким образом, значение функции f(x) приближенно равно отношению вероятности попадания случайной величины в интервал (х, х+Dх) к длине Dx этого интервала, когда Dх — бесконечно малая величина. Поэтому функцию f (х) называют также функцией платности распределения вероятностей (или короче — функцией плотности вероятности).

Отметим основные свойства функции; f(х):

1) f(x) ³ 0; 2) ;

3) ; 4)

(z — переменная интегрирования).

С помощью дифференциальной функции распределения вычисляется вероятность нахождения случайной величины в любой области из множества ее возможных значений. В частности,

,

. (1.5)

Как интегральная, так и дифференциальная функции распределения являются исчерпывающими, вероятностными характеристиками случайной величины. Однако некоторые основные свойства случайных величин могут быть описаны более просто с помощью определенных числовых параметров. Наибольшую роль среди них на практике играют два параметра, характеризующие центр рассеяния (центр распределения) случайной величины и степень ее рассеяния вокруг этого центра. Наиболее распространенной характеристикой центра распределения является математическое ожидание тх случайной величины Х (часто называемое также генеральным средним значением):

. (1.6)

Степень рассеяния случайной величины Х относительно тх может быть охарактеризована с помощью генеральной дисперсии :

. (1.7)

Если f (х) все в большей степени концентрируется вблизи mх, то значения уменьшаются. Если же имеются весьма удаленные от тх значения случайной величины Х и для них f(х) не слишком мала, то дисперсия увеличивается. Квадратный корень из дисперсии называется средним квадратическим отклонением sх.

Зачастую для описания практической ситуации оказывается необходимым использование одновременно нескольких (в простейшем случае — двух) случайных величин. Для задания вероятностных свойств двух случайных величин X, Y используются двумерные (совместные) функции распределения вероятностей: интегральная F (х, у) и дифференциальная f(x, у). Функция F(x, у), характеризующая вероятность того, что первая случайная величина принимает некоторое значение, меньшее или равное х, а вторая — значение, меньшее или равное у, называется интегральной функцией совместного распределения двух случайных величин:

F(x, у) = Р{Х £ х; Y £ y}. (1.8)

Как и для одной непрерывной случайной величины, если функция F (х, у) достаточно гладкая, то ее можно продифференцировать, в результате чего получится двумерная дифференциальная функция распределения вероятностей (двумерная плотность вероятности):

. (1.9)

Функция f (x, у) обладает следующими свойствами:

1) f(x, y) ³ 0; 2) ;

3) ; 4)

(z1, z2 — переменные интегрирования).

Вероятность того, что случайные величины X, Y одновременно попадут в некоторую произвольную область W составляет

. (1.10)

В частности,

. (1.11)

По известной двумерной плотности f(x, у) легко найти частные (одномерные) функции распределения f(x), f (у) каждой случайной величины:

. (1.12)

Две случайные величины Х и Y называются независимыми, если

f(x, y) = f(x)f(y). (1.13)

Как и в одномерном случае, основные свойства двумерной совокупности величин X, Y могут быть охарактеризованы с помощью ряда числовых параметров. При этом в качестве наиболее употребительных параметров, описывающих поведение каждой из случайных величин в отдельности, как и выше, используются математическое ожидание и дисперсия соответствующей случайной величины: тх, ту, , . Кроме подобного рода параметров для двумерной совокупности могут быть построены параметры, характеризующие степень взаимозависимости переменных Х и Y. Простейшими из них являются ковариация двух случайных величин (называемая также корреляционным моментом)

, (1.14)

а также нормированный показатель связи — коэффициент корреляции

. (1.15)

По своему физическому смыслу коэффициент корреляции является далеко не исчерпывающей характеристикой статистической связи, характеризуя лишь степень линейной зависимости между Х и Y. Коэффициент корреляции меняется в пределах -1 £ rxy £ 1. Если rxy = 1, то случайные величины полностью положительно коррелированы, т.е. у = а0 + а1х, где а0 и а1 — постоянные, причем а1 > 0. Если же rxy = -1, то случайные величины полностью отрицательно, коррелированы, т.е. у = а0 - а1х. Если rxy = 0, то говорят, что случайные величины Х и Y не коррелированы: а1 = 0. В том случае, когда Х и Y — независимые случайные величины, для них rxy = 0; следовательно, они и не коррелированы. Обратное утверждение в общем случае неверно: Х и Y могут быть связаны даже функционально и все же иметь нулевой коэффициент корреляции (при этом, конечно, функциональная связь должна быть нелинейной).

Все описанные выше функции и связанные с ними параметры являются теоретическими, характеризующими определенные свойства изучаемого объекта. На практике почти всегда эти характеристики неизвестны и возникает задача экспериментального (эмпирического) определения тех или иных характеристик случайных величин на основе наблюдений.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]