Функция распределения системы двух СВ — КиберПедия 

Двойное оплодотворение у цветковых растений: Оплодотворение - это процесс слияния мужской и женской половых клеток с образованием зиготы...

История развития пистолетов-пулеметов: Предпосылкой для возникновения пистолетов-пулеметов послужила давняя тенденция тяготения винтовок...

Функция распределения системы двух СВ

2018-01-13 675
Функция распределения системы двух СВ 0.00 из 5.00 0 оценок
Заказать работу

Функция распределения системы двух СВ

Это вероятность произведения двух событий:

Свойства : 1) причем
2) - неубывающая по каждому аргументу
3) - непрерывна слева по каждому аргументу
4) Вероятность попадания случайной точки (X, Y) в прямоугольник: ≥ 0

5) одномерные функции распределения.

Определение. Случайные величины X, Y называются независимыми, если .

Для дискретных случайных величин X, Y из их независимостиследует независимость любой пары событий: X=xi, Y=yj, где xi, yj – всевозможные значения СВ. Справедливо и обратное утверждение.

Пример. Экспоненциальное распределение системы независимых СВ:

2.4.3. Совместное распределение вероятностей

Системы двух ДСВ.

Оно задается матрицей (таблицей) значений вероятностей произведения событий: для различных .
При этом

Примером системы двух дискретных СВ является число пропущенных студентом занятий(X)и оценка на экзамене (Y).

Если заданы , то

Условные вероятности:

Если две ДСВ независимы, то и наоборот.

Пример 1. Пусть имеется система из двух случайных величин, каждая из которых может принимать значения 1 (успех) или 0 (неудача). Известна таблица

  хi yj
   
  0,3 0,2
  0,1 0,4

вероятностей .

Тогда ;

;

Таблица значений функции распределения имеет вид:

  хi yj
    y >1
       
    0,3 0,5
x>1   0,4  

 

Действительно, = Р(X<0, Y<1) = 0; = Р(X<1, Y<1) = Р(X=0,Y=0) = 0,3; = Р(X<1, Y<2) = Р(X<1) = Р(X=0)=р1= 0,5 и т.д.

Величины X и Y – зависимы. Для того, чтобы сделать такой вывод, достаточно заметить, что, например, р11 ≠ р1·q1 или .

Пример 2. Пусть дано распределение системы двух случайных величин:

  хi yj
   
  0,18 0,42  
  0,12 0,28  

 

Тогда ; р2= 0,4; q1= 0,3; q2= 0,7. Величины X и Y – независимы, так как р11 =0,18= р1·q1 =0,6∙0,3 и т. д.

2.4.4. Плотность распределения системы двух НСВ

 

Это частная смешанная производная второго порядка от функции распределения:

Если задана плотность , то:

Свойства : 1) 2)

3) Вероятность попадания случайной точки в заданную область D:

4) Одномерные плотности распределения:

5) Если две НСВ независимы, то и наоборот.

Условные плотности: ; .

2.4.5. Математические ожидания и дисперсии.

 

В случае, когда задано совместное распределение вероятностей системы двух ДСВ, математические ожидания и дисперсии определяются по формулам:

В случае двух НСВ знаки å заменяются на ò, а рij – на .

Условное математическое ожидание для НСВ:


Оно называется уравнением (функцией) регрессии Y на X.

Аналогично определяется уравнение регрессии X на Y, т. е.

Условная дисперсия для НСВ:


Аналогично определяется .

Для ДСВ знак ∫ заменяется на Σ, а – на .

Условные математическое ожидание и дисперсия характеризуют случайную величину Y при фиксированном значении параметра x или наоборот.

2.4.6. Показатели статистической зависимости двух СВ

 

1. Ковариация (корреляционный момент):

В частности, для системы из двух непрерывных случайных величин:

Свойства: 1) 2) КХХ

3)
4)
5) Если X и Y – независимы, то они некоррелированы, т. е.

(обратное бывает не справедливо).

Эти свойства легко доказываются, если воспользоваться общей формулой для ковариации и свойствами математического ожидания, в частности, если вспомнить, что для независимых СВ .

Пример. Пусть Y и X связаны зависимостью , где
независимые СВ, . Тогда .

Вывод: зависимые X и Y оказались некоррелированными.

2. Коэффициент корреляции:

Свойства: 1) , 2)

3) тогда и только тогда, когда где причем , если и , если

4) Для независимых X и Y (так как )

Докажем второе и третье свойство. Пусть , где независимые СВ. Тогда, используя свойства дисперсии, получим: DY=a2DX+D , так как Db= 0; D(X±Y)=D(X± )= + D .

Применим формулы: cov(X,Y)= ; D(X±Y)=DX+DY±2cov(X,Y).

Подставляя в последнюю предыдущие выражения, получим:

+ D =DX+a2DX+D ±2 ;

= ± . Отсюда .

Так как знаменатель не меньше, чем , то получаем неравенство: . Если т.е. D =0, то имеем: .

Коэффициент корреляции характеризует степень тесноты линейной связи между двумя случайными величинами.

Общий случай

Пусть имеется система, состоящая из k случайных величин: . Пусть известна функция распределения или плотность распределения . На практике большое распространение получило нормальное распределение, плотность которого имеет вид:

f (x1,x2,…,xk) = ,

где (х-а) и (х-а)′ – вектор-столбец, соответственно, вектор-строка переменных, состоящие из элементов хi-a (i=1,2,…,k);

B-1 – матрица, обратная ковариационной матрице B= (Кij) (cov(Xi,Xj));

ΔB– определитель матрицы B.

В частности, при k =2 имеем:

B= ; B-1= ; ΔB= ;

(х-а)′ B-1 (х-а) =

Подставляя полученные выражения в формулу для f (x1,x2,…,xk) при k= 2, получим выражение для двумерной плотности вероятности нормально распределенной случайной величины, приведенное ранее.

При k≥ 3, по аналогии с тем, как одномерные распределения выражаются через двумерные, можно получить двумерные распределения для каждой пары Xi, Xj (i ≠ j): для НСВ – плотности , для ДСВ – матрицы () вероятностей произведения событий: . Определяя для каждой пары ковариации и коэффициенты корреляции, получим ковариационную матрицу (Кij), по главной диагонали которой будут стоять дисперсии, и корреляционную матрицу , по главной диагонали которой будут стоять единицы, причем Кij = Кji и = .

Функция распределения зависит от условий проведения испытаний или наблюдений. Значит, от этих условий зависят и . Пусть, например, испытания будут проведены теперь при некоторых фиксированных значениях всех случайных величин, кроме X1 и X2. Если при этом уменьшится, то можно сделать вывод, что взаимозависимость между X1 и X2 во многом (или даже в значительной степени) была вызвана действием других (ныне фиксированных) факторов. И наоборот, если увеличится, то это будет означать, что другие факторы маскировали истинную взаимозависимость между X1 и X2. Поэтому, наряду с (их называют коэффициентами парной корреляции) используют и другие показатели статистической зависимости: множественные коэффициенты корреляции и частные коэффициенты корреляции.

Распределение Пирсона

Пусть читается: «хи-квадрат»), где независимые СВ, при Распределение этой случайной величины называется распределением Пирсона (или распределением c2) с n степенями свободы. Плотность распределения СВ c2 имеет вид:

где С = Г – значение гамма-функции Г (х) в точке n /2, Г(х) –табулированная гамма-функция. В частности, если х – целое число, то Г(х)= х! На рис.10 изображены плотности вероятности при n=2 и n=6.

Рис10. Плотность распределения величины c2

 

При n=2 f(z) –функция монотонная. Математическое ожидание МZ=n, дисперсия DZ=2n.

Распределение Пирсона (оно, как видно из формулы, – однопараметрическое) является частным случаем двухпараметрического гамма-распределения, часто используемого на практике, когда СВ не может принимать отрицательные значения.

В табл.3П приложения содержатся квантили плотности распределения случайной величины для различных значений степени свободы n≡k и различных значений вероятности р т.е. такие значения , при которых справедливо равенство .

 

Распределение Стьюдента.

Пусть где X и независимы, .

Распределение этой случайной величины называется распределением Стьюдента (или Т-распределением) с n степенями свободы.

Плотность распределения Стьюдента имеет вид (рис. 11):

,

где an = Г , bn = Г , Г(х) – гамма-функция.

Рис.11. Плотность распределения Стьюдента

Математическое ожидание, коэффициент асимметрии и коэффициент эксцесса случайной величины Z равны 0, дисперсия DZ = при n >2. Из этого следует, что распределение Стьюдента имеет чуть больший разброс по сравнению со стандартным нормальным N (0;1). При n ® ¥ fn (z) сходится к нормальному с математическим ожиданием а =0 и дисперсией .

В табл.2П приложения содержатся квантили tp плотности распределения случайной величины T (n) для различных значений степени свободы n ≡ k и различных значений вероятности р, т.е. такие значения tp, при которых справедливо равенство .

 

Распределение Фишера.

 

Распределением Фишера (F -распределением) с m и n степенями свободы называется распределение случайной величины , где и – независимые случайные величины. Из формулы видно, что ≥ 0. Плотность распределения Фишера fF (z) также выражается через гамма-функцию (ее выражение, ввиду громоздкости, не приводится). Следует заметить, что fF (z) имеет один максимум, при z → ∞ fF (z) → 0, а при z ≤ 0 fF (z)=0. В табл.4П приложения содержатся правосторонние квантили плотности распределения случайной величины для различных значений степеней свободы, т.е. такие значения , при которых (р= 0,05).

Распределения хи-квадрат, Стьюдента и Фишера широко используются в математической статистике. Значения квантилей этих и других распределений в зависимости от вероятностей попадания случайной величины в интервал, а также от числа степенейсвободы можно найти не только в учебниках и справочниках, но и в компьютере при наличии необходимого программного обеспечения.

 

Функция распределения системы двух СВ

Это вероятность произведения двух событий:

Свойства : 1) причем
2) - неубывающая по каждому аргументу
3) - непрерывна слева по каждому аргументу
4) Вероятность попадания случайной точки (X, Y) в прямоугольник: ≥ 0

5) одномерные функции распределения.

Определение. Случайные величины X, Y называются независимыми, если .

Для дискретных случайных величин X, Y из их независимостиследует независимость любой пары событий: X=xi, Y=yj, где xi, yj – всевозможные значения СВ. Справедливо и обратное утверждение.

Пример. Экспоненциальное распределение системы независимых СВ:

2.4.3. Совместное распределение вероятностей

Системы двух ДСВ.

Оно задается матрицей (таблицей) значений вероятностей произведения событий: для различных .
При этом

Примером системы двух дискретных СВ является число пропущенных студентом занятий(X)и оценка на экзамене (Y).

Если заданы , то

Условные вероятности:

Если две ДСВ независимы, то и наоборот.

Пример 1. Пусть имеется система из двух случайных величин, каждая из которых может принимать значения 1 (успех) или 0 (неудача). Известна таблица

  хi yj
   
  0,3 0,2
  0,1 0,4

вероятностей .

Тогда ;

;

Таблица значений функции распределения имеет вид:

  хi yj
    y >1
       
    0,3 0,5
x>1   0,4  

 

Действительно, = Р(X<0, Y<1) = 0; = Р(X<1, Y<1) = Р(X=0,Y=0) = 0,3; = Р(X<1, Y<2) = Р(X<1) = Р(X=0)=р1= 0,5 и т.д.

Величины X и Y – зависимы. Для того, чтобы сделать такой вывод, достаточно заметить, что, например, р11 ≠ р1·q1 или .

Пример 2. Пусть дано распределение системы двух случайных величин:

  хi yj
   
  0,18 0,42  
  0,12 0,28  

 

Тогда ; р2= 0,4; q1= 0,3; q2= 0,7. Величины X и Y – независимы, так как р11 =0,18= р1·q1 =0,6∙0,3 и т. д.

2.4.4. Плотность распределения системы двух НСВ

 

Это частная смешанная производная второго порядка от функции распределения:

Если задана плотность , то:

Свойства : 1) 2)

3) Вероятность попадания случайной точки в заданную область D:

4) Одномерные плотности распределения:

5) Если две НСВ независимы, то и наоборот.

Условные плотности: ; .

2.4.5. Математические ожидания и дисперсии.

 

В случае, когда задано совместное распределение вероятностей системы двух ДСВ, математические ожидания и дисперсии определяются по формулам:

В случае двух НСВ знаки å заменяются на ò, а рij – на .

Условное математическое ожидание для НСВ:


Оно называется уравнением (функцией) регрессии Y на X.

Аналогично определяется уравнение регрессии X на Y, т. е.

Условная дисперсия для НСВ:


Аналогично определяется .

Для ДСВ знак ∫ заменяется на Σ, а – на .

Условные математическое ожидание и дисперсия характеризуют случайную величину Y при фиксированном значении параметра x или наоборот.

2.4.6. Показатели статистической зависимости двух СВ

 

1. Ковариация (корреляционный момент):

В частности, для системы из двух непрерывных случайных величин:

Свойства: 1) 2) КХХ

3)
4)
5) Если X и Y – независимы, то они некоррелированы, т. е.

(обратное бывает не справедливо).

Эти свойства легко доказываются, если воспользоваться общей формулой для ковариации и свойствами математического ожидания, в частности, если вспомнить, что для независимых СВ .

Пример. Пусть Y и X связаны зависимостью , где
независимые СВ, . Тогда .

Вывод: зависимые X и Y оказались некоррелированными.

2. Коэффициент корреляции:

Свойства: 1) , 2)

3) тогда и только тогда, когда где причем , если и , если

4) Для независимых X и Y (так как )

Докажем второе и третье свойство. Пусть , где независимые СВ. Тогда, используя свойства дисперсии, получим: DY=a2DX+D , так как Db= 0; D(X±Y)=D(X± )= + D .

Применим формулы: cov(X,Y)= ; D(X±Y)=DX+DY±2cov(X,Y).

Подставляя в последнюю предыдущие выражения, получим:

+ D =DX+a2DX+D ±2 ;

= ± . Отсюда .

Так как знаменатель не меньше, чем , то получаем неравенство: . Если т.е. D =0, то имеем: .

Коэффициент корреляции характеризует степень тесноты линейной связи между двумя случайными величинами.


Поделиться с друзьями:

Архитектура электронного правительства: Единая архитектура – это методологический подход при создании системы управления государства, который строится...

История развития пистолетов-пулеметов: Предпосылкой для возникновения пистолетов-пулеметов послужила давняя тенденция тяготения винтовок...

Историки об Елизавете Петровне: Елизавета попала между двумя встречными культурными течениями, воспитывалась среди новых европейских веяний и преданий...

Археология об основании Рима: Новые раскопки проясняют и такой острый дискуссионный вопрос, как дата самого возникновения Рима...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.114 с.