Двумерные случайные веЛИчины — КиберПедия 

Автоматическое растормаживание колес: Тормозные устройства колес предназначены для уменьше­ния длины пробега и улучшения маневрирования ВС при...

Археология об основании Рима: Новые раскопки проясняют и такой острый дискуссионный вопрос, как дата самого возникновения Рима...

Двумерные случайные веЛИчины

2017-08-23 249
Двумерные случайные веЛИчины 0.00 из 5.00 0 оценок
Заказать работу

Двумерной случайной величиной называется пара случайных величин, определённых на вероятностном пространстве (W, Å, P (×)). Результат наблюдения двумерной случайной величины (X, Y) можно изобразить точкой (x, y) на плоскости. Закон распределения вероятностей между возможными значениями двумерной случайной величины даётся совместной функцией распределения:

F (x, y)= P { X < x, Y < y }

y
показывающей, какая вероятностная масса лежит внутри заштрихованного квадранта (рис. 2).

O
x
y
Рис. 2.
x

Запятая в записи вероятности P { X < x, Y < y } заменяет знак умножения между событиями { X < x } и { Y < y }.

Выделим два простейших случая: непрерывный и дискретный.

Двумерная случайная величина (X, Y) называется непрерывной, если существует такая функция p (x, y), что

F (x, y)= p (x, y) dxdy.

Очевидно,  p (x, y)= F (x, y).

Функция p (x, y) называется совместной плотностью вероятности; она играет роль поверхностной плотности распределения единичной вероятностной массы на двумерной плоскости. Вероятность того, что (X, Y) попадёт в область A на двумерной плоскости, вычисляется так:

P (A)= p (x, y) dxdy,

и эта вероятность определена для таких событий A, для которых определён интеграл справа.

В дискретном случае возможные значения (X, Y) можно представить как упорядоченные пары чисел (xi, yj) и закон распределения давать в виде таблицы:  pij = P { X = xi, Y = yj }.

Если известен закон распределения двумерной случайной величины (X, Y), то можно найти также законы распределения компонент X и Y.

В общем случае:

FX (x)= P { X < x }= P { X < x, Y <+¥}= F (x, +¥).

Аналогично:  FY (y)= F (+¥, y).

В непрерывном случае:

pX (x)= FX (x)= F (x, +¥)= dx p (x, y) dy = p (x, y) dy.

Аналогично:

pY (y)= p (x, y) dx.

В дискретном случае:

pi = P { X = xi }= P { X = xi, -¥< Y <+¥}= pij.

Аналогично:

qj = P { Y = yj }= pij.

Обратная задача – восстановить закон распределения двумерной случайной величины по законам распределения компонент – решается для независимых компонент.

Естественно называть случайные величины X и Y независимыми, если события { X < x } и { Y < y } независимы, т. е., если

F (x, y)= P { X < x, Y < y }= P { X < x } P { Y < y }= FX (x) FY (y).

Если F (x, y) дифференцируема, то

p (x, y)= F (x, y)= FX (x) FY (y)= FX (x) FY (y)= pX (x) pY (y).

В дискретном случае:

pij = P { X = xi, Y = yj }= P { X = xi } P { Y = yj }= piqj.

Совершенно аналогично вводятся n-мерные случайные величины.

Например, пусть независимые случайные величины Xi, i =1, 2, ¼, n распределены по стандартному нормальному закону:  Xi ~ N (0, 1), i =1, 2, ¼, n.  Их совместная плотность вероятности равна:

p (x 1, x 2, ¼, xn)= exp(- xi 2).

Выполним невырожденное линейное преобразование и введём новые случайные величины

Yk = aijXi, k =1, 2, ¼, n.

Это преобразование можно переписать в матричном виде:  Y = AX, где  XT =
=(X 1, X 2, ¼, Xn), YT =(Y 1, Y 2, ¼, Yn), A =|| aij ||, Det A ¹0. Так как преобразование невырождено, то оно обратимо, так что  X = A -1 Y.  В евклидовом пространстве переменных y 1, y 2, ¼, yn совместная плотность вероятности вектора Y равна

q (y 1, y 2, ¼, yn)= exp(- YT S Y),

где S= ATA – матрица квадратичной формы в показателе экспоненты, а |Det A |= J – якобиан преобразования.

Обратно, если совместная плотность вероятности n -мерного вектора равна

q (y 1, y 2, ¼, yn)= C ×exp(- YT S Y),

где S – положительно определённая матрица (что нужно для сходимости интеграла по всему пространству), а C – константа, то существует такая матрица A, что S= ATA, С =|Det A |=  и преобразование  Y = AX, (X = A -1 Y) приводит к независимым компонентам  Xi ~ N (0, 1), i =1, 2, ¼, n.

Можно сделать ещё одно обобщение, введя параметры масштаба и сдвига по всем осям.

n -мерной нормальной плотностью называется

p (x 1, x 2, ¼, xn)= exp(- aik (xi - bi)(xk - bk)),

где aik, bi – параметры n -мерного нормального вектора, A =|| aij || – положительно определённая матрица.

 

c2– распределение

Пусть X 1, X 2, ¼, Xn – независимые (в совокупности) нормально распределённые случайные величины:  Xi ~ N (0, 1), i =1, 2, ¼, n.

Определим сумму их квадратов:

c n 2= Xi 2

и найдём закон распределения случайной величины c n 2:

F c n 2(x)= exp(- xi 2) dx 1 dx 2¼ dxn, x >0.

Принимая во внимание, что подынтегральная функция принимает постоянное значение на любой n -мерной сфере (x 12+ x 22+¼+ xn 2= r 2), проведём интегрирование по сферическим слоям. Обозначим через Vn (r) объём n -мерной сферы радиуса r, а через Sn (r) – площадь её поверхности.

Отметим, что:

Sn (r)= Vn (r),  Vn (r)= Sn (r) dx.

В частности, в двумерном и трёхмерном случаях имеем:

V 2(r)=p r 2, S 2(r)=2p r, V 3(r)= p r 3, S 3(r)=4p r 2.

Ясно, что можно считать

Vn (r)= Cnrn, Sn (r)= nCnrn -1,

где Cn – константа, которую мы найдём ниже.

Продолжим теперь преобразование функции распределения c n 2:

F c n 2(x)= exp(- r 2) nCnrn -1 dr.

Мы превратили n -кратный интеграл в обычный однократный.

Из последнего равенства найдём плотность вероятности:

p c n 2(x)= F c n 2(x)= exp(- )  Û  p c n 2(x)= , x >0.

Если x £0, то ясно, что p c n 2(x)º0.

Прежде, чем перейти к вычислению константы Cn, напомним определение и свойства гамма-функции, которыми нам ещё не раз придётся пользоваться.

––²––

Определение и свойства гамма-функции

Гамма-функция определена на положительной полуоси равенством:

G(x)= e - ttx -1 dt, x >0.

Свойства гамма-функции:

1°. G(x +1)= x G(x). Это свойство легко доказывается интегрированием по частям интеграла, определяющего G(x +1): G(x +1)= e - ttxdt.

2°. G(1)=1.

3°. Для любого натурального n: G(n +1)= n! Доказательство этого факта сразу следует из двух первых свойств. Данное свойство показывает, что гамма-функция является естественным обобщением факториала.

4°. G()= .

Для доказательства этого свойства достаточно сделать замену переменной в интеграле, определяющем G():

G()= e - t dt

и положить  t = y 2:

G()= dy.

Вспоминая рассмотренный нами выше интеграл Пуассона  I = dx = , находим, что G()= .

5°. Для полуцелого положительного n: G(n + )= .

Это равенство доказывается по индукции с использованием свойств и .

6°. Формула Стирлинга:

при  x ®+¥: G(x +1)~ xxe - x.

Мы приведём не вполне строгое, но достаточно простое доказательство этой формулы.

При любом фиксированном x (x >0):

G(x +1)= e - ttxdt = ex ln t - tdt = e y( t ) dt,

где y(t)= x ln t - t.

Легко убедиться, что функция y(t) имеет максимум при t = x. Разложим y(t) в ряд Тейлора в окрестности точки t = x, ограничиваясь первыми тремя слагаемыми:

y(tx ln x - x - = x ln x - x - ()2.

Поэтому

G(x +1)» ex ln x - x dt = xxe - x dt.

Введём новую переменную:  y = . Имеем:

G(x +1)» xxe - x dy.

В последнем интеграле при больших x (x ®+¥) нижний предел интегрирования можно заменить на -¥:  dy» dy = I  – интеграл Пуассона и, как мы знаем, он равен . Поэтому при больших положительных x:

G(x +1)» xxe - x ,

что и требовалось доказать.

––²––

Выше мы получили выражение для плотности вероятности p c n 2(x):

p c n 2(x)= при x >0 и p c n 2(x)º0 при x £0

и нам осталось найти величину константы Cn.

Воспользуемся свойством нормированности p c n 2(x):

dx =1.

Подстановка x = приводит интеграл к гамма-функции:

× e - t dt =1 Û  G()=1 Û  Cn = = .

Итак, мы можем в окончательном виде записать плотность вероятности и функцию распределения случайной величины c n 2:

p c n 2(x)= , при x >0, и p c n 2(x)º0, при x £0,

F c n 2(x)= dx, при x >0, и F c n 2(x)º0, при x £0.

Этот закон табулирован и нет необходимости вычислять интеграл точно даже для чётных n, при которых он берётся в элементарных функциях.

Попутно мы нашли общие формулы для объёма n -мерного шара и площади поверхности n -мерной сферы:

Vn (r)= rn,  Sn (r)= rn -1.

C– распределение

При y >0:

F c n (y)= P {c n < y }= P {c n 2< y 2}= dx.

Отсюда:

p c n (y)= F c n (y)= yn -1, при y >0, и p c n (y)º0, при y £0.

и, следовательно,

F c n (x)= yn -1 dy, при y >0 и F c n (x)º0, при y £0.

Распределение Стьюдента

Пусть даны две независимые случайные величины  X ~ N (0, 1), и c n.

Определим случайную величину  Tn  равенством:  Tn =  и найдём закон её распределения.

Совместная плотность вероятности двумерной случайной величины (X, c n) равна:

p (x, y)= yn -1, для -¥< x <+¥, 0< y <+¥.

Функция распределения дроби  Tn  равна:

FTn (t)= P { Tn < t }= P { < t }= P { X < t c n }.

Неравенству  X < t c n  благоприятствуют точки, занимающие область, заштрихованную на Рис. 3:

y
Рис. 3.
x

Этой области досталась вероятность:

FTn (t)= P { Tn < t }= dy p (x, y) dx = dy yn -1 dx.

Отсюда находим плотность вероятности:

pTn (t)= FTn (t)= yn -1 ydy.

Отметим, что в интеграле t играет роль параметра и сделаем замену переменной:

u = y 2 Þ  y =  Þ  dy = .

Имеем:

pTn (t)= × × e - u du

и, выражая интеграл через гамма-функцию, мы можем записать плотность распределения Стьюдента в следующем – окончательном виде:

pTn (t)= × .

Отметим, что при n =1 из этой формулы получается плотность распределения Коши:

pT 1(t)= ,

т. е. случайную величину, распределенную по закону Коши, можно считать отношением двух независимых случайных величин,  X = , где Xi ~ N (0, 1), i =1, 2.

Замечание. Часто случайную величину Tn определяют с дополнительным множителем: Tn = × . В этом случае плотность вероятности имеет вид:

pTn (t)= ×(1+ ) .

Дополнительные множители появляются и в выражении для функции распределения.

 

Числовые характеристики случайных величин:
математическое ожидание, дисперсия,
коэффициент корреляции

Наиболее полная информация о случайной величине содержится в законе её распределения. Более бедную, но зато и более конкретную информацию о ней дают её числовые характеристики. Простейшей из них является математическое ожидание, которое интерпретируется как среднее значение случайной величины. Если посмотреть на закон распределения как на распределение единичной вероятностной массы между значениями случайной величины, то в качестве среднего значения можно взять координаты центра тяжести этой массы. По известным из анализа и механики формулам получаем формулы для вычисления абсциссы центра тяжести:

xp (x) dx – в непрерывном случае,
xkpk – в дискретном случае.

Для того, чтобы дать определение, пригодное и для общего случая, необходимо обобщить понятие риманова интеграла.

Сделаем поэтому небольшое математическое отступление.

––²––

Интеграл Стилтьеса

Интеграл Стилтьеса определяется для двух функций: одна из них j(x) – называется интегрируемой, другая F (x) – интегрирующей. Разобьём всю ось на интервалы D tk: [ tk, tk +1), относя для определённости к интервалу левый конец и исключая правый. В каждом интервале выберем произвольно точку x k и составим интегральную сумму

j(x k)[ F (tk +1)- F (tk)].

Перейдём к пределу, устремив наибольший из интервалов к нулю. Если предел существует и не зависит ни от способа разбиения оси на интервалы, ни от способа выбора точек x k на них, то он называется интегралом Стилтьеса от функции j(x) по функции F (x) и обозначается:  j(x) dF (x).

Легко убедиться в том, что обычные свойства интеграла сохраняются: постоянный множитель можно выносить за знак интеграла, интеграл от суммы равен сумме интегралов.

Интеграл Римана является частным случаем интеграла Стилтьеса для F (x)= x.

Рассмотрим два частных случая:

a. F (x) – ступенчатая функция, имеющая в точках xi скачки величины pi и постоянная между этими точками. Приращения  F (tk +1)- F (tk) на тех интервалах D tk, которые не содержат точек разрыва функции F (x), равны нулю; если же точка xi является единственной точкой разрыва F (x), содержащейся в интервале D tk, то разность  F (tk +1)- F (tk) равна pi. Считая, что все точки разрыва изолированные, при переходе к пределу получим:  j(x) dF (x)= j(xi) pi.

b. F (x) – дифференцируемая функция: существует производная F ¢(x)= p (x). В интегральной сумме для интеграла Стилтьеса  j(x k)[ F (tk +1)- F (tk)] каж­дую из разностей [ F (tk +1)- F (tk)] заменим по формуле Лагранжа: на каждом промежутке D tk найдётся такая точка h k, в которой  F (tk +1)- F (tk)= F ¢(h k)=
= p (h k)D tk; пользуясь произволом в выборе точек x k из промежутка D tk, возьмём в каждом слагаемом интегральной суммы x k =h k и тогда сумма примет вид:

j(h k) p (h k)D tk,

а это – ни что иное, как риманова интегральная сумма для функции j(x) p (x). Поэтому:

j(x) dF (x)= j(x) p (x) dx.

В теории вероятностей интеграл Стилтьеса оказался удобным средством объединения случаев непрерывного и дискретного распределений в общем случае.

––²––

Вернёмся к изучению числовых характеристик случайных величин.

1°. Выше мы ввели понятие математического ожидания для дискретной и непрерывной случайных величин.

Пусть теперь X – случайная величина с функцией распределения F (x). Возьмём произвольную функцию j(x).

Назовём математическим ожиданием функции j от случайной величины X число M j(X), определяемое равенством:

M j(X)= j(x) dF (x).

В частности, для непрерывной случайной величины с плотностью вероятности p (x) получаем:

M j(X)= j(x) p (x) dx,

а для дискретной случайной величины с распределением  pk = P { X = xk }:

M j(X)= j(xk) pk.

В случае, когда j(x)= x, последние три формулы принимают вид:

MX = xdF (x) – в общем случае,
MX = xp (x) dx – в непрерывном случае,
MX = xkpk – в дискретном случае.

Формулы для непрерывного и дискретного случаев совпали с формулами для абсциссы центра тяжести распределения вероятностной массы, и тем самым оправдывается истолкование математического ожидания случайной величины X как среднего значения.

Для корректности определения математического ожидания следует обсудить вопрос о его существовании и единственности.

Вопрос о единственности M j(X) возникает потому, что j(X) сама является случайной величиной со своей функцией распределения F j(x) и в соответствии с нашим определением её математическое ожидание равно xdF j(x).

Для однозначности определения необходимо выполнение равенства

j(x) p (x) dx = xdF j(x)

и такое равенство действительно можно доказать: оно даёт правило замены переменных в интеграле Стилтьеса. Мы здесь вынуждены принять его без доказательства.

Вопрос о существовании математического ожидания: ясно, что в непрерывном и дискретном случае любая ограниченная случайная величина имеет математическое ожидание. Если же X может принимать сколь угодно большие значения, то в дискретном случае сумма, определяющая MX, становится бесконечным рядом, а в непрерывном – интеграл становится несобственным, причём оба могут расходиться. Очевидно, в непрерывном случае достаточным условием существования среднего значения у случайной величины является

p (x)= O () при x ®±¥ (e>0),

а в дискретном случае:

xkpk = O () при k ®¥ (e>0).

Однако оба эти условия не являются необходимыми.

Легко также придумать примеры случайных величин, не имеющих среднего. Для непрерывного случая таким примером может служить распределение Коши. В дискретном подобный пример придумать ещё проще, если учесть, что вероятность pk можно приписать сколь угодно большим числам xk.

Если дана двумерная случайная величина (X, Y), то математическое ожидание функции j(X, Y) определяется равенствами

M j(X, Y)= j(x, y) p (x, y) dxdy – в непрерывном случае
(интеграл берётся по всей плоскости),

M j(X, Y)= j(xi, yj) pij – в дискретном случае
(сумма берётся по всем возможным значениям
двумерной случайной величины).

2°. Второй по важности числовой характеристикой случайной величины X служит её дисперсия DX. Дисперсией называется

DX = M [(X - MX)2]= (x - MX)2 dF (x),

т. е. среднее значение квадрата отклонения случайной величины от её среднего. Эта формула в непрерывном случае переходит в

DX = (x - MX)2 p (x) dx,

а в дискретном в:

DX = (xk - MX)2 pk.

Если среднее есть не у всех случайных величин, то дисперсия и подавно. В дальнейшем все теоремы о MX и DX без особых оговорок формулируются лишь для тех X, которые их имеют.

Размерность дисперсии равна квадрату размерности случайной величины X. Поэтому иногда удобно вместо DX рассматривать величину s X = , называемую средним квадратичным отклонением случайной величины X или просто стандартом.

Дисперсия и стандарт мыслятся как меры разброса значений случайной величины вокруг её среднего.

3°. Докажем несколько простых утверждений:

Математическое ожидание постоянной C равно C:  MC = C.

Постоянный множитель можно выносить за знак математического ожидания:

               M (CX)= CMX.

Дисперсия постоянной равна нулю:  DC =0.

Постоянный множитель выносится за знак дисперсии в квадрате:

               D (CX)= C 2 DX.

Постоянную C можно рассматривать как частный случай дискретной случайной величины, принимающей единственное значение C с вероятностью, равной 1. Поэтому MC = C ×1= C.

Свойство  M (CX)= CMX  следует из определения математического ожидания как предела интегральных сумм: постоянный множитель можно выносить за знак суммы и знак интеграла.

О дисперсии:

DC = M [(C - MC)2]= M [(C - C)2]= M 0=0;

D (CX)= M [(CX - M (CX))2]= M [(CX - CM (X))2]=
= M [ C 2(C - MC)2]= C 2× M [(X - MX)2]= C 2 DX.

4°. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий:

M (X + Y)= MX + MY.

Докажем эту теорему отдельно для непрерывного и дискретного случая.

a. Непрерывный случай. Пусть p (x, y) – двумерная плотность вероятности.

Согласно определению математического ожидания функции от двумерной случайной величины:

M (X + Y)= (x + y) p (x, y) dxdy.

Представляя двойной интеграл как сумму двух повторных и выбирая соответствующий порядок интегрирования в слагаемых, имеем:

M (X + Y)= xdx p (x, y) dy + ydy p (x, y) dx =
= xpX (x) dx + ypY (y) dy = MX + MY.

b. Дискретный случай.

M (X + Y)= (xi + yj) pij.

Представляем двойную сумму как две повторные:

M (X + Y)= xi pij + yi pij = xipi + yjpj = MX + MY.

Аналогично эту теорему можно доказать для смешанного случая. Общая же формулировка потребовала бы введения двумерного интеграла Стилтьеса.

5°. Предыдущая теорема естественно обобщается на сумму n слагаемых:

M = MXi.

Как частный случай применения этой формулы отметим следующую задачу: имеются события  A 1, A 2, ¼, An, их вероятности соответственно равны  p 1, p 2, ¼, pn.  Спрашивается, чему равно ожидаемое число событийA 1, A 2, ¼, An, которые произойдут в опыте? Определим вспомогательные случайные величины Xi равенствами:

Xi =
1, если событие Ai произошло,
0, если событие Ai не произошло.

Всего в опыте происходит  Xi  событий, а ожидаемое число равно

M = MXi = pi.

6°. Ещё одна формула для дисперсии:  DX = M (X 2)- M 2(X).

Действительно, в силу теорем и имеем:

DX = M [(X - MX)2]= M (X 2)- MX × MX + M [ M (X)2]=
= M (X 2)-2. M 2(X)+ M 2(X)= M (X 2)- M 2(X).

В частности, если  MX =0, то  DX = M (X 2).

7°. Нормированной случайной величиной X *назовём:

X *= .

Это – безразмерная случайная величина, причём:

a)


Поделиться с друзьями:

Типы сооружений для обработки осадков: Септиками называются сооружения, в которых одновременно происходят осветление сточной жидкости...

Адаптации растений и животных к жизни в горах: Большое значение для жизни организмов в горах имеют степень расчленения, крутизна и экспозиционные различия склонов...

Кормораздатчик мобильный электрифицированный: схема и процесс работы устройства...

Индивидуальные и групповые автопоилки: для животных. Схемы и конструкции...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.254 с.