Основные харки(функция,плотности распределения,понятие незанятости) — КиберПедия 

История развития пистолетов-пулеметов: Предпосылкой для возникновения пистолетов-пулеметов послужила давняя тенденция тяготения винтовок...

Состав сооружений: решетки и песколовки: Решетки – это первое устройство в схеме очистных сооружений. Они представляют...

Основные харки(функция,плотности распределения,понятие незанятости)

2018-01-03 162
Основные харки(функция,плотности распределения,понятие незанятости) 0.00 из 5.00 0 оценок
Заказать работу

Основные числовые характеристики(мат ожид, дисперсия,корреляц матрица,коэф корреляц,нормированная корреляционная марица)

Математическим ожиданием (МО) случайного вектора X называется вектор

M[ X ] Δ = mX Δ = col(m 1,..., mn), где mi Δ = M[ Xi ], i = 1, n.

Матрицу K размерности n x n с элементами

kij Δ = M[(Xi - mi)(Xj - mj)]

называют ковариационной. Элементы kij ковариационной матрицы являются ковариациями СВ Xi и Xj при ij, а диагональные элементы kij - дисперсии СВ Xi, т.е.

kij Δ = di Δ = (σi)2 = M[(Xi - mi)2], i = 1, n.

Дисперсии di, i = 1, n, характеризуют рассеивание реализаций компонент случайного вектора относительно средней точки mX = col(m 1,..., mn), а ковариации kij - степень линейной зависимости между СВ Xi и Xj. В частности, по свойству 2)kXY при линейной связи между Xi и Xj ковариация между ними равна kij = ±σiσj. Так как по свойству 1)kXY всегда | kXY | ≤ σiσj, то при линейной зависимости между Xi и Xj модуль | kij | максимален.

Нормированную ковариационную матрицу R, элементами которой являются коэффициенты корреляции rij, называют корреляционной матрицей

безразмерную величину , определяемую соотношением.

(73)


и называемую коэффициентом корреляции.

16. основные задачи математической статистики. Занимается методами обработки опытных данных, полученных в рез-те наблюдения над случайными явлениями. Задачи мат стата:1)указать способы сбора и группировки стат. сведений, полученных в рез-те наблюдения за случ. процессами. 2)Разработка методов анализа стат. Данных в зависимости от цели исследования. Генеральная и выборочная совокупность. Ген совокупность-множество объектов, из которых производится выборка.Выборочная совокупность-сов-ть случайно отобранных объектов из генеральной совокупности. Повторная и бесповторная выборка.Повторная – при которой отобранный объект возвращается в ген совокупность. Бесповторная – при которой отобранный объект не возвращается в ген совокупность.Репрезентативность выборки.Выборка является репрезентативной, когда достаточно полно представлены изучаемые признаки генеральной совокупности.Условием обеспечения репрезентативности выборкия явл, соблюдение случайности отбора, т.е. все обекты ген выборки имеют равную возм попать в выборку. Теоретическая ФР. по определению, F(x)= mх/n, где n - объем выборки, mх - число выборочных значений величины X, меньших х. В отличие от выборочной функции F(x) интегральную функцию F(x) генеральной совокупности называют теоретической дикцией распределения. Главное различие функций F(x) и F(x) состоит в том, что теоретическая функция распределения F(x) определяет вероятность события Х<х, а выборочная функция - относительную частоту этого события. Статистическое распределение выборки. Распред в тоер вероят – соответствие м/у возможными значениями случ. вел-ны и их вероятностями. Распред в мат статист-соответствие м/у наблюдаемыми вариантами и их частотами.Перечень вариантов и соответствующих частот или частостей назыв статистическим распред выборки. Эмпирическая функция распределения называется функция определяющая для каждого значения х частость события {X<x}: =p*{X<x}. Для нахожд значений эмпирической ф-ии удобно записать в виде = Nx/n, n-объем выборки,Nx-число наблюдений, меньших х. Эмпирическая функция распределения явл оценкой вероятности события {X<x},т.е. оценкой теоретической функции распределения F(x) с.в.Х Гистограмма, полигон относительных частот.Гистограммой частот называют ступнчатую фигуру, состоящую из прямоугольников, основаниями которых служат частичные интервалы длины h, а высоты равны отношению Ni/h-Плотность частоты.)площадь гистограммы частот равна объему выборки, а площадь гистограммы частостей равна единице. Полигон относит частот- ломаная, отрезки которой соединяют точки(xi p* i;) Статистические оценки параметров распределения (выборочная средняя, групповая, общая среднее, выборочная дисперсия.) Выборочным средним ¯x в называется среднее арифметическое всех значений выборки: ¯x в= 1/n∑х i n i; Групповая средняя – ср. арифметическое значение признака,

i=1

принадлежащее группе. Общая средняя – ср. арифметическое знач. признака, принадлежащее всей сов-ти. Выборочная дисперсия – ср. арифметическое квадратов отклонения наблюдаемых значений признака от их ср. значения. .Если данные наблюдений представлены в виде дискретного вариационного ряда, причем x1, x2, x3,..., xn - наблюдаемые варианты, a m1, m2, m3,..., mv - соответствующие им частоты, то выборочная дисперсия определяется формулой:


Формула для вычисления дисперсии. D в =х¯2-[х¯]2 (ср.арифметический квадрат значений выборки-квадрат общей средней) Док-во:

17. Основные распределения в математической статистике Распределение хи-квадратПусть Uk, k = 1, n, - набор из n независимых нормально распределенных СВ, Uk ~ N (0,1). Тогда СВ

X Δ = n k =1 Uk 2

имеет распределение хи-квадрат (χ2-распределение) с n степенями свободы, что обозначается X ~ X2 (n). СВ X имеет следующую плотность распределения:

fX (x)= { 2(n /2)Γ(n /2) 0 x (n /2)-1 e-x /2 , , x ≥ 0, x < 0,

где

Γ(m) Δ = +∞ 0 ym -1 e-y d y - гамма-функция.

Графики функции fX (x) (см. рис. 1), называемые кривыми Пирсона, асимметричны и, начиная с n ≥ 2, имеют один максимум в точке x = n - 2.

Характеристическая функция СВ X имеет вид:

gX (t) = +∞-∞ f X (x) eitx d x = (1 - 2 ti)- n /2.

Начальные моменты СВ X находятся по свойству 3)gX(t):

ν 1 = i d d t g (t) | t =0 = - n 2 i (-2 i)(1 - 2 ti)-(n /2)-1 | t =0 = n,

 

ν 2 = 1 i 2 d2 d t 2 g (t) | t =0 = n i (-2 i)(- n - 1)(1 - 2 ti)-(n /2)-2 | t =0 = n 2+2 n,

 

D[ X ] = ν 2 - ν 12 = n 2 + 2 n - n 2 = 2 n.

Сумма любого числа m независимых СВ Xk, k = 1, m, имеющих распределение хи-квадрат с nk степенями свободы также имеет распределение хи-квадрат с

n Δ = n k =1 nk

степенями свободы. Это можно доказать, используя свойства характеристической функции.

 

Распределение Стьюдента Пусть U и X - независимые СВ, U ~ N (0,1), X ~ X2 (n). Тогда СВ

  T Δ = Un / X

имеет распределение Стьюдента с n степенями свободы, что обозначают как T ~ S (n). СВ T имеет плотность распределения

fT (x) = Γ((n +1)/2) √ Γ(n /2) (1+ x 2 n )-(n +1)/2.

1 Графики функции fT (x) (рис. 2), называемые кривыми Стьюдента, симметричны при всех n = 1,2,... относительно оси ординат.


Рисунок 2.

2Можно показать, что при n → ∞ плотность вероятности распределения СВ T ~ S (n) сходится к плотности вероятности стандартного нормального распределения N (0,1), т.е.

fT (x) → √2 π exp(- x 2 / 2), n → ∞.

Действительно, пусть n = 2 m. Тогда

(1+ x 2 n )-(n +1)/2 = (1 + x 2 2 m )- m -(1/2).

Если n → ∞ и m → ∞, то согласно известному замечательному пределу получим

(1+ x 2 2 m )-1/2 (1+ x 2 2 m )- m → exp{- x 2/2}.

Таким образом,

fT (x) → k exp{- x 2/2} при n → ∞.

Так как fT (x) удовлетворяет условию нормировки, то и предельная функция должна удовлетворять условию нормировки, т.е. являться плотностью. Поэтому из условия нормировки плотности получаем

Γ((n +1)/2) √ Γ(n /2) k = √2 π при n → ∞.

При n > 30 распределение Стьюдента практически не отличается от N (0,1). Однако при n ≤ 30 отличия существенны.

Замечание 3. При n = 1 распределение Стьюдента S (1) совпадает с распределением Коши, плотность которого равна

f (x) = π 1+ x 2 ,

т.к. при n = 1 имеем Γ(1/2) = 1 / √ π, Γ(1) = 1. Особенность распределения Коши состоит в том, что у него нет ни одного начального момента νr, r ≥ 1, так как расходятся несобственные интегралы

νr Δ = 1 π -∞ xr x 2+1 d x.

Любопытно, если попробовать вычислить МО M [ T ] СВ T, имеющей распределение Коши, как предел значений определенного интеграла на отрезке [- a, a ], то можно получить неверный ответ:

l i m n →∞ π a- a x x 2+1 d x = 0.

 

 

Распределение Фишера Пусть независимые СВ Xn и Xm имеют распределения хи-квадрат с n и m степенями свободы соответственно. Тогда СВ

X Δ = Xn / Xm

имеет распределение Фишера с n и m степенями свободы, что записывают как X ~ F (n, m). 1 СВ X имеет плотность fX (x) = 0 при x < 0 и

fX (x) = Γ((n+m)/2) Γ(n /2)Γ(m /2) nn /2 mm /2 x (n /2)-1 (m+nx)(n+m)/2 , x ≥ 0.

Графики функции fX (x) (см. рис. 3), называемые кривыми Фишера, асимметричны и достигают максимальных значений в окрестности точки

x = (n -2) m (m +2) n ,

близкой к единице.

 

2 Распределение Фишера используют, например, при сравнении выборочных дисперсий для нормальных СВ. В частности, распределение F (n, m) имеет следующая СВ:

X Δ = [ 1 n n +1 k =1 (Xk - ^ MX )2] / [ 1 m m +1 k =1 (Yk - ^ MY )2],

где СВ X 1,..., Xn +1, Y 1,..., Ym +1 - независимы и имеют нормальное распределение: Xi ~ N (mX, σ), Yi ~ N (mY, σ).

18 Статистические оценки Точечные

Пусть выборка

Zn Δ = col(X 1,..., Xn)

соответствует функции распределения

F (x, θ) Δ = P{ X ≤ x },

зависящей от неизвестного параметра θ. Точечной (выборочной) оценкой неизвестного параметра θ называется функция

^ θ (Zn)

случайной выборки Zn, реализация

^ θ (zn)

которой принимается за приближенное значение θ.

2 Оценка

^ θ (Zn)

параметра θ называется несмещенной, если ее МО при любом n равно θ, т.е.

M[ ^ θ (Zn)] = θ.

3 Оценка

^ θ (Zn)

называется состоятельной, если она сходится по вероятности к θ, т.е.

^ θ (Zn) P θ при n → ∞.

Свойствами состоятельности и несмещенности могут обладать сразу несколько оценок неизвестного параметра θ.

Несмещенная оценка

^ θ *(Zn)

параметра θ называется эффективной, если

D[ ^ θ *(Zn)] ≤ D[ ^ θ (Zn)]

для всех несмещенных оценок

^ θ (Zn),

т.е. ее дисперсия минимальна по сравнению с дисперсиями других несмещенных оценок при одном и том же объеме n выборки Zn.

θ 1 Δ = mX, θ 2 Δ = σX.

Замечание 2. Пусть СВ X имеет нормальное распределение N (mX, σX) с неизвестными параметрами

В этом случае выборочное среднее является эффективной оценкой МО.

 

zn Δ = col(x 1, x 2,..., xn):

2. Метод максимального правдоподобия На практике часто удается предсказать вид плотности распределения fX (x, θ 1,..., θs) непрерывной СВ X с точностью до неизвестных параметров θ 1,..., θs (например θ 1 = mX, θ 2 = dX при s = 2), которые требуется оценить по выборке Zn. Рассмотрим выборку Zn, соответствующую плотности fX (x, θ 1,..., θs) СВ X. Функцией правдоподобия называется плотность распределения n-мерной СВ Zn с реализацией

 

L (zn, θ 1,..., θs) Δ = fZ n (zn, θ 1,..., θs) Л13.Р1.О1 = n k =1 fX (xk, θ 1,..., θs).

Оценкой максимального правдоподобия (ММП-оценкой), найденной по методу максимального правдоподобия, называется оценка

^ θ (Zn),

максимизирующая для каждой реализации zn функцию правдоподобия:

^ θ (Zn) = arg max θ L (zn, θ), θ Δ = col(θ 1,..., θs).

Аналогично определяется ММП-оценка θ при неоднородной выборке

Zn Δ = col(X 1,..., Xn),

когда СВ Xk, к = 1, n, по-прежнему независимы, но имеют различные плотности распределения fXk (xk, θ 1,..., θs), зависящие от одного и того же набора неизвестных параметров θ 1,..., θs.

 

 

3. Метод наименьших квадратовРассмотрим линейную регрессионную модель из предыдущего раздела, не предполагая, что ошибки Wk имеют нормальное распределение, и, кроме того, считая, что коэффициенты Xk случайны:

Yk Δ = aXk + b + Wk,

k = 1, n. Пусть M [ Wk ] = 0, D [ Wk ] = σ 2 и неизвестна, СВ Wk, k = 1, n, независимы. Предположим, что СВ Xk и Wk, k = 1, n, независимы, причем Xk имеют одно и то же, но неизвестное распределение FX (x). По результатам наблюдений (y 1, x 1),...,(yn, xn) требуется оценить неизвестные параметры a и b в линейной регрессионной модели. Для неоднородной выборки

zn Δ = col(y 1,..., yn, x 1,..., xn)

рассмотрим квадратическую функцию:

Q (zn, a, b) = n n k =1 (yk - axk - b)2,

характеризующую среднюю по n квадратическую ошибку предсказания того, что в n наблюдениях СВ Y примет значения yk, k = 1, n.

МНК-оценками, полученными по методу наименьших квадратов неизвестных параметров a и b в линейной регрессионной модели

Yk Δ = aXk + b + Wk,

k = 1, n, называются оценки

^ a (Zn) и ^ b (Zn),

значения которых минимизируют квадратическую функцию Q (zn, a, b), построенную по апостериорной выборке zn.

случае видно, что функция Q (zn, a, b) совпадает по форме с точностью до коэффициентов с логарифмической функцией правдоподобия из примера Л15.Р2.П1:

Q (zn, a, b) = -2 σ 2 ~ L (zn, a, b) -2 σ 2 n ln(σ √2 π).

Поэтому минимум функции Q (zn, a, b) по параметрам a и b достигается при тех же значениях

^ a и ^ b,

что и в методе максимального правдоподобия (минимизация функции Q (zn, a, b) по a и b эквивалентна максимизации функции

~ L (zn, a, b))
^ MX

Найденные по методу наименьших квадратов оценки

^ a (zn) и ^ b (zn)

неизвестных параметров a и b имеют место для произвольных случайных ошибок Wk и случайных коэффициентов Xk, тогда как по методу максимального правдоподобия эти же оценки получены в предположении о нормальности Wk и для детерминированных значений xk, k =1, n. Иными словами, МНК-оценки оказываются более робастными (т.е. менее чувствительными к априорной информации о случайных коэффициентах Xk и ошибках Wk) по сравнению с ММП-оценками.

19 Статистическая проверка гипотез Статистическими гипотезами называются любые предположения относительно закона распределения СВ X, проверяемые по выборке Zn. По выборке Zn требуется проверить гипотезу H 0 о том, что mX = m, где m - некоторое фиксированное число. Статистикой называется произвольная функция Z = φ (Zn) выборки Zn, для значений которой известны условные плотности распределения f (z | H 0) и f (z | H 1) относительно проверяемой гипотезы H 0 и конкурирующей с ней альтернативной гипотезы H 1.Из опред следует, что Z есть СВ. Практическое применение математической статистики состоит в проверке соответствия результатов экспериментов предполагаемой гипотезе. С этой целью строится процедура (правило) проверки гипотезы. Критерием согласия называется правило, в соответствии с которым по реализации

z Δ = φ (zn)

статистики Z, вычисленной на основании апостериорной выборки zn, гипотеза H 0 принимается или отвергается. Критической областью G называется область реализаций z статистики Z, при которых гипотеза H 0 отвергается. Доверительной областью G называется область значений z статистики Z, при которых гипотеза H 0 принимается. Уровнем значимости p критерия согласия называется вероятность события, стоящего в том, что гипотеза H 0 отвергается, когда она верна, т.е.

p Δ = P{ Z  G | H 0},

где вероятность P соответствует условной плотности распределения f (z | H 0). Мощностью γ критерия согласия называется вероятность события, состоящего в том, что гипотеза H 0 отвергается, когда она неверна, т.е.

γ Δ = P{ Z  G | H 1},

где вероятность P соответствует условной плотности f (z | H 1). Критической точкой zβ называется точка на оси Oz, являющаяся квантилью уровня

β Δ = 1 - p

распределения F (z | H 0), соответствующего плотности распределения f (z | H 0). На рис.1 показана графическая интерпретация введенных понятий, где β + p = 1, δ + γ = 1.


В качестве критерия согласия примем правило:
1) если значение

z Δ = φ (zn)

статистики Z = φ (Zn) лежит в критической области G, то гипотеза H 0 отвергается и принимается альтернативная гипотеза H 1; 2) если реализация

z Δ = φ (zn)

статистики Z = φ (Zn) лежит в доверительной области G, то гипотеза H 0 принимается.
При реализации данного правила могут возникнуть ошибки двух видов. Ошибкой 1-го рода называется событие, состоящее в том, что гипотеза H 0 отвергается, когда она верна. Вероятность этой ошибки равна

p Δ = P{ Z  G | H 0}.

Ошибкой 2-го рода называется событие, состоящее в том, что гипотеза H 0 принимается, когда она неверна. Вероятность этой ошибки равна

δ Δ = P{ Z  G | H 1} = 1 - γ.

Из рисунка видно, что с уменьшением вероятности p ошибки 1-го рода возрастает вероятность ошибки 2-го рода и наоборот, т.е. при выборе критической и доверительной областей должен достигаться определенный компромисс.

 

 

Проверка гипотезы о значении параметров нормального распределения Замечание 1. Пусть известно, что СВ X имеет нормальное распределение. Требуется проверить гипотезу H 0, состоящую в том, что mX = m (m - некоторое фиксированное число), используя апостериорную выборку zn. Возможны два случая: дисперсия (σX)2 известна или неизвестна.

Предполо- жение Статистика Z критерия согласия Распре- деление Доверительная область G принятия гипотезы Н 0
σX известно ^ (MX - m)√ n σX N(0,1) [- uα, uα ]
σX неизвестно ^ (MX - m)√ n -1 ^ DX S(n -1) [- tα (n - 1), tα (n - 1)]

Для каждого случая в соответствии с примерами Л15.Р4.П1 и Л15.Р4.П2 получаем свой критерий согласия. (ниже uα, tα (n - 1) - квантили уровня

α Δ = 1 - p / 2

распределений N (0,1) и S (n -1) соответственно). Пусть СВ X нормально распределена, но ее дисперсия неизвестна. Требуется проверить гипотезу H 0, что σX = σ (σ - некоторое фиксированное число), на основе апостериорной выборки zn. Возможны два случая: mX - известно или mX - неизвестно (ниже χα (k), χ 1- α (k) - квантили уровня α и 1- α распределения Χ2 (k) с k степенями свободы,

α Δ = 1 - p / 2 для k = n, n -1):

 

Предпо- ложение Статистика Z критерия согласия Распре- деление Доверительная область G принятия гипотезы Н 0
mX известно n ∑(Xk - mX)2 k =1 σ2 Χ2(n) [- χ 1- α (n), χα (n)]
mX неизвестно ^ nDX σ 2 Χ2(n-1) [- χ 1- α (n -1), χα (n -1)]

На практике обычно задают p [0.01, 0.05].

Проверка гипотезы о законе распределения случайной величины Замечание 1. Пусть имеется апостериорная выборка zn и требуется проверить гипотезу H 0, состоящую в том, что непрерывная СВ X имеет определенный закон распределения f (x) (например, нормальный, равномерный и т.д.). Истинный закон распределения f (x) неизвестен. Для проверки такой гипотезы обычно используют критерий согласия хи-квадрат (критерий Пирсона). Правило проверки состоит в следующем:
1. Формулируется гипотеза H0, состоящая в том, что СВ X имеет плотность распределения определенного вида f (x, θ 1,..., θs) с s неизвестными параметрами θ 1,..., θs (например, m и σ для нормального распределения, a и b - для равномерного и т.д.)
2. По апостериорной выборке zn методом максимального правдоподобия (или методом наименьших квадратов) находятся оценки

^ θ 1,..., ^ θs

неизвестных параметров θ 1,..., θs
3. Действительная ось R 1 разбивается на j + 1 непересекающихся полуинтервалов Δ0,..., Δ j так, как это сделано в Л13.Р2.31 при построении гистограммы. Подсчитывается число nk элементов выборки, попавших в каждый полуинтервал Δ k, k = 1, j -1, кроме Δ0 и Δ j.
4. Вычисляются вероятности pk попадания СВ X в полуинтервалы Δ k, k = 0, j, по формуле

pk = αk +1αk f (x, ^ θ 1,...., ^ θs) d x,

где α 0 = -∞, αj +1 = +∞. Для разрядов Δ k, k = 1, j -1 значения pk можно вычислить приближенно по формуле

pk  f (xk, ^ θ 1,...., ^ θs)(αk +1- αk),

где

xk Δ = (αk +1 + αk) / 2

- середина разряда Δ k.
5. Вычисляется реализация статистики критерия хи-квадрат по формуле

z Δ = φ (zn) Δ = np 0 + j -1 k =1 (nk-npk)2 / (npk) + (npj).


6. В соответствии с критерием согласия хи-квадрат гипотеза H 0 принимается (т.е. она согласуется с выборкой zn), если φ (zn) ≤ χ 1- p (j-s), где χ 1- p (j-s) - квантиль уровня 1- p распределения хи-квадрат с (j-s) степенью свободы, p - заданный уровень значимости (обычно p = 0.05), s - количество неизвестных параметров предполагаемого закона распределения f (x, θ 1,..., θs). Если же φ (zn) > χ 1 -p (j-s), то гипотеза H 0 отвергается. При разбиении на полуинтервалы Δ k, необходимо учитывать, чтобы npk ≥ 5 для k = 1, j -1. В противном случае (npk < 5) соседние полуинтервалы объединяются.


Поделиться с друзьями:

Кормораздатчик мобильный электрифицированный: схема и процесс работы устройства...

Особенности сооружения опор в сложных условиях: Сооружение ВЛ в районах с суровыми климатическими и тяжелыми геологическими условиями...

Поперечные профили набережных и береговой полосы: На городских территориях берегоукрепление проектируют с учетом технических и экономических требований, но особое значение придают эстетическим...

История развития хранилищ для нефти: Первые склады нефти появились в XVII веке. Они представляли собой землянные ямы-амбара глубиной 4…5 м...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.106 с.