История создания датчика движения: Первый прибор для обнаружения движения был изобретен немецким физиком Генрихом Герцем...
Адаптации растений и животных к жизни в горах: Большое значение для жизни организмов в горах имеют степень расчленения, крутизна и экспозиционные различия склонов...
Топ:
Установка замедленного коксования: Чем выше температура и ниже давление, тем место разрыва углеродной цепи всё больше смещается к её концу и значительно возрастает...
Характеристика АТП и сварочно-жестяницкого участка: Транспорт в настоящее время является одной из важнейших отраслей народного хозяйства...
Эволюция кровеносной системы позвоночных животных: Биологическая эволюция – необратимый процесс исторического развития живой природы...
Интересное:
Уполаживание и террасирование склонов: Если глубина оврага более 5 м необходимо устройство берм. Варианты использования оврагов для градостроительных целей...
Подходы к решению темы фильма: Существует три основных типа исторического фильма, имеющих между собой много общего...
Как мы говорим и как мы слушаем: общение можно сравнить с огромным зонтиком, под которым скрыто все...
Дисциплины:
2018-01-13 | 229 |
5.00
из
|
Заказать работу |
|
|
Коэффициенты детерминации определяются по формулам:
;
,
где – одномерные плотности вероятности;
; ;
, – условные математические ожидания;
, – условные дисперсии.
Часто =σ2= const, тогда =1– .
Можно показать, что 0 ρ 2 η2 1, где ρ – коэффициент корреляции. Равенство η2=ρ 2имеет место лишь при линейных функциях , .
Корреляционным отношением называют корень квадратный из коэффициента детерминации, взятый со знаком плюс, т.е. – величину η= .
Двумерное нормальное распределение.
Плотность вероятности:
,
где
В общем случае график f(x,y) имеет вид сплюснутого с боков колокола, в сечениях которого – эллипсы: . При главные оси эллипсов параллельны осям координат. Если и , то сечениями являются окружности.
Пользуясь формулами в п.2.4.5 и п.2.4.6, можно определить, что коэффициент корреляции.
Если , то, подставляя этот ноль в формулу для двумерной плотности распределения, получим: , т. е. для нормального распределения из некоррелированности случайных величин следует их независимость.
Условную плотность распределения нетрудно получить, используя формулы для одномерного и двумерного нормального распределений:
,
где условное математическое ожидание и условная дисперсия:
т. е. уравнение регрессии является линейной функцией, а
Аналогично можно определить условную плотность распределения .
Второе уравнение регрессии:
Оба уравнения регрессии можно записать иначе:
Уравнения этих прямых проходят через точку и совпадают только при детерминированной зависимости между X и Y, т.е. при .
2.4.8. Показатели статистической зависимости СВ.
Общий случай
Пусть имеется система, состоящая из k случайных величин: . Пусть известна функция распределения или плотность распределения . На практике большое распространение получило нормальное распределение, плотность которого имеет вид:
|
f (x1,x2,…,xk) = ,
где (х-а) и (х-а)′ – вектор-столбец, соответственно, вектор-строка переменных, состоящие из элементов хi-a (i=1,2,…,k);
B-1 – матрица, обратная ковариационной матрице B= (Кij) ≡ (cov(Xi,Xj));
ΔB– определитель матрицы B.
В частности, при k =2 имеем:
B= ; B-1= ; ΔB= ;
(х-а)′ B-1 (х-а) =
Подставляя полученные выражения в формулу для f (x1,x2,…,xk) при k= 2, получим выражение для двумерной плотности вероятности нормально распределенной случайной величины, приведенное ранее.
При k≥ 3, по аналогии с тем, как одномерные распределения выражаются через двумерные, можно получить двумерные распределения для каждой пары Xi, Xj (i ≠ j): для НСВ – плотности , для ДСВ – матрицы () вероятностей произведения событий: . Определяя для каждой пары ковариации и коэффициенты корреляции, получим ковариационную матрицу (Кij), по главной диагонали которой будут стоять дисперсии, и корреляционную матрицу , по главной диагонали которой будут стоять единицы, причем Кij = Кji и = .
Функция распределения зависит от условий проведения испытаний или наблюдений. Значит, от этих условий зависят и . Пусть, например, испытания будут проведены теперь при некоторых фиксированных значениях всех случайных величин, кроме X1 и X2. Если при этом уменьшится, то можно сделать вывод, что взаимозависимость между X1 и X2 во многом (или даже в значительной степени) была вызвана действием других (ныне фиксированных) факторов. И наоборот, если увеличится, то это будет означать, что другие факторы маскировали истинную взаимозависимость между X1 и X2. Поэтому, наряду с (их называют коэффициентами парной корреляции) используют и другие показатели статистической зависимости: множественные коэффициенты корреляции и частные коэффициенты корреляции.
|
|
История создания датчика движения: Первый прибор для обнаружения движения был изобретен немецким физиком Генрихом Герцем...
Наброски и зарисовки растений, плодов, цветов: Освоить конструктивное построение структуры дерева через зарисовки отдельных деревьев, группы деревьев...
Своеобразие русской архитектуры: Основной материал – дерево – быстрота постройки, но недолговечность и необходимость деления...
Состав сооружений: решетки и песколовки: Решетки – это первое устройство в схеме очистных сооружений. Они представляют...
© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!