Чему равен коэффициент корреляции двух независимых случайных величин

Корреляция случайных величин

Определение:
Среднеквадратичным отклонением (англ. standart deviation) [math]\sigma_<\eta>[/math] называется величина, равная квадратному корню из дисперсии случайной величины [math]\eta[/math] [math]\sigma_<\eta>=\sqrt[/math]

Содержание

Вычисление [ править ]

Заметим, что [math]\sigma_ <\xi>= \sqrt = E\big((\xi-E(\xi))^2\big)[/math] — среднеквадратичное отклонение.

Корреляция и взаимосвязь величин [ править ]

Значительная корреляция между случайными величинами всегда означает, что присутствует некая взаимосвязь между значениями конкретной выборки, но при другой выборке связь вполне может отсутствовать. Поэтому при нахождении взаимосвязи не нужно делать поспешных выводов о причинно-следственном характере величин, а следует рассмотреть наиболее полную выборку, чтобы делать какие-либо выводы. Коэффициенты корреляции устанавливают лишь статистические взаимосвязи, но не более того.

Свойства корреляции [ править ]

Но обратное неверно:

Примеры [ править ]

В общем смысле корреляция — это зависимость между случайными величинами, когда изменение одной влечет изменение распределения другой.

Определение корреляции по диаграмме [ править ]

%D0%9F%D1%80%D0%B8%D0%BC%D0%B5%D1%80 %D0%B3%D1%80%D0%B0%D1%84%D0%B8%D0%BA%D0%BE%D0%B2 %D0%BA%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D0%B8

Определение корреляции по таблице [ править ]

Рассмотрим [math]2[/math] случайные величины: курс акций нефтедобывающей компании ( [math]X[/math] ) и цены на нефть ( [math]Y[/math] ).

X [math]2003,6[/math] [math]2013,2[/math] [math]2007,6[/math] [math]2007,4[/math] [math]2039,9[/math] [math]2025[/math] [math]2007[/math] [math]2017[/math] [math]2015,6[/math] [math]2011[/math]
Y [math]108,4[/math] [math]107,96[/math] [math]108,88[/math] [math]110,44[/math] [math]110,2[/math] [math]108,97[/math] [math]109,15[/math] [math]108,8[/math] [math]111,2[/math] [math]110,23[/math]

Для упрощения вычислений определим [math]X[/math] и [math]Y[/math] как равновероятные случайные величины. Тогда их математическое ожидание и дисперсию легко посчитать:

Источник

Лекция 12. Корреляция. Условные законы распределения

Сайт: Навчальний сайт ХНАДУ
Курс: Теорія ймовірностей та математична статистика (2Е)
Книга: Лекция 12. Корреляция. Условные законы распределения

Зміст

Корреляционный момент

Пусть Х и Y – дискретные случайные величины (СВ) с математическими ожиданиями M(X) и M(Y), причем Х принимает значения x1, …, xk, а Y – значения y1, …, ym. Пусть pij = Pi, Y = yj> (i = 1, …, k; j = 1, …, m).

Определение. Корреляционным моментом дискретных СВ Х и У называется число

image020

Корреляционный момент MXY характеризует связь между величинами Х и У. Если Х и У – независимые величины, то корреляционный момент MXY равен нулю. Если же MXY ≠ 0, то величины Х и У зависимы.

Коэффициент корреляции и его свойства

Определение. Коэффициентом корреляции rxy случайных величин Х и У называется число

image014

где MXY – корреляционный момент величин Х и У; D(X), D(Y) – их дисперсии.

Коэффициент корреляции, как и корреляционный момент, характеризует связь между величинами Х и У. Но, в отличие от последнего, он есть безразмерная величина (число), поэтому он имеет преимущество в том, что не зависит от единиц измерения.

Коэффициент корреляции двух независимых случайных величин равен нулю.

Условные законы распределения дискретной двумерной случайной величины

Пусть Х и Y – дискретные случайные величины (СВ), причем Х принимает значения x1, …, xk, а Y – значения y1, …, ym. Пусть pij = Pi, Y = yj> (i = 1, …, k; j = 1, …, m). Условные законы распределения двумерной случайной величины задают распределение одной из СВ (Х или Y) при условии, что другая приняла данное значение. Точнее, при условии Y = yj получаем условный закон распределения

image034

а при условии X = xi – условный закон распределения

image036

Пример. Дан закон распределения двумерной случайной величины:

image038

image040 image042 image044

image046 image048

Условные числовые характеристики случайных величин

Эти условные характеристики (математическое ожидание, дисперсия и т. д.) отличаются от соответствующих безусловных только тем, что в их определении подставляется условная вероятность вместо безусловной. Например, определение условного математического ожидания следующее.

Определение. Условным математическим ожиданием дискретной случайной величины Y при X = x (х – определенное возможное значение Х) называется произведение всех возможных значений Y на их условные вероятности:

image014

Условное математическое ожидание M(Y/X = x) является функцией от х.

Пример. Найти условное математическое ожидание составляющей Y при X = x1 = 1 для дискретной двумерной случайной величины, заданной таблицей:

image016

image018

Аналогично определяются условная дисперсия и условные моменты системы случайных величин.

Источник

Ковариация

которая может быть получена из первой формулы, используя свойства математического ожидания. Перечислим основные свойства ковариации.

1. Ковариация случайной величины с самой собой есть ее дисперсия.

2. Ковариация симметрична.

$$cov\left(X,\ Y\right)=cov\left(Y,\ X\right).$$

4. Постоянный множитель можно выносить за знак ковариации.

$$cov\left(cX,\ Y\right)=cov\left(X,\ cY\right)=c\cdot cov\left(X,\ Y\right).$$

5. Ковариация не изменится, если к одной из случайных величин (или двум сразу) прибавить постоянную величину:

$$cov\left(X+c,\ Y\right)=cov\left(X,\ Y+c\right)=cov\left(X+x,\ Y+c\right)=cov\left(X,\ Y\right).$$

9. Дисперсия суммы (разности) случайных величин равна сумме их дисперсий плюс (минус) удвоенная ковариация этих случайных величин:

$$D\left(X\pm Y\right)=D\left(X\right)+D\left(Y\right)\pm 2cov\left(X,\ Y\right).$$

$$M\left(X\right)=\sum^n_=-2\cdot 0,3+0\cdot 0,25+1\cdot 0,25+7\cdot 0,2=1,05.$$

$$M\left(Y\right)=\sum^n_=-6\cdot 0,25+0\cdot 0,4+3\cdot 0,35=-0,45.$$

$$M\left(XY\right)=\sum_x_iy_j>=0,1\cdot \left(-2\right)\cdot \left(-6\right)+0,2\cdot \left(-2\right)\cdot 3+0,05\cdot 1\cdot 3+0,1\cdot 7\cdot \left(-6\right)+0,1\cdot 7\cdot 3=-1,95.$$

Корреляция

Перечислим основные свойства коэффициента корреляции.

При копировании материала с сайта, обратная ссылка обязательна!

Источник

2.5. Корреляция случайных величин

Прямое токование термина Корреляция — стохастическая, вероятная, возможная Связь между двумя (парная) или несколькими (множественная) случайными величинами.

Выше говорилось о том, что если для двух СВ (X И Y) имеет место равенство P(XY) =P(X) image008P(Y), то величины X И Y считаются независимыми. Ну, а если это не так!?

Ведь всегда важен вопрос — а Как сильно зависит одна СВ от другой? И дело в не присущем людям стремлении анализировать что-либо обязательно в числовом измерении. Уже понятно, что системный анализ означает непрерывные выЧИСЛЕния, что использование компьютера вынуждает нас работать с числами, а не понятиями.

Для числовой оценки возможной связи между двумя случайными величинами: Y(со средним My И среднеквадратичным отклонением Sy) и — X (со средним Mx и среднеквадратичным отклонением Sx) принято использовать так называемый Коэффициент корреляции

Rxy= image012.

Если коэффициент корреляции равен нулю, то X и Y называют Некоррелированными. Считать их независимыми обычно нет оснований — оказывается, что существуют такие, как правило — нелинейные связи величин, при которых Rxy = 0, хотя величины зависят друг от друга. Обратное всегда верно — если величины Независимы, то Rxy = 0. Но, если модуль Rxy = 1, то есть все основания предполагать наличие Линейной связи между Y и X. Именно поэтому часто говорят о Линейной корреляции при использовании такого способа оценки связи между СВ.

Отметим еще один способ оценки корреляционной связи двух случайных величин — если просуммировать произведения отклонений каждой из них от своего среднего значения, то полученную величину —

Или Ковариацию величин X и Y Отличает от коэффициента корреляции два показателя: Во-первых, Усреднение (деление на число наблюдений или пар X, Y) и, во-вторых, Нормирование путем деления на соответствующие среднеквадратичные отклонения.

Такая оценка связей между случайными величинами в сложной системе является одним из начальных этапов системного анализа, поэтому уже здесь во всей остроте встает вопрос о доверии к выводу о наличии или отсутствии связей между двумя СВ.

В современных методах системного анализа обычно поступают так. По найденному значению R вычисляют вспомогательную величину:

И вопрос о доверии к коэффициенту корреляции сводят к доверительным интервалам для случайной величины W, которые определяются стандартными таблицами или формулами.

В отдельных случаях системного анализа приходится решать вопрос о связях нескольких (более 2) случайных величин или вопрос о Множественной корреляции.

Rxy. z = image013

И, наконец, можно поставить вопрос — а какова связь между данной СВ и совокупностью остальных? Ответ на такие вопросы дают коэффициенты Множественной Корреляции Rx. yz, Ry. zx, Rz. xy, формулы для вычисления которых построены по тем же принципам — учету связи одной из величин со всеми остальными в совокупности.

Достаточно понять главное — если при формальном описании элемента сложной системы, совокупности таких элементов в виде подсистемы или, наконец, системы в целом, мы рассматриваем Связи между отдельными ее частями, — то степень тесноты этой связи в виде влияния одной СВ на другую можно и нужно оценивать на уровне корреляции.

В заключение заметим еще одно — во всех случаях системного анализа на корреляционном уровне обе случайные величины при парной корреляции или все при множественной считаются «равноправными» — т. е. речь идет о взаимном влиянии СВ друг на друга.

Источник

Коэффициент корреляции случайных величин

dark fb.4725bc4eebdb65ca23e89e212ea8a0ea dark vk.71a586ff1b2903f7f61b0a284beb079f dark twitter.51e15b08a51bdf794f88684782916cc0 dark odnoklas.810a90026299a2be30475bf15c20af5b

caret left.c509a6ae019403bf80f96bff00cd87cd

caret right.6696d877b5de329b9afe170140b9f935

Определение. Коэффициентом корреляции между случайными величинами x и h называется число

image135

Отметим, что E(xЕx)(hЕh) = cou(x,h)— называется ковариацией случайных величин x и h. Она характеризует меру линейной связи между случайными величинами.

Если cou(x,h) = 0, то говорят, что случайные величины x и h некоррелируемые.

Рассмотримсвойствакоэффициента корреляции.

image137

Это свойство следует непосредственно из определения, поскольку

image139

image143

Следует из свойства 1, поскольку для независимых случайных величин x и h справедливо E(x × h) = Ex × Eh

Замечание 1. Обратное не верно!

image146

Докажем сначала достаточность. Пусть P(x = ah + b) = 1, тогда

image148

Докажем теперь необходимость. При доказательстве свойства 3 нами было получено следующее равенство

image152

По свойству 2 дисперсии получаем, что

посколькуD(x1h1) = 0. Отсюда P(x = ah + b) = 1, где

image154

По свойству 2 дисперсии получаем, что

image158

image160

поскольку D(x1 + h1) = 0. Отсюда, P(x = ah + b) = 1, где

Замечание 2. Чем сильнее связь между случайными величинами, тем больше и величина коэффициента корреляции. При image141(x, h) ¹ 0 этот показатель характеризует не только наличие связи между x и h, но и её степень. При положительной (или прямой) связи, когда большим значениям одной случайной величины соответствуют большие значения другой, коэффициент корреляции больше нуля. А при отрицательной (или обратной) связи, когда большим значениям одной случайной величины соответствуют меньшие значения другой, коэффициент корреляции меньше нуля. Недостатком image141(x, h) является то, что он характеризует только линейные связи. При наличии нелинейной связи следует использовать другие показатели связи.

image162

Пример 2. Изготавливаемые в цехе втулки сортируются по отклонению их внутреннего диаметра от номинального размера на четыре группы со значениями 0,01; 0,02; 0,03; 0,04 мм, по овальности на четыре группы со значениями 0,002; 0,004; 0,006; 0,008 мм. Совместное распределение отклонений диаметра (x) и овальности (h) втулок задано таблицей:

Вычислим коэффициент корреляции между x и h.

Найдем сначала частные распределения случайных величин x и h. Согласно 2.4.2, например,

Р(x = 0, 01) = 0, 01 + 0, 03 + 0, 04 + 0, 02 = 0,10

и т.д. (остальные вычисления проведите самостоятельно) получим следующую таблицу распределения случайной величины x :

image165

также таблицу распределения случайной величины h:

Теперь вычислим математические ожидания и дисперсии случайных величин x и h:

image167

Остается вычислить величину Е(x × h):

Е(x × h) = 0,01 × 0,002 × 0,01 + 0,04 × 0,008 × 0,02 = 0,0001274.

Источник

Комфорт
Adblock
detector