Корреляционный момент и корреляция


Случайных величин

 

Пусть и - две случайные величины. Положим,

= +

По теореме сложения математических ожиданий будем иметь:

М = М + М

Вычитая это равенство из предыдущего, получим:

= +

где обозначает отклонение величины от m , то есть

- m . Отсюда

2 = 2 + 2 + 2

 

Найдем теперь дисперсию величины + :

D( + ) = D = M 2 = M 2 + M 2 + 2M =

= D + D + 2M( ) (1)

Число M( ) имеет особое значение для характеристики системы ( , ). Его называют корреляционным моментом случайных величин ии обозначают через К( , ). Таким образом, по определению

К( , ) = M( ).

 

Формула (1) принимает теперь следующий вид:

 

D( + ) = D( ) + D( ) + 2K( ) (2)

 

- дисперсия суммы равна сумме дисперсий плюс удвоенный корреляционный момент.

Корреляционный момент, как свидетельствует его название, (от латинского слова correlation – соответствие, взаимосвязь), играет определенную роль при оценке зависимости и . Основное свойство корреляционного момента выражается следующим предложением.

Если величины и независимы, то их корреляционный момент равен нулю.

Действительно, пусть и независимы. Тогда,

очевидно, величины и будут тоже независимы. Отсюда вытекает, что математическое ожидание произведения будет: M( ) = M M = = 0.

Из доказанного предложения следует: если К( , ) ≠ 0, то величины и не могут быть независимыми. Таким образом, неравенство нулю корреляционного момента определенно свидетельствует о наличии связи между величинами и .

Предположим, что в некотором опыте наблюдаются две случайные величины и .

То обстоятельство, что и обусловлены одним и тем же опытом, вообще говоря, создает между этими величинами некоторого рода связь: как принято говорить, и скоррелированы (согласованы) друг с другом.

Одной из характеристик корреляции, как мы уже знаем, служит корреляционный момент

K( ) = M( ) = M(( - m ) ( - )),

где m и - математические ожидания величин и соответственно. Заметим, что справедлива формула

K ( , ) = M( ) - m ;

чтобы получить эту формулу, надо записать

( - m )( - ) = - m - + m

и приравнять друг к другу математические ожидания левой и правой частей.

Поскольку если величина и независимы, то их корреляционный момент равен нулю. Поэтому неравенство нулю величины К( , ) свидетельствует о наличии связи между и .

Случайные величины и , для которых корреляционный момент равен нулю, называются некоррелированными. Таким образом, из независимости величин и следует их некоррелированность. Обратное, вообще говоря, неверно: можно привести примеры и , для которых корреляционный момент равен нулю, между тем и связаны между собой (даже функционально).

Приведём пример такого рода. Пусть величина распределена непрерывно, причём плотность вероятности есть чётная функция; величина = 2. Тогда М = 0 и значит

K( , ) = M( ) = M( ) = 3 dx = 0.

Корреляционный момент, как следует из его определения, зависит от выбора единиц измерения для и ; например, если при измерении и в килограммах было получено значение К = 5 кг2, то, приняв за единицу измерения 1 г, получим для корреляционного момента значение К = 5х106 г2. Это обстоятельство затрудняет сравнение корреляционных моментов различных систем случайных величин. Чтобы преодолеть такое затруднение, вводится другая характеристика связи между и - коэффициент корреляции.

Определение. Коэффициентом корреляции случайных величин и называется число

- отношение корреляционного момента к произведению средних квадратичных отклонений величин и .

Очевидно, коэффициент корреляции не зависит от выбора единиц измерения для величин и (иначе говоря, r( , ) есть величина безразмерная). Он не зависит также и от выбора начала отсчета при измерении и .

Имеет место следующая теорема.

Теорема. Коэффициент корреляции всегда заключен между -1 и 1:

-1 r 1

В случае, когда r = 1, величины и связаны линейной зависимостью:

= a + b (a, b = const),

причем a>0; при r = -1 между величинами и имеет место линейная зависимость c a <0.

Доказательство. Рассмотрим математическое ожидание случайной величины

( + t )2,

где = - , = - m , а t – любое действительное число. Имеем:

M( + )2 = M( 2 + 2t + t2 2) = M 2 +2t M( ) + +t2M 2 = D + 2tK( , ) + t2D .

Мы получим равенство вида

M( + )2 = t2 + 2 t + (3)

где = D , = K( , ), = D . Квадратный трехчлен, стоящий в правой части этого равенства, при любом значении t неотрицателен (ибо он равен математическому ожиданию случайной величины, принимающей только неотрицательные значения). Отсюда вытекает, что дискриминант этого трехчлена, т. е. выражение

2 - ,

есть число не положительное. Итак,

К2( , ) – D D 0,

или

 

Мы пришли к неравенству r2 1, означающему, что величина r заключена в промежутке от 1 до -1.

Предположим теперь, что r2 – 1, т. е. r равно -1 или 1.

В этом случае дискриминант указанного выше квадратного трехчлена равен нулю. Отсюда вытекает, что трёхчлен имеет действительный корень, т. е. при некотором действительном значении t = -a выражение t2 + 2 t + равно нулю. Но тогда в силу (3) мы должны иметь:

M( + )2 = 0

а это в свою очередь означает:

- a = 0

или

= a + b.

Обратно, допустим, что между случайными величинами и имеет место такого рода соотношение. Изменив начало отсчёта величины (что не влияет на r), можно добиться, чтобы было b = 0, т. е. = a . В этом случае, как легко проверить, величина r будет равна -1, если a < 0, и 1, если a > 0.

Установленные нами свойства коэффициента корреляции дают основание для некоторого качественного заключения, а именно: близость величины r2 к единице есть признак того, что зависимость между и близка к линейной. Если при этом r > 0, то с возрастанием возрастает в среднем и , тогда говорят о положительной корреляции между величинами и ; если же r < 0, то при возрастании величина в среднем убывает (отрицательная корреляция).

 



Дата добавления: 2021-01-11; просмотров: 381;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.016 сек.