Корреляционно-регрессионный анализ


Корреляционный метод имеет своей задачей количественное оп­ределение тесноты связи между двумя признаками (при парной свя­зи) и между результативным и множеством факторных признаков (при многофакторной связи).

Корреляция - это статистическая зависимость между случайны­ми величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к из­менению математического ожидания другой.

В статистике различаются следующие варианты зависимостей:

· парная корреляция - связь между двумя признаками (результа­тивным и факторным или двумя факторными);

· частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении дру­гих факторных признаков;

· множественная корреляция - зависимость результативного и двух или более факторных признаков, включенных в исследование.

Теснота связи количественно выражается величиной коэффици­ентов корреляции. Коэффициенты корреляции, представляя количе­ственную характеристику тесноты связи между признаками, дают возможность определить «полезность» факторных признаков при по­строении уравнений множественной регрессии. Величина коэффици­ента корреляции служит также оценкой соответствия уравнения рег­рессии выявленным причинно-следственным связям.

Первоначально исследования корреляции проводились в биологии, а позднее распространились и на другие области, в том числе на соци­ально-экономическую. Одновременно с корреляцией начала использо­ваться и регрессия. Корреляция и регрессия тесно связаны между собой: корреляция оценивает силу (тесноту) статистической связи, регрессия исследует ее форму. Та и другая служат для установления соотношения между явлениями, для определения наличия или отсутствия связи.

Корреляционный и регрессионный анализ как общее понятие вклю­чает в себя измерение тесноты, направления связи и установление ана­литического выражения (формы) связи (регрессионный анализ).

Регрессионный метод заключается в определении аналитическо­го выражения связи, в котором изменение одной величины (называе­мой зависимой или результативным признаком) обусловлено влияни­ем одной или нескольких независимых величин (факторов), а множество всех прочих факторов, также оказывающих влияние на зависимую величину, принимается за постоянные и средние значе­ния. Регрессия может быть однофакторной (парной) и многофактор­ной (множественной).

По форме зависимости различают:

линейную регрессию, которая выражается уравнением прямой (линейной функцией) вида:

нелинейную регрессию, которая выражается уравнениями вида:

парабола;

гипербола и т.д.

По направлению связи различают:

· прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются;

· обратную (отрицательную) регрессию, появляющуюся при условии, что с увеличением или уменьшением независимой величины зависимая соответственно уменьшается или увеличивается.

Положительную и отрицательную регрессии можно легче понять, если использовать их графическое изображение.

Для простой (парной) регрессии в условиях, когда достаточно полно установлены причинно-следственные связи, приобретает прак­тический смысл только последнее положение; при множественности причинных связей невозможно четко отграничить одни причинные явления от других.

 



Дата добавления: 2021-03-18; просмотров: 157;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.007 сек.