|
|||||||||||||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Статистический анализ связей
В жизни все явления взаимосвязаны. Обычно нас интересуют непосредственные факторы, измерение их воздействия на результат, а также ранжирование факторов по интенсивности их влияния. Особенность связей в экономике и социальной сфере состоит в том, что их закономерный характер проявляется лишь в массе явлений - в среднем по совокупности. Такого рода связи называют статистическими. Они проявляются в том, что при изменении значения фактора изменяется распределение результативного признака. Изменяются и условные средние значения результата (таблица 1.9). Таблица 1.9 - Проявление статистической и корреляционной связи
При статистической связи разным значениям одной переменной (фактора, х) соответствуют разные распределения другой переменной (результата, у). Корреляционная связь - частный случай статистической связи, при котором разным значениям переменной соответствуют разные средние значения другой переменной. Корреляционная связь предполагает, что изучаемые переменные имеют количественное выражение. Статистическая связь - более широкое понятие, она не включает ограничений на уровень измерения переменных. Переменные, связь между которыми изучается, могут быть как количественными, так и неколичественными. Если изучается связь между двумя признаками, налицо парная корреляция. Если изучается связь между многими признаками - множественная корреляция. Парная корреляция - это изучение корреляционной связи между двумя переменными. Прежде всего, чтобы проверить, как проявляется связь между двумя переменными, нужно построить график-поле корреляции. Поле корреляции - это поле точек, на котором каждая точка соответствует единице совокупности; ее координаты определяются значениями признаков х и у. По характеру расположения точек на поле корреляции делают вывод о наличии или отсутствии связи, о характере связи (линейная или нелинейная, а если связь линейная-то прямая или обратная). В случае если точки корреляционного поля обнаруживают определенную направленность в своем расположении, можно говорить о наличии связи. При этом корреляционное поле можно оконтурить эллипсом (корреляционный эллипс). Важнейшей задачей является определение формы связи с последующим расчетом параметров уравнения, или, иначе, нахождение уравнения связи (уравнения регрессии). Если изучается связь между двумя переменными, причем их можно рассматривать как фактор и результат, т.е. вероятно наличие зависимости, то эту зависимость целесообразно представить в математическом виде. С этой целью подбирают функцию у =f(х), которая наилучшим образом соответствует исходным данным, иначе говоря, обеспечивает наилучшую аппроксимацию поля корреляции. При выборе типа функции руководствуются характером расположения точек на поле корреляции, а также содержанием изучаемой связи. Так, например, при изучении зависимости себестоимости единицы продукции (у) от объема производства (х) теоретический анализ показывает, что такая зависимость должна описываться уравнением гиперболы: , поскольку при увеличении объема производства себестоимость снижается до определенного предела, по достижении которого ее дальнейшего снижения не происходит. Математически описание зависимости в среднем изменений переменной у от переменной х называется уравнением парной регрессии. Чаще всего используется линейное уравнение парной регрессии: , (1.46) где - среднее значение результативного признака при определенном значении факторного признака х; а - свободный член уравнения регрессии; b - коэффициент регрессии, который показывает, на сколько единиц в среднем изменится результативный признак при изменении факторного признака на одну единицу его измерения. При такой интерпретации коэффициента регрессии предполагается, что сила воздействия х на у постоянна при любых значениях х. Знак при коэффициенте регрессии соответствует направлению зависимости у от х: b>0 - зависимость прямая; b < 0 - зависимость обратная. Если в исходных данных имеется нулевое значение х, то свободный член а показывает среднее значение у при х=0. Во всех остальных случаях а - доводка, обеспечивающая равенство: . (1.46) В этом случае значение а не интерпретируется. Знак при свободном члене а зависит от соотношения между интенсивностью вариации (ν) переменных х и у: если ν у > ν х, то а < 0; если ν у< ν х, то а > 0, где а и b-параметры уравнения парной регрессии. Если необходимо отразить нелинейность зависимости у от х, то могут быть использованы следующие уравнения регрессии: , (1.47) , (1.48) , (1.49) и т.д. (1.50) Выбираемые функции должны быть линейны по параметрам. Перечисленные регрессии приводятся к линейному виду (линеаризуются) путем замены переменных или логарифмирования. Параметры линейного уравнения парной регрессии находятся методом наименьших квадратов (МНК). Исходное условие МНК формулируется следующим образом: , (1.51) т.е. должна быть обеспечена минимальность суммы квадратов отклонений фактических, значений результативной переменной от ее теоретических значений, получаемых на основе уравнения регрессии. Для отыскания значений параметров а и b, при которых f(а,b) принимает минимальное значение, приравниваем нулю первые частные производные функции: , (1.52) (1.53) Преобразуя полученные уравнения, получаем систему нормальных уравнений МНК для прямой: (1.54) Отсюда: , (1.55) где Δ - определитель системы; Δa - частный определитель, получаемый путем замены коэффициентов при а членами правой части системы уравнений; Δb - частный определитель, получаемый путем замены коэффициентов при b членами правой части системы уравнений. . (1.56) Тогда ; (1.57) . (1.58) Можно найти параметр а, разделив на n первое уравнение системы: , (1.59) отсюда . (1.60) Параметр b может быть выражен следующим образом: . (1.61) Так как знаменатель этого выражения есть не что иное, как дисперсия переменной х, формула коэффициента регрессии b может быть записана следующим образом: . (1.62) Для определения степени тесноты парной линейной зависимости служит линейный коэффициент корреляции r, для расчета которого можно использовать, например, две следующие формулы: Отклонения от средних по одной и другой переменным лежат в основе измерения корреляционной связи. В случае линейной связи ее теснота измеряется с помощью коэффициента парной корреляции: . (1.63) Если знаки отклонений от средних совпадают, то связь прямая (rxy > 0), если знаки отклонений не совпадают, то связь обратная (rxy < 0). Разделив числитель и знаменатель на n (число наблюдений), получим: (1.64) или . (1.65) Коэффициент парной корреляции измеряется от -1 (случай полной обратной связи) до 1 (случай полной прямой связи). По абсолютной величине: 0≤|rxy|≤1. Чем ближе значение rху к единице, тем теснее связь, чем ближе значение rху к нулю, тем слабее связь. При |rxy|<0,30 связь считается слабой, при |rxy| = 0,3 - 0,7 - средней, при |rxy|>0,7-сильной, или тесной. Коэффициент корреляции - симметричная мера связи, т.е. это мера взаимосвязи между х и у. Поэтому rху = rух. Квадрат коэффициента корреляции представляет собой коэффициент детерминации: Коэффициент детерминации = r2. Коэффициент детерминации часто более предпочтителен для измерения связи, так как он может быть использован для измерения не только линейных, но и нелинейных связей. Коэффициент детерминации может быть выражен в процентах. Коэффициент детерминации принимает значения в интервале [0, 1]. Чем ближе значение к 1, тем теснее связь, и наоборот. Коэффициент регрессии можно найти на основе коэффициента корреляции. Поскольку , , (1.66) то . (1.67) В отличие от коэффициента корреляции коэффициент регрессии является асимметричной характеристикой связи: он характеризует не просто связь между переменными, а зависимость изменения у от х, но не наоборот, т.е. bух ≠ bху. Коэффициент детерминации рассчитывается по формуле: . (1.68)
Контрольные вопросы и задания: 1 Как вы понимаете сущность корреляционной связи? В чем ее отличие от функциональной связи? 2 Каковы признаки парной корреляции? 3 Что значит найти уравнение регрессии? 4 Какой вид имеет система нормальных уравнений? 5 С помощью каких коэффициентов можно определить степень тесноты парной линейной зависимости? Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.007 сек.) |