Полная версия

Главная arrow Социология arrow Методология и методы социологического исследования

  • Увеличить шрифт
  • Уменьшить шрифт


<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>

Меры ассоциации

Констатация существования связи — важный, но отнюдь не достаточный шаг в процессе социального познания. Для эмпирических исследований главный интерес представляет прежде всего измерение силы зависимости между переменными. Например, обнаружено, что имеет место зависимость между уровнем доходов и удовлетворенностью трудом. Однако вопрос о том, является она низкой, средней или высокой, остается открытым. Показатели, измеряющие эти параметры для таблиц сопряженности, называются коэффициентами ассоциации.

При анализе связей между номинальными признаками можно оценить только степень зависимости между ними. Рассчитываемые меры не позволяют оценить направленность анализируемого отношения. В данном случае говорить о положительной или отрицательной зависимости бессмысленно.

Для оценки степени зависимости с помощью какого-либо статистического коэффициента необходимо определить в первую очередь крайние случаи (отсутствие связи и полную зависимость). Отсутствие связи означает, что переменные не зависят друг от друга. Полная зависимость — значения одной переменной полностью определяют вторую переменную. Только в таких случаях можно измерить степень зависимости, оценив имеющееся отклонение от статистической независимости и, соответственно, степень приближения к полной зависимости. Именно эта идея лежит в основе всех попыток построения «идеального» коэффициента ассоциации л)- Исходя из вышесказанного, он должен удовлетворять следующим требованиям:

  • ? коэффициент К изменяется от нуля до единицы (0 ^ дА<1);
  • ? переменные X и У независимы тогда и только тогда, когда КА принимает значение, равное нулю;
  • ? мера ассоциации равна единице тогда и только тогда, когда между переменными существует полная зависимость.

Для определения статистической зависимости и, соответственно, независимости используются различные коэффициенты. При формировании коэффициентов ассоциации между номинальными переменными применяются два подхода. Первый подход строится на х2_статистике, в основе которой лежит классическая статистическая независимость, второй — на принципе пропорциональной редукции ошибок.

В рамках первого подхода исходная таблица сопряженности сравнивается с другой, гипотетической, которую можно сформировать в случае независимости переменных. Таким образом, построенная гипотетическая таблица при условии независимости изучаемых переменных выступает как основа измерения силы связи. Сравнивая эмпирически наблюдаемые частоты с гипотетическими, рассчитанными для случая статистической независимости, можно оценить степень статистической зависимости между переменными X и У.

Как отмечалось, х2'статистика сама по себе недостаточно удачна для измерения связи между двумя переменными. Однако, учитывая широкое использование этого критерия для проверки гипотезы о независимости переменных, на его основе пытаются строить меры ассоциации. В каждой из этих попыток стремятся модифицировать х2_статистикУ таким образом, чтобы, с одной стороны, элиминировать влияние объема выборки и числа степеней свободы, а с другой — нормировать ее таким образом, чтобы значения соответствующих номинальных мер ассоциации изменялись от нуля до единицы. Без этого было бы невозможно сравнение оценок, рассчитанных на основе х2_статистики> Для таблиц разного размера или с разным объемом выборки.

Коэффициенты корреляции, основанные на х2_статистике, несмотря на достаточно частое использование, имеют ряд недостатков. Во-первых, их значение в случае полной зависимости не всегда равно единице. Во- вторых, значения, полученные с учетом этих коэффициентов, трудно интерпретировать, так как они не имеют ясного интуитивного обоснования и являются чисто расчетными конструкциями.

Альтернативой мерам ассоциации, построенным на х2_статистике, выступают коэффициенты, основанные на идее Л. Гудмана и Е. Краскала о «пропорциональной редукции ошибок» (Proportional Reduction in Error MeasuresPRE). В отличие от предыдущих показателей коэффициент PRE предполагает четкое разграничение на зависимые ( Y) и независимые (X) переменные [Татарова, 1999; Толстова, 2000].

Эти меры построены, по существу, по одному и тому же принципу. Они позволяют сравнивать меру ошибки прогноза значения зависимой переменной только на основе информации о ней с той же мерой ошибки ее предсказания, учитывающей дополнительную информацию о независимой переменной. Они отличаются друг от друга лишь процедурами прогнозирования значений зависимой переменной и определения ошибок, которые появляются в результате вычислений.

Пусть через P(Y) и P(Y|X) обозначаются вероятности ошибок при прогнозировании поведения переменной Y с учетом и без учета дополнительной информации о переменной X. Коэффициент PRE рассчитывается следующим образом:

Полученный показатель имеет следующие свойства: во-первых, коэффициент PRE носит четко выраженный асимметричный характер; во-вторых, он принимает значение от 0 до 1; в-третьих, он равен 0, если P(Y) = Р( Y |Х),т.е. использование дополнительной информации никак не сказывается на качестве прогноза, откуда вовсе не следует независимость рассматриваемых переменных; в-четвертых, он равен 1 тогда и только тогда, когда P(Y| X) = 0. Данное соотношение выполняется только в одном случае, когда использование дополнительной информации о переменной X позволяет однозначно определить значение зависимой переменной.

Для каждой таблицы сопряженности чисто формально можно рассчитать два разных коэффициента ассоциации: один использует строковую переменную как независимую, другой — как столбцовую. Обе меры в общем случае имеют разные значения, так что зависимую переменную необходимо тщательно обосновать теоретически. В качестве зависимой переменной выбирается переменная, предсказание значения которой особенно важно. В некоторых приложениях зависимые и независимые переменные трудно различимы. В таких случаях можно использовать принцип построения симметричного коэффициента PRE, который представляет собой взвешенное среднее для обоих вариантов:

К сожалению, ни один из коэффициентов, предложенных для оценки силы зависимости между номинальными признаками, не является «идеальным». Существует мнение, что из всех «неоптимальных» вариантов коэффициентов ассоциации наиболее близок к «идеальному» коэффициент V Крамера [Белл, Браймен, 2012].

Главный вопрос, который возникает в этой связи, таков: изменяются обе переменные совместно или независимо друг от друга? Понятие закономерности в данном случае определяется следующим образом: если X имеет определенное значение, то и Y принимает некоторое значение, и наоборот.

О статистической зависимости в анализируемой ситуации можно говорить при условии, что эта закономерность прослеживается не для всех наблюдений, а для достаточно большой их части. В первом приближении можно констатировать, что чем больше доля наблюдений, в которых отражается закономерность описанного вида, тем сильнее выражена статистическая зависимость. Способ определения статистической зависимости обусловливает особенности модели для измерения степени ассоциации. Поэтому не существует единой универсальной меры, пригодной для всех случаев.

Особенности разных моделей измерения зависимостей должны приниматься во внимание при выборе коэффициента ассоциации для изучаемой таблицы. Социолог должен знать и учитывать их возможности. Поэтому при попытке оценить степень зависимости следует учитывать не один какой-нибудь показатель, а несколько. В социологических исследованиях их значения небольшие. В социальной сфере все взаимосвязано, однако, как правило, отсутствуют четко выраженные закономерности.

 
<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>