Полная версия

Главная arrow Менеджмент arrow Введение в количественный риск-менеджмент

  • Увеличить шрифт
  • Уменьшить шрифт


<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>

Измерение зависимости на основе ковариации

Как указывалось ранее, ковариацией называют смешанный центральный момент второго порядка для двумерной случайной величины, для которой имеем

Очевидно, если случайные величины Х и Х2 независимы, то их ковариация равна пулю. К сожалению, обратное в общем случае неверно: можно подобрать контрпример, когда зависимость имеет место, но Е 1Х2] = Е рД] Е рО]. Чем сильнее зависимость, тем больше абсолютное значение ковариации. Ещё одним крупным недостатком коварации как основы для измерения зависимости является то, что она хорошо отражает линейную зависимость, но может занижать степень нелинейной зависимости.

Тем не менее ковариация имеет и преимущества для измерения зависимости. Прежде всего, она хорошо согласуется с некоторыми многомерными распределениями, популярными в практических приложениях. Некоторые типы зависимости также удобно выражать через ковариации. В частности, зависимость в положительном квадранте эквивалентна условию Cov [gi(Xi), <72(^2)] > 0 для любых неубывающих вещественных функций дД-) и д2,(-)- Кроме того, измерение зависимостей на основе связанных с ковариацией показателей было одним из первых и поэтому играло важную роль па протяжении десятилетий. В результате подходы, основанные на идее ковариации, широко используются до настоящего времени.

Популярности ковариации также способствует относительно простой способ статистической оценки по наблюдениям случайной величины (хм, х^), к — 1. 2,..., К. В частности, используются формулы

где Xk — выборочные (наблюдаемые) значения случайной величины Х, Х2к — выборочные (наблюдаемые) значения случайной величины Х2, Х и Х2 — выборочные средние случайных величин Х и Х2 соответственно.

К сожалению, ковариация позволяет отследить только попарную зависимость. Если речь идет о размерности, большей двух, то используют ковариационную матрицу. Она является симметричной и неотрицательно определенной. Диагональная ковариационная матрица представляет собой необходимое (но не достаточное!) условие попарной независимости всех компонентов многомерной случайной величины.

Самая простая мера зависимости строится на основе необходимого условия попарной независимости: Cov [Xi, Xj] = 0, г ^ j. Ее идея состоит в том, что чем больше значение Cov [X-i, Xj, тем сильнее зависимость. Для исключения влияния единиц измерения (Cov [аХ{, bXj] = abCov [Xi, Xj}) ковариацию нормируют так, чтобы в соответствующей матрице по главной диагонали стояли единицы:

Такая иормироваииая ковариационная матрица называется корреляционной, а ее элементы р (Xi, Xj) — коэффициентами корреляции5. Коэффициенты корреляции часто используются как мера (линейной) зависимости: для независимых случайных величин Xi и Xj (г ^ j) имеет место р г. Xj) = 0, а для линейно зависимых р (Xi, Xj) = ±1.

Формулу (3.13) можно представить в векторно-матричной форме как

где Р = ||р (Xi, Xj) || — корреляционная матрица, Xdiag2 = diag (с^ 1,..., ап х) — матрица, обратная состоящей из квадратных корней диагональных элементов коварна-

1 /2

ционпой матрицы, т.е. диагональной матрицы Ed(ag = diag (al,... ,ап), содержащей стандартные отклонения соответствующих случайных величии.

На практике широко применяют выборочный коэффициент корреляции

Основными проблемами использования коэффициента корреляции как меры зависимости являются следующие:

  • — он отражает только попарную независимость;
  • — позволяет выявить только линейную зависимость,
  • — базируется на необходимом условии, так что легко сделать ошибку, приняв некоррелированные случайные величины за независимые6.
  • 5 Для того чтобы отличать их от других типов коэффициентов корреляции, рассматриваемые здесь коэффициенты иногда называются также коэффициентами корреляции Пирсона, в честь известного британского математика К. Пирсона, предложившего их использовать.
  • 6 Условие можно считать достаточным только для нормально распределенных случайных векторов.

Для измерения (линейной) зависимости между одномерной случайной величиной и набором (вектором) случайных величин используется множественный коэффициент корреляции, который является обобщением коэффициента корреляции: где detР — определитель корреляционной матрицы Р, а Рп—алгебраическое дополнение элемента p(Xi,X). Можно показать, что эта формула эквивалентна выражению

где BPl [Х |Хг,..., Хп]— наилучший линейный прогноз случайной величины Х по наблюдениям случайных величин Х2,..., Хп , или, что то же самое, линейная аппроксимация функции регрессии Е IX2,..., Хп] .

Последнее выражение можно обобщить естественным образом, заменяя BPi [Xi |^2,..., Хп] исходной зависимостью Е [Xi Х2,..., Хп.

Показатель г/(Xi |Х2,..., Хп) называют корреляционным отношением. Если выполняется равенство Е [Xi2,..., Xn]=BPi [Xi Х2,..., Хп], то оно совпадает с множественным коэффициентом корреляции. Для корреляционного отношения выполняется свойство 0 < 77 (Xi |Х2,..., Хп) < 1. Случай г; (Xi |Х2,..., Хп) = 0 отвечает отсутствию корреляции случайной величины Х с набором (Х2, ? ? ? ,Хп). При Tj(X 1 IX2,..., Хп) = 1 имеется точная функциональная зависимость между Х и набором (Х2,..., Хп), которая является не обязательно линейной.

Выборочное корреляционное отношение определяется или на основе предположений о характере зависимости Е [Xi |Х2, • • •, Хп], или па основе наблюдений. В последнем случае используют формулу

где Xjk — выборочные значения случайной величины Xj (наблюдения j-й группы), rij — соответствующий объем наблюдений, Xj — выборочное среднее случайной величины Xj, п — совокупный объем наблюдений, п = ^2jHj.

Если 7j(X-iXj) = 1, г ф j: г 6 1 -т- п; j 6 1 -г- п, то многомерная случайная величина (Xi,..., Хп) имеет то же распределение[1], что и (F^(U),..., F^(U)), где U — одномерная случайная величина, равномерно распределенная па отрезке (0,1). Такой идеальный тип зависимости называется немонотонностью. Его часто используют при анализе сумм зависимых случайных величин в качестве наихудшего случая зависимости.

  • [1] Случайные величины Xj и Fx) (Uj) имеют одинаковое распределение для каждого j G 1 Ч-n бездополнительных условий, связанных с корреляционным отношением. Последнее нужно для того,чтобы определить характер зависимости в совокупности. Предполагается, что функция FZ^iU;),обратная функции распределения, определена корректно, так что не возникает проблем на интервалах, где функция распределения постоянна.
 
<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>