Если вы заинтересованы в использовании непараметрической корреляции, возможно, вы можете взглянуть на тау Кендалла. Как U-статистика, она асимптотически нормальна. (Если я не ошибаюсь, Спирмен тоже асимптотически нормален, поэтому процедура, которую я собираюсь описать, действительна и для Спирмена). Следовательно, это предполагает, что вы можете использовать нормальное логарифмическое правдоподобие для выполнения вашего сжатия.
Точнее, пусть tau.hat будет вашей векторизованной (оценочной) корреляционной матрицей, а
L(tau | tau.hat, Sigma) = t(tau - tau.hat) Sigma^{-1} (tau - tau.hat)
где cov(tau.hat) = Sigma. L - это функция потерь, которая позволит вам узнать, когда вы применили слишком большую усадку (понимая, что L должно быть распределено примерно по хи-квадрат).
Это не очень полезно, поскольку вы не знаете Sigma, но есть способы ее оценки (для 50 акций это все еще может быть нормально, но это быстро взрывается). Это основная причина, по которой я предлагаю использовать тау Кендалла вместо ро Спирмена: вы можете иметь представление о его дисперсии (сигма). (См. эту статью для оценки Sigma: https://arxiv.org/abs/1706.05940)
Оттуда вы можете использовать стандартную технику для сжатия Sigma.hat (это необходимо), например. просто уменьшите его до диагональной версии Sigma0.hat с помощью
Sigma.tilde = w Sigma0.hat + (1-w) Sigma.hat
с, скажем, w = 0,5. По крайней мере, убедитесь, что он положительно определен...
Затем (наконец-то!) получите уменьшенную версию tau.hat, позволив q перейти к 1 в tau.tilde = (1-q) tau.hat + q mean(tau.hat)
до Prob[chi_d^2 > L(tau.tilde | tau.hat, Sigma.tilde)] = .05
, где степени свободы для вашего хи-квадрата равны (?!?!?) d = length(tau.hat) - q
.
Я не уверен, что степени свободы для квадрата хи верны. На самом деле, я почти уверен, что это не так. Обратите также внимание на то, что значение 0,05 было выбрано несколько произвольно. Суть в том, что вы, возможно, захотите взглянуть на статью, упомянутую выше, поскольку они (мы, я должен сказать) действительно уменьшают корреляционную матрицу Кендалла логарифмической доходности от 100 акций. То, как это делается, позволяет нам узнать больше о рассматриваемых степенях свободы (и не требует от вас предоставления структуры априори, поскольку он изучает блочную структуру из данных).
person
Perochkin
schedule
15.03.2018