He visto un par de charlas de no estadísticos donde parecen reinventar las medidas de correlación utilizando información mutua en lugar de regresión (o pruebas estadísticas equivalentes / estrechamente relacionadas).
Supongo que hay una buena razón por la cual los estadísticos no toman este enfoque. Mi lego entiende que los estimadores de entropía / información mutua tienden a ser problemáticos e inestables. Asumo que el poder también es problemático como resultado: intentan evitar esto alegando que no están usando un marco de prueba paramétrico. Por lo general, este tipo de trabajo no molesta con los cálculos de potencia, o incluso con la confianza / intervalos creíbles.
Pero para tomar la posición de defensor del diablo, ¿es tan lenta la convergencia lenta cuando los conjuntos de datos son extremadamente grandes? Además, a veces estos métodos parecen "funcionar" en el sentido de que las asociaciones son validadas por estudios de seguimiento. ¿Cuál es la mejor crítica contra el uso de información mutua como medida de asociación y por qué no se usa ampliamente en la práctica estadística?
editar: Además, ¿hay algún buen documento que cubra estos problemas?