Parece que hay dos preguntas diferentes aquí, que intentaré dividir:
1) ¿en qué se diferencia KS, el suavizado de kernel, de KDE, la estimación de densidad de kernel? Bueno, digamos que tengo un estimador / suavizador / interpolador
est( xi, fi -> gridj, estj )
y también se conoce la densidad "real" f () en el xi. Luego, la ejecución
est( x, densityf )
debe dar una estimación de la densidadf (): un KDE. Bien puede ser que los KS y los KDE se evalúen de manera diferente, diferentes criterios de suavidad, diferentes normas, pero no veo una diferencia fundamental. Qué me estoy perdiendo ?
2) ¿Cómo afecta la dimensión a la estimación o alisamiento, intuitivamente ? Aquí hay un ejemplo de juguete, solo para ayudar a la intuición. Considere una caja de N = 10000 puntos en una cuadrícula uniforme, y una ventana, una línea o cuadrado o cubo, de W = 64 puntos dentro de ella:
1d 2d 3d 4d
---------------------------------------------------------------
data 10000 100x100 22x22x22 10x10x10x10
side 10000 100 22 10
window 64 8x8 4x4x4 2.8^4
side ratio .64 % 8 % 19 % 28 %
dist to win 5000 47 13 7
Aquí la "relación de lado" es el lado de la ventana / lado de la caja, y "dist para ganar" es una estimación aproximada de la distancia media de un punto aleatorio en el cuadro a una ventana colocada al azar.
¿Tiene esto algún sentido? (Una imagen o applet realmente ayudaría: ¿alguien?)
La idea es que una ventana de tamaño fijo dentro de un cuadro de tamaño fijo tenga una proximidad muy diferente al resto del cuadro, en 1d 2d 3d 4d. Esto es para una cuadrícula uniforme; tal vez la fuerte dependencia de la dimensión se traslada a otras distribuciones, tal vez no. De todos modos, parece un fuerte efecto general, un aspecto de la maldición de la dimensionalidad.