¿Se debe esperar siempre que la tendencia central (es decir, media y / o mediana) de una muestra bootstrap sea similar al valor observado?
En este caso particular, tengo respuestas que se distribuyen exponencialmente para los sujetos en dos condiciones (no ejecuté el experimento, solo tengo los datos). Se me ha encomendado la tarea de ajustar el tamaño del efecto (en términos de d de Cohen, la fórmula de una muestra, es decirdonde está la estimación muestral de la desviación estándar de la población. El foro para esto se proporciona en Rosenthal y Rosnow (2008) en la página 398, ecuación 13.27. Ellos usan en el denominador porque es históricamente correcto, sin embargo, la práctica estándar ha definido erróneamente que d , y así sigo con ese error en el cálculo anterior.
He aleatorizado tanto dentro de los participantes (es decir, se puede tomar una muestra de RT de los participantes más de una vez) como entre sujetos (se puede tomar una muestra de los participantes más de una vez) de modo que incluso si el participante 1 se muestrea dos veces, es poco probable que su RT media en ambas muestras exactamente igual Para cada conjunto de datos aleatorizado / muestreado recalculo d. En este caso. Lo que estoy observando es una tendencia a que el valor observado de Cohen d sea típicamente más cercano al percentil 97.5 de que el percentil 2.5 de los valores observados simulados. También tiende a estar más cerca de 0 que la mediana de la rutina de carga (en un 5% a 10% de la densidad de la distribución simulada).
¿Qué puede explicar esto (teniendo en cuenta la magnitud del efecto que estoy observando)? ¿Se debe a que es "más fácil" al realizar un nuevo muestreo obtener variaciones más extremas que las observadas en relación con la extremidad de los medios al realizar el nuevo muestreo? ¿Podría ser esto un reflejo de datos que han sido excesivamente masajeados / recortados selectivamente? ¿Es este enfoque de remuestreo lo mismo que un bootstrap? Si no, ¿qué más se debe hacer para llegar a un CI?