Con respecto a 1: Sí, agregar vi
como moderador es, de hecho, la forma lógica de extender la prueba de Egger a modelos más complejos.
En realidad, el uso de las variaciones de muestreo como moderador es solo una posibilidad de realizar la "prueba de regresión para la asimetría del gráfico en embudo". Otros han sugerido utilizar el inverso de las variaciones de muestreo o los errores estándar (raíz cuadrada de las variaciones de muestreo) o sus inversas o los tamaños de muestra totales (o alguna función de los mismos) como moderadores. No está del todo claro qué predictor es la "mejor" opción (y esto puede depender de qué medida de resultado utilice para su metanálisis). Por ejemplo, para algunas medidas, la ecuación que usamos para aproximar / estimar la varianza muestral es en realidad una función del resultado observado, que crea automáticamente una relación entre los dos incluso en ausencia de sesgo de publicación (o "sesgo de estudio pequeño" o como queramos llamarlo). En ese caso,
Pero el punto principal es: Sí, la prueba de regresión se puede aplicar fácilmente cuando se trabaja con modelos más complejos agregando un moderador apropiado al modelo.
Es discutible si los gráficos en embudo son útiles o no cuando existen estructuras multinivel / multivariadas subyacentes a los datos. Por ejemplo, los conjuntos de puntos pueden agruparse debido a dependencias estadísticas (que se tienen en cuenta cuando se utiliza un modelo multinivel / multivariado apropiado), pero en el diagrama de embudo, los puntos son solo eso: un montón de puntos. Eso hace que la interpretación de los gráficos en embudo sea más difícil porque (a menos que tome pasos adicionales usando diferentes colores o símbolos) no puede ver esas dependencias inherentes; no es que la mayoría de las personas (incluido yo mismo) sean buenas para interpretar los gráficos en embudo, incluso en los más simples casos (¡hay investigaciones empíricas que lo demuestran!).
Con respecto a 2: Sí, un montón de funciones de ajuste de modelo posterior no funcionan actualmente con rma.mv
objetos de modelo. Simplemente no he podido implementar esto y algo de esto requerirá pensar un poco. Por ejemplo, leave1out()
elimina un estudio a la vez; en el contexto univariante, esto es equivalente a eliminar cada resultado observado a la vez, pero ¿qué pasa con los datos multinivel / multivariante? ¿Eliminar también cada resultado observado a la vez? ¿O eliminar conjuntos de puntos? ¿O poner a disposición diferentes opciones? Con respecto al recorte y el relleno (dejando de lado la cuestión de cuán útil es realmente este método): Merecería la pena escribir un artículo completo acerca de extender el método a datos multinivel / multivariante.
Por lo tanto, es genial que desee hacer análisis de sensibilidad, pero a partir de ahora, tendrá que hacer algo de esto manualmente. Los análisis de dejar uno afuera se realizan fácilmente con un ciclo for simple y pensando cuidadosamente en qué es "uno" (por ejemplo, cada resultado observado, cada grupo / estudio). Puede hacer la prueba de regresión y tal vez dejar recortar y llenar por ahora. Los residuos estandarizados están disponibles a través de rstandard()
, por lo que puede examinar los datos de posibles valores atípicos. Puede obtener los valores del sombrero a través de hatvalues()
(solo los apalancamientos a lo largo de la diagonal o toda la matriz del sombrero ) que le da una indicación de qué puntos tienen una fuerte influencia en los resultados. Otra medida realmente útil en este contexto es la distancia de Cook , que puede obtener a través de cooks.distance()
, también para los rma.mv
objetos.