Tenemos un proceso aleatorio que puede-o-no-puede aparecer varias veces en un período determinado de tiempo . Tenemos una fuente de datos de un modelo preexistente de este proceso, que proporciona la probabilidad de que ocurran varios eventos en el período . Este modelo existente es antiguo y necesitamos ejecutar verificaciones en vivo en los datos de alimentación para detectar errores de estimación. El modelo anterior que produce el suministro de datos (que proporciona la probabilidad de que ocurran eventos en el tiempo restante ) es aproximadamente distribuido por Poisson.
Entonces, para verificar anomalías / errores, dejamos que sea el tiempo restante y sea el número total de eventos que ocurrirán en el tiempo restante . El modelo anterior implica las estimaciones . Entonces, bajo nuestro supuesto tenemos:
Este enfoque funciona fantásticamente bien para detectar errores en los recuentos de eventos estimados durante todo el período de tiempo , pero no tan bien si queremos hacer lo mismo para otro período donde . Para evitar esto, hemos decidido que ahora queremos cambiar para usar la distribución binomial negativa, de modo que supongamos ahora y tenemos:
1. ¿Podemos simplemente establecer en la distribución binomial negativa? ¿Si no, porque no?
2. Suponiendo que podemos establecer donde es alguna función, ¿cómo podemos establecer correctamente (¿necesitamos ajustar usando conjuntos de datos pasados)?
3. ¿ Depende del número de eventos que esperamos que ocurran durante un proceso dado?
Anexo a la extracción de estimaciones para (y ):
Soy consciente de que si de hecho este problema se revirtiera y tuviéramos el recuento de eventos para cada proceso, podríamos adoptar el estimador de máxima verosimilitud para y . Por supuesto, el estimador de máxima verosimilitud solo existe para muestras para las cuales la varianza muestral es mayor que la media muestral, pero si este fuera el caso, podríamos establecer la función de verosimilitud para observaciones independientes distribuidas idénticamente como: desde el cual podemos escribir la función log-verosimilitud como: p N k 1 , k 2 , … , k N L ( r , p ) = N ∏ i = 1 P ( k i ; r , p ) , l ( r , p ) = N ∑ i = 1 ln ( Γ ( k i + r ) ) - N ∑ i