En (la mayoría de) la literatura de química analítica, la prueba estándar para detectar valores atípicos en datos univariados (por ejemplo, una secuencia de mediciones de algún parámetro) es la prueba Q de Dixon. Invariablemente, todos los procedimientos enumerados en los libros de texto le permiten calcular cierta cantidad de los datos para compararlos con un valor tabular. A mano, esto no es una gran preocupación; Sin embargo, estoy planeando escribir un programa de computadora para Dixon Q, y solo el almacenamiento en caché de los valores me parece poco elegante. Lo que me lleva a mi primera pregunta:
- ¿Cómo se generan los valores tabulares para Dixon Q?
Ahora, ya he revisado este artículo , pero tengo la sensación de que esto es un poco de trampa, ya que el autor simplemente construye una spline que pasa a través de los valores tabulares generados por Dixon. Tengo la sensación de que se necesitará una función especial (por ejemplo, función de error o beta / gamma incompleta) en alguna parte, pero al menos tengo algoritmos para eso.
Ahora para mi segunda pregunta: ISO parece estar recomendando lentamente la prueba de Grubbs sobre Dixon Q hoy en día, pero a juzgar por los libros de texto, todavía tiene que ponerse al día. Esto, por otro lado, fue relativamente fácil de implementar, ya que solo implica calcular el inverso del CDF de Student t. Ahora para mi segunda pregunta:
- ¿Por qué querría usar Grubbs's en lugar de Dixon's?
En el frente obvio en mi caso, el algoritmo es "más ordenado", pero sospecho que hay razones más profundas. ¿Alguien puede importarme iluminarme?