Estoy escribiendo un script que analiza los tiempos de ejecución de los procesos. No estoy seguro de su distribución, pero quiero saber si un proceso se ejecuta "demasiado tiempo". Hasta ahora he estado usando 3 desviaciones estándar de los últimos tiempos de ejecución (n> 30), pero me dijeron que esto no proporciona nada útil si los datos no son normales (lo que no parece ser). Encontré otra prueba atípica que dice:
Encuentre el rango intercuartil, que es IQR = Q3 - Q1, donde Q3 es el tercer cuartil y Q1 es el primer cuartil. Luego encuentra estos dos números:
a) Q1 - 1.5 * IQR b) Q3 + 1.5 * IQR
El punto es un valor atípico si <a o> b
Mis datos tienden a ser cosas como 2 segundos, 3 segundos, 2 segundos, 5 segundos, 300 segundos, 4 segundos, ... donde 300 segundos es obviamente un valor atípico.
¿Qué método es mejor? ¿El método IQR o el método de desviación estándar?