¿Determinar el umbral óptimo de la regla de decisión binaria a partir de observaciones con antecedentes desconocidos?


8

Dadas solo las observaciones de una señal binaria perturbada por ruido gaussiano con información previa desconocida, ¿cómo puedo estimar el umbral de decisión óptimo?

(No, esta no es una pregunta de tarea)

Específicamente, pienso en el siguiente modelo: Y es una variable aleatoria de dos estados (H0,H1) :

  • PAGS(YEl |H0 0)norte(μ0 0,σ)
  • PAGS(YEl |H1)norte(μ1,σ),μ0 0<μ1
  • PAGS(H0 0)=π0 0
  • PAGS(H1)=1-π0 0

con parámetros desconocidos : .μ0 0,μ1,σ,π0 0

El umbral de probabilidad de registro máximo a posteriori podría calcularse a partir de esos parámetros si los conociera. Originalmente estaba pensando en cómo estimar los parámetros primero para llegar al umbral . Pero estoy pensando que puede ser más robusto estimar directamente Y t .YtYt

Pensamientos: la normalización de las observaciones (restando la media de la muestra y dividiendo por la desviación estándar) reduce el espacio de parámetros en 2 dimensiones: y σπ0 0 .σμ1-μ0 0


Este problema sería mucho más fácil si pudieras asumir que Pi0 fue 0.5. :-)
Jim Clay

Podría ser un poco esta pregunta relacionada con estos: stackoverflow.com/questions/1504378/... o stackoverflow.com/questions/5451089/...
hotpaw2

¿Existe una secuencia de entrenamiento de observaciones disponible para estimar las medias, las variaciones, etc.? ¿O simplemente se le da una secuencia de datos en la que algunos valores son de y algunos de H 1 pero no sabe cuál es cuál? H0 0H1
Dilip Sarwate

Respuestas:


6

Mi intuición es que sería difícil obtener el umbral de decisión correcto que espera encontrar:

τ=12(μ0 0+μ1)-σ2μ0 0-μ12Iniciar sesiónπ1-π(μ0 0-μ1)

De las estadísticas globales que está considerando (media de la muestra: ; desviación estándar: expresión más compleja pero dudo que implique un registro).πμ0 0+(1-π)μ1

Abordaría el problema de esta manera:

  1. Si se puede suponer que es pequeñoσ

    Menciono eso, porque tenga en cuenta que el umbral de decisión se ve afectado por solo si σ es lo suficientemente alto como para permitir que ambas clases se superpongan. Si los μs están distantes en más de unos pocos σ , ¡las probabilidades previas de clase no tienen nada que decir en el proceso de decisión!πσμσ

    • Ejecute k-means en sus observaciones ( es pequeño y es compartido por ambas clases, por lo que k-means es en este caso EM para el modelo de mezcla). Si solo desea binarizar estas observaciones y no otros datos, puede detenerse aquí.σ
    • Si tiene nuevas observaciones para binarizar, y sabe que se generan por el mismo proceso, puede usar los centroides de clase encontrados por k-means en sus datos de entrenamiento como estimaciones de , y usar el medio como umbral de decisión.μ
  2. Si no se puede hacer una suposición acerca de σ

    • Ejecute el algoritmo EM (con covarianza diagonal agrupada) en sus datos de entrenamiento. Use las variables inferidas "membresía de clase blanda" para binarizar sus observaciones.
    • Calcule el umbral de decisión partir de los parámetros dados por EM para binarizar nuevos datos generados por el mismo proceso.τ

2

Para resumir, tiene dos distribuciones con parámetros desconocidos y una medición que puede haberse originado de cualquier proceso estocástico. Esto generalmente se conoce como un problema de asociación de datos y es muy común y ampliamente estudiado dentro de la comunidad de seguimiento. Puede considerar usar un filtro de asociación de datos de probabilidad (PDAF) o un algoritmo de seguimiento de hipótesis múltiples (MHT). Esto debería proporcionarle estimaciones de la media y la varianza para cada distribución.
Alternativamente, dado que su ruido es blanco y gaussiano, ML, MAP y MMSE son todos equivalentes y se pueden encontrar minimizando el error cuadrático medio (función de costo), como se describe efectivamente en la respuesta anterior. Usaría un enfoque de programación dinámica para encontrar el mínimo de la función de costo. Esto debería ser menos complejo (computacionalmente) que los métodos EM / clustering descritos anteriormente. Un comentario más: el PDAF es recursivo. Dado el modelo de señal simple, debería funcionar de manera muy efectiva y lo que espero es una fracción de la complejidad computacional del algoritmo EM. Buena suerte


1

Hay un algoritmo de mediados de la década de 1980 de Kittler e Illingworth llamado "Umbral de error mínimo" que resuelve este problema para las distribuciones gaussianas. Recientemente Mike Titterington (Universidad de Glasgow) y JH Xue (ahora en UCL) han puesto esto en un marco estadístico más formal, ver sus publicaciones conjuntas en revistas.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.