Esto podría ser un poco de una cuestión filosófica, pero aquí vamos: En teoría de la decisión, el riesgo de un estimador de Bayes θ ( x ) para θ ∈ Θ se define con respecto a una distribución a priori π en Θ .
Ahora, por un lado, para que el verdadero haya generado los datos (es decir, "existe"), θ debe ser una posible variante bajo π , por ejemplo, tener probabilidad no nula, densidad no nula, etc .; por otro lado, θ no se conoce, de ahí la elección de un previo, por lo que no tenemos garantía de que el verdadero θ sea una variante posible bajo el π que elegimos.
Ahora, me parece que de alguna manera tenemos que seleccionar modo que θ sea una posible variante. De lo contrario, ciertos teoremas no serían válidos. Por ejemplo, la estimación minimax no sería una estimación de Bayes para un prior menos favorable, ya que podríamos hacer que ese prior sea arbitrariamente malo excluyendo una gran región alrededor e incluyendo θ de su dominio. Sin embargo, garantizar que θ está realmente en el dominio puede ser difícil de lograr.
Entonces mis preguntas son:
- ¿Se supone generalmente que el real es una posible variante de π ?
- ¿Se puede garantizar esto?
- ¿Pueden los casos que violan esto al menos ser detectados de alguna manera, por lo que uno no confía en teoremas como minimax cuando las condiciones no se cumplen?
- Si no es necesario, ¿por qué los resultados estándar en la teoría de la decisión son válidos?