De acuerdo, mi mensaje original no pudo obtener una respuesta; entonces, déjenme plantear la pregunta de otra manera. Comenzaré explicando mi comprensión de la estimación desde una perspectiva teórica de decisión. No tengo entrenamiento formal y no me sorprendería si mi pensamiento es defectuoso de alguna manera.
Supongamos que tenemos una función de pérdida . La pérdida esperada es el riesgo (frecuente):
donde es la probabilidad; y el riesgo de Bayes es el riesgo frecuentista esperado:
donde es nuestro previo.
En general, nos encontramos con el θ ( x ) que minimizan r y todo esto funciona muy bien; Por otra parte el teorema de Fubini se aplica y se puede invertir el orden de integración de manera que cualquier dada θ ( x ) que minimiza r es independiente de todos los demás. De esta manera, no se viola el principio de probabilidad y podemos sentirnos bien por ser bayesianos, etc.
Por ejemplo, dada la pérdida error al cuadrado familiar, nuestro riesgo frequentist es el error cuadrático medio o la suma de sesgo al cuadrado y la varianza y nuestra El riesgo de Bayes es la suma esperada de sesgo cuadrado y varianza dada nuestra anterior, es decir, la pérdida esperada a posteriori.
Esto me parece sensato hasta ahora (aunque podría estar bastante equivocado); pero, en cualquier caso, las cosas tienen mucho menos sentido para otros objetivos. Por ejemplo, supongamos que en vez de minimizar la suma de igual-ponderada sesgo al cuadrado y la varianza, quiero minimizar una desigual-ponderada suma - que es, quiero que el θ ( x ) que reducen al mínimo:
donde es alguna constante real positiva (que no sea 1).
Normalmente me refiero a una suma como esta como una "función objetivo", aunque puede ser que esté usando ese término incorrectamente. Mi pregunta no es acerca de cómo encontrar una solución - la búsqueda de la θ ( x ) que minimizan la función objetivo es numéricamente factible - más bien, mi pregunta es doble:
¿Puede esa función objetiva encajar en el paradigma de la teoría de la decisión? Si no, ¿hay otro marco en el que encaje? Si es así, ¿cómo es eso? Parece que la función de pérdida asociada sería una función de , θ , y E [ θ ( x ) ] , que - debido a la expectativa - es (creo) no adecuada.
Una función tan objetivo viola el principio probabilidad porque cualquier estimación dada θ ( x j depende de todas las demás estimaciones de θ ( x i ≠ j ) (incluso los hipotéticos). Sin embargo, hay ocasiones en que es deseable intercambiar un aumento en la varianza de error por una reducción en el sesgo. Dado ese objetivo, ¿hay alguna forma de conceptualizar el problema de manera que se ajuste al principio de probabilidad?
Supongo que no he entendido algunos conceptos fundamentales sobre la teoría / estimación / optimización de decisiones. Gracias de antemano por cualquier respuesta y por favor asuma que no sé nada ya que no tengo capacitación en esta área o en matemáticas en general. Además, cualquier referencia sugerida (para el lector ingenuo) es apreciada.