¿Cómo se generan los datos en el marco bayesiano y cuál es la naturaleza del parámetro que genera los datos?


9

Estaba tratando de volver a aprender las estadísticas bayesianas (cada vez que pensaba que finalmente lo entendía, aparece algo más que no consideré antes ...) pero no estaba claro (para mí) cuál era el proceso de generación de datos en el marco bayesiano en realidad es.

El marco frecuentista es claro para mí. Hay algunos parámetros "verdaderos" y ese parámetro genera los datos de acuerdo con la distribución que parametriza.θ

Sin embargo, en la configuración bayesiana, modelamos el parámetro como una variable aleatoria. Esa parte no me confunde. Tiene sentido, porque un bayesiano interpreta esta probabilidad como la incertidumbre en sus propias creencias. Están de acuerdo con asignar una probabilidad a eventos no repetibles. Entonces, la forma en que interpreté el "Bayesianismo" fue que, cree que hay algún parámetro que genera los datos, definitivamente se desconoce, pero sin embargo, se solucionó una vez que se decidió por "naturaleza" (y tal vez la naturaleza decidió al azar lo que se suponía ser - estar). Sin embargo, es fijo y, por lo tanto, su creación fue un "evento no repetible". Aunque no era repetible, solo estamos tratando de actualizar nuestra propia creencia deθdatos dados Por lo tanto, los datos podrían haber sido generados por cualquiera de los parámetros considerados por nuestra distribución de probabilidad (anterior), pero sin embargo, el parámetro es fijo y desconocido. Solo le estamos asignando un valor de probabilidad.

Con esta visión, tiene sentido para mí suponer que el proceso de generación de datos es casi idéntico al frecuente. "Naturaleza" selecciona el parámetro usando la distribución "verdadera" "anterior" y una vez que la variable aleatoria toma su realización "verdadera" (pero fija), comienza a generar los datos que observamos.θP(θ)

¿Es esta la forma estándar de interpretar el proceso de generación de datos en el marco bayesiano?

Lo principal sobre mi punto de vista es que, el parámetro está definitivamente fijado (visto como una realización de un rv), y genera los datos de acuerdo con . Por lo tanto, otro punto muy importante en mi opinión es que, para mí, nuestro prior es solo una forma cuantificable de expresar nuestra incertidumbre sobre el evento fijo (y no repetible) de crear el parámetro . ¿Es así como la gente interpreta el ?θθθP(θ)


Nota humorística lateral:

Ojalá pudiera preguntarle a "Naturaleza" cómo lo está haciendo y resolver esto de una vez por todas ... jajaja.


44
No creo que pongamos una cuantificación en el "evento de crear el parámetro ". Más bien, el modelado previo es una cuantificación de las limitaciones de nuestras creencias y conocimientos previos sobre . θθ
Xi'an

44
Para mí, el método de generación de datos es exactamente el mismo para un Bayesiano que para un no Bayesiano, es decir, hay algún valor de parámetro verdadero y ese parámetro genera datos de acuerdo con los supuestos de su modelo (si el modelo es verdadero).
jaradniemi

@jaradniemi Creo que para mí es casi idéntico, sin embargo, difiere en un detalle, especificando cómo se eligió en primer lugar. Para mí, primero la variable aleatoria toma un valor elegido por la naturaleza de acuerdo con su verdadero "anterior" y luego comienza a generar datos como lo expliqué. θθP(x)
Pinocho

2
@ Xi'an (+1). Sin embargo, escribió "Más bien, el modelado anterior es una cuantificación de las limitaciones de nuestras creencias y conocimientos previos sobre". No entiendo el propósito de la palabra "limitación". ¿Me puede detallar esto por favor?
peuhp

Respuestas:


3

Es bastante sencillo: no hay diferencias entre bayesianos y frecuentistas con respecto a la idea del modelo generador de datos.

Para entender esto, considere primero que el modelo generador de datos está codificado matemáticamente en la probabilidad, que es la base para la inferencia de bayesianos y frecuentistas por igual. Y no hay diferencia entre una probabilidad bayesiana y frecuentista.

Ahora, podría decir: eso no significa que los bayesianos piensen que los parámetros del proceso de generación de datos son fijos. Claro, pero realmente, tiene muy poco sentido pensar lo contrario: ¿cuál sería el punto de estimar una cantidad que no es fija? ¿Qué significaría eso matemáticamente? Por supuesto, podría ser que tenga una cantidad que no sea un valor, sino una distribución. Pero luego calcula la distribución, por lo que se repara nuevamente.

La verdadera diferencia, como dice @ Xi'an, no está en el supuesto de cómo se generan nuestros datos, sino en la inferencia. Entonces, cuando dices

Sin embargo, en la configuración bayesiana, modelamos el parámetro como una variable aleatoria.

No estaría de acuerdo: modelamos nuestro conocimiento / incertidumbre sobre el parámetro verdadero como una variable aleatoria, esa es la diferencia sutil, pero importante, tratamos el parámetro como variables aleatorias para explorar nuestra incertidumbre sobre su valor "verdadero".


"¿Cuál sería el punto de estimar una cantidad que no es fija?" Bueno, en general, en el mundo real, tenemos sistemas dinámicos, que cambian con el tiempo, por lo que habría casos de uso de estimar cantidades que cambian con el tiempo.
nbro

Sí, pero ese no era el punto. La pregunta era si la inferencia bayesiana supone que existe un valor verdadero (fijo) para las cosas que usted estima. En su ejemplo, la pregunta sería si la inferencia supone que el sistema dinámico tiene un estado verdadero en cada punto en el tiempo.
Florian Hartig

2

Las páginas 3 y 4 de BDA de Gelman et al., 3ª ed., Son esclarecedoras. Las estadísticas bayesianas tienen como objetivo hacer inferencia a partir de datos utilizando modelos de probabilidad para cantidades observables y no observables. Nos referimos a las cantidades no observables como parámetros, incluso si la distinción no siempre es clara. En las estadísticas bayesianas, toda la incertidumbre sobre las variables involucradas en el modelo se representa usando la probabilidad. Por lo tanto, necesitamos configurar un modelo de probabilidad completa, es decir, una probabilidad conjunta entre todosvariables involucradas en nuestro problema, tanto observables como no observables, es decir, parámetros. Esto significa que usamos variables aleatorias para representar ambos. No significa que creamos que el parámetro es aleatorio: simplemente significa que nuestro conocimiento del valor real de los parámetros es limitado, y representamos cualquier conocimiento limitado que tengamos antes de observar los datos a través de la distribución de probabilidad previa. Luego observamos datos y condiciones en los datos observados usando un modelo para el proceso de generación de datos (que da lugar a una cierta función de probabilidad) y la regla de Bayes, para obtener una distribución de probabilidad posterior, que cuantifica la incertidumbre restante en nuestro conocimiento sobre el cantidades no observables

En otras palabras, utilizamos variables aleatorias para los parámetros no porque creamos que no hay parámetros verdaderos, sino porque tenemos un conocimiento limitado de ellos, lo que mejora después de observar los datos de las variables medibles, pero no desaparece por completo. De hecho, hay condiciones técnicas bajo las cuales la distribución posterior tiende a un delta de Dirac (por lo tanto, la variable aleatoria utilizada para representar el parámetro se degenera) en el límite para el número de observaciones que va a 0. Si no hubo valor "verdadero" para el parámetro, esto no tendría mucho sentido. Ahora, seguramente estas condiciones no siempre son válidas, pero en muchos análisis bayesianos estándar (incluso si no todos) no dudamos de la existencia de un modelo verdadero y de valores verdaderos o fijos para los inobservables.


1
entonces, para las personas con esa interpretación de bayesiano (es decir, hay un modelo verdadero que simplemente ignoramos), parece que el proceso de generación de datos debería ser el mismo que el normal, es decir, los parámetros verdaderos generan los datos (x, y) y eso es todo.
Pinocho

1
absolutamente sí. Como escribí anteriormente, y como @FlorianHartig discutió en mayor medida, el proceso de generación de datos define la función de probabilidad, y la función de probabilidad se define de la misma manera en ambos paradigmas.
DeltaIV

1

¿Es esta la forma estándar de interpretar el proceso de generación de datos en el marco bayesiano?

No, esta no es la interpretación estándar. De hecho, ya ha reconocido en su pregunta la interpretación "subjetiva" de la probabilidad , que es la base estándar de las estadísticas bayesianas. Bajo la interpretación "subjetivista" (más propiamente llamada interpretación "epistémica"), las distribuciones de probabilidad anteriores y posteriores para los parámetros se utilizan para representar la incertidumbre del usuario sobre los parámetros desconocidos en el modelo. Según esta explicación, no se supone que ocurra ningún proceso metafísico correspondiente en la naturaleza, ni ninguna aleatoriedad en la naturaleza. De hecho, bajo este punto de vista, el paradigma bayesiano no proporciona ninguna teoríasobre el "proceso de generación de datos" de la naturaleza; simplemente nos da una forma matemática de modelar nuestra incertidumbre sobre las cosas en la naturaleza y, por lo tanto, formar una teoría inferencial y predictiva .

Su última descripción es un ejemplo de la teoría de la probabilidad de propensión , que postula que hay un proceso metafísico que ocurre en la naturaleza que es análogo al cálculo de probabilidad. Esta interpretación de la probabilidad supone que hay cierta "propensión" metafísica incorporada en la naturaleza para que los resultados ocurran al azar de acuerdo con las leyes de probabilidad. Como con la mayoría de los bayesianos, siempre he encontrado que las cuentas de propensión son un poco tontas. Es realmente un ejemplo de la propensión de los seres humanos a proyectar nuestros propios modos de pensamiento en la naturaleza, y asumir que existen análogos en la naturaleza de nuestros métodos y construcciones epistemológicas. (¡Como tal, la "interpretación de la propensión" es más propiamente una teoría de la propensión de los seres humanos que una de la probabilidad!)

Ahora, puede decidir adoptar la interpretación subjetivista de la probabilidad, o puede estar en desacuerdo conmigo y decidir adoptar la interpretación de propensión. De todos modos, te vas a meter en un lío horrible si equívocas entre estas dos interpretaciones diferentes. Eso es probablemente lo que te está dando dificultades en este momento.


-1

El parámetro θsolo puede considerarse fijo pero desconocido si asume que el modelo subyacente con el que está trabajando es una representación perfecta del sistema verdadero. Sin embargo, dado que la naturaleza suele ser mucho más compleja que cualquier modelo matemático que usemos, esta suposición no puede hacerse. Por lo tanto, no hay un parámetro 'único fijo verdadero' de su modelo.

Matemáticamente, a medida que agrega más y más datos, convergerá a un determinado parámetro θ. Sin embargo, esto se debe a la insuficiencia de sus suposiciones en el proceso de modelado. Debe tener cuidado de llamarlo el verdadero parámetro fijo del sistema subyacente. Incluso si un parámetro en su modelo tiene un significado físico, es solo una suposición de que el parámetro posterior retiene esta interpretación por completo.

Los datos en una vista bayesiana son generados por el 'sistema verdadero', que nunca podrá modelar correctamente. Por lo tanto, un parámetro verdadero subyacente de su modelo asumido no puede existir.


55
No estoy de acuerdo con la interpretación anterior: un análisis bayesiano estándar no pone en duda la idoneidad del modelo. La distribución previa representa incertidumbre sobre la información disponible sobre el parámetro. Esto no significa que no haya un parámetro de valor fijo o ningún parámetro verdadero.
Xi'an

@ Xi'an: Como usted dice, un análisis bayesiano estándar no pone incertidumbre sobre la idoneidad del modelo: el modelo probabilístico representa nuestras creencias previas: si son apropiadas o no es una pregunta diferente. Sin embargo, ¿quién puede afirmar que su modelo es realmente capaz de representar el verdadero sistema subyacente perfectamente? Si falta este enlace, puede terminar con un parámetro fijo. PERO NO es el 'parámetro verdadero', si define el 'parámetro verdadero' como el que realmente generó los datos.
Cumbre
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.