Tengo muchas ganas de aprender sobre las técnicas bayesianas, así que he estado tratando de enseñarme un poco. Sin embargo, estoy teniendo dificultades para ver cuando el uso de técnicas bayesianas confiere una ventaja sobre los métodos frequentistas. Por ejemplo: he visto en la literatura un poco acerca de cómo algunos usan previos informativos mientras que otros usan previos no informativos. Pero si está utilizando un previo no informativo (¿lo que parece realmente común?) Y descubre que la distribución posterior es, digamos, una distribución beta ... ¿no podría simplemente ajustar una distribución beta al principio y llamar ¿bueno? No veo cómo construir una distribución previa que no te dice nada ... ¿realmente puede decirte algo?
Resulta que algunos métodos que he estado usando en R usan una mezcla de métodos bayesianos y frecuentes (los autores reconocen que esto es algo inconsistente) y ni siquiera puedo discernir qué partes son bayesianas. Además del ajuste de distribución, ni siquiera puedo entender CÓMO usarías los métodos bayesianos. ¿Existe una "regresión bayesiana"? Como se veria eso? Todo lo que puedo imaginar es adivinar la distribución subyacente una y otra vez mientras el Frecuentista piensa en los datos, los mira, ve una distribución de Poisson y ejecuta un GLM. (Esto no es una crítica ... ¡Realmente no lo entiendo!)
Entonces ... ¿podrían ser útiles algunos ejemplos elementales? Y si conoces algunas referencias prácticas para principiantes reales como yo, ¡eso también sería realmente útil!