Preguntas etiquetadas con likelihood

Dada una variable aleatoria Xque surgen de una distribución parametrizada , la probabilidad se define como la probabilidad de datos observados en función deF(X;θ)θ:L(θ)=PAGS(θ;X=X)


2
Comprender la regresión logística y la probabilidad
¿Cómo funciona realmente la estimación de parámetros / Entrenamiento de regresión logística? Trataré de poner lo que tengo hasta ahora. La salida es y la salida de la función logística en forma de probabilidad dependiendo del valor de x: P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} Para una dimensión, las llamadas Probabilidades se definen de …

5
¿Cómo realizar la imputación de valores en una gran cantidad de puntos de datos?
Tengo un conjunto de datos muy grande y faltan alrededor del 5% de valores aleatorios. Estas variables están correlacionadas entre sí. El siguiente conjunto de datos R de ejemplo es solo un ejemplo de juguete con datos correlacionados ficticios. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

6
Si usa una estimación puntual que maximiza , ¿qué dice eso sobre su filosofía? (Frecuente o bayesiano o algo más?)
Si alguien dijera "Ese método utiliza el MLE, la estimación puntual para el parámetro que maximiza , por lo tanto, es frecuentista; y además no es bayesiano".P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) estarías de acuerdo? Actualización sobre los antecedentes : Hace poco leí un artículo que dice ser frecuente. No …

3
Probabilidad versus distribución condicional para análisis bayesiano
Podemos escribir el teorema de Bayes como p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} donde es la posterior, es la distribución condicional y es la anterior.f ( X | θ ) p ( θ )p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) o p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} donde es la posterior, es la función de probabilidad y es la anterior.L …

3
¿Por qué la probabilidad en el filtro de Kalman se calcula utilizando resultados de filtro en lugar de resultados más suaves?
Estoy usando el filtro de Kalman de una manera muy estándar. El sistema está representado por la ecuación de estado xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1} y la ecuación de observación yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} . Los libros de texto enseñan que después de aplicar el filtro de Kalman y conseguir las "previsiones de un solo paso-a x^t|t−1x^t|t−1\hat{x}_{t|t-1} …




2
¿Por qué no utilizar el teorema de Bayes en el formulario?
Hay muchas preguntas (como esta ) sobre cierta ambigüedad con la fórmula bayesiana en caso continuo. p(θ|x)=p(x|θ)⋅p(θ)p(x)p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} A menudo, la confusión surge del hecho de que la definición de distribución condicional se explica como siendo función de la dada un fijo .f(variable|parameter)f(variable|parameter)f(variable …

1
Valores P y principio de probabilidad
Esta pregunta surgió en clase: si usamos valores p para evaluar hipótesis en un experimento, ¿qué parte del Principio de Probabilidad no estamos obedeciendo: Suficiencia o Condicionalidad ? Mi intuición sería decir Suficiencia , ya que calcular un valor p se basa en resultados no observados de un experimento, y …

4
¿Cómo interpreto una curva de supervivencia del modelo de riesgo de Cox?
¿Cómo interpreta una curva de supervivencia del modelo de riesgo proporcional de Cox? En este ejemplo de juguete, supongamos que tenemos un modelo de riesgo proporcional de Cox ageen kidneydatos variables y generamos la curva de supervivencia. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Por ejemplo, en el …

1
¿Es una estimación bayesiana con un "plano anterior" lo mismo que una estimación de máxima verosimilitud?
En filogenética, los árboles filogenéticos a menudo se construyen usando MLE o análisis bayesiano. A menudo, se utiliza un previo plano en la estimación bayesiana. Según tengo entendido, una estimación bayesiana es una estimación de probabilidad que incorpora un previo. Mi pregunta es, si usa un plano anterior, ¿es diferente …


2
Robusto estimador MCMC de probabilidad marginal?
Estoy tratando de calcular la probabilidad marginal de un modelo estadístico por los métodos de Monte Carlo: F( x ) = ∫F( x ∣ θ ) π( θ )reθF(X)=∫F(X∣θ)π(θ)reθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta La probabilidad es de buen comportamiento - suave, cóncavo logarítmico - pero de alta dimensión. He …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.