Preguntas etiquetadas con convergence

La convergencia generalmente significa que una secuencia de una determinada cantidad de muestra se aproxima a una constante ya que el tamaño de la muestra tiende al infinito. La convergencia también es una propiedad de un algoritmo iterativo para estabilizarse en algún valor objetivo.

1
estimador consistente de root-n, pero root-n no converge?
He escuchado el término "estimador consistente" raíz-n "usado muchas veces. De los recursos que me han indicado, pensé que un estimador consistente "raíz-n" significaba que: el estimador converge en el valor verdadero (de ahí la palabra "consistente") el estimador converge a una velocidad de 1/n−−√1/n1/\sqrt{n} Esto me desconcierta, ya que …

4
¿Cómo interpreto una curva de supervivencia del modelo de riesgo de Cox?
¿Cómo interpreta una curva de supervivencia del modelo de riesgo proporcional de Cox? En este ejemplo de juguete, supongamos que tenemos un modelo de riesgo proporcional de Cox ageen kidneydatos variables y generamos la curva de supervivencia. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Por ejemplo, en el …

1
Topologías para las cuales el conjunto de distribuciones de probabilidad está completo
He estado luchando bastante para conciliar mi comprensión intuitiva de las distribuciones de probabilidad con las propiedades extrañas que poseen casi todas las topologías en las distribuciones de probabilidad. Por ejemplo, considere una variable aleatoria de mezcla : elija un gaussiano centrado en 0 con varianza 1 y con probabilidad …



4
(interactuando) MCMC para multimodal posterior
Estoy tratando de muestrear desde un posterior que tiene muchos modos, particularmente lejos de los demás, usando MCMC. Parece que en la mayoría de los casos, solo uno de estos modos contiene el 95% de HP que estoy buscando. Traté de implementar soluciones basadas en simulación templada, pero esto no …

1
Distribución limitante de
Dejar (Xn)(Xn)(X_n) ser una secuencia de iid N(0,1)N(0,1)\mathcal N(0,1)variables aleatorias. DefinirS0=0S0=0S_0=0 y Sn=∑nk=1XkSn=∑k=1nXkS_n=\sum_{k=1}^n X_k para n≥1n≥1n\geq 1. Encuentre la distribución limitante de1n∑k=1n|Sk−1|(X2k−1)1n∑k=1n|Sk−1|(Xk2−1)\frac1n \sum_{k=1}^{n}|S_{k-1}|(X_k^2 - 1) Este problema es de un libro de problemas sobre Teoría de la probabilidad, en el capítulo sobre el Teorema del límite central. Ya que Sk−1Sk−1S_{k-1} …

3
¿Cuándo e implica ?
La pregunta: Xn→dXXn→dXX_n\stackrel{d}{\rightarrow}X eYn→dY⟹?Xn+Yn→dX+YYn→dY⟹?Xn+Yn→dX+YY_n\stackrel{d}{\rightarrow}Y \stackrel{?}{\implies} X_n+Y_n\stackrel{d}{\rightarrow}X+Y Sé que esto no se cumple en general; El teorema de Slutsky solo se aplica cuando una o ambas convergencias tienen probabilidad. Sin embargo, ¿hay casos en los que se hace espera? Por ejemplo, si las secuencias e son independientes.XnXnX_nYnYnY_n

2
Punto técnico sobre convergencia con expectativa condicional
Tengo una secuencia de variables no negativas.XnXnX_n como: E(Xn|Cn)=Cnn2E(Xn|Cn)=Cnn2E(X_n|C_n)=\frac{C_n}{n^2} dónde CnCnC_n es una secuencia de variables aleatorias que convergen casi seguramente 111. Puedo concluir XnXnX_n tiende a 0 casi seguro? Nota: puedes reemplazar 1n21n2\frac{1}{n^2}por cualquier secuencia con suma finita. La pregunta sigue siendo esencialmente la misma y la respuesta proporcionada …

1
¿Por qué MAP converge a MLE?
En "Aprendizaje automático: una perspectiva probabilística" de Kevin Murphy, capítulo 3.2, el autor demuestra el concepto de aprendizaje bayesiano en un ejemplo llamado "juego de números": después de observar muestras de , queremos escoja una hipótesis que describa mejor la regla que generó las muestras. Por ejemplo, "números pares" o …



2
¿Qué es la convergencia de Epsilon en probabilidad?
Entiendo que la fórmula para la probabilidad de convergencia es y puedo resolver problemas usando la fórmula. ¿Alguien puede explicarlo intuitivamente (como si tuviera cinco años), particularmente en lo que respecta a ?P[|Xn−X∞|>ϵ]→0P[|Xn−X∞|>ϵ]→0P[|X_n − X_\infty| \gt \epsilon ]\to 0ϵϵ\epsilon

2
¿Cuáles son algunas de las razones por las que los mínimos cuadrados reponderados iterativamente no convergerían cuando se usaran para la regresión logística?
He estado usando la función glm.fit en R para ajustar parámetros a un modelo de regresión logística. Por defecto, glm.fit utiliza mínimos cuadrados repesados ​​de forma iterativa para ajustar los parámetros. ¿Cuáles son algunas razones por las cuales este algoritmo no podría converger, cuando se usa para la regresión logística?

1
Derivando el algoritmo K-means como límite de Maximización de Expectativas para Mezclas Gaussianas
Christopher Bishop define el valor esperado de la función de probabilidad de registro de datos completos (es decir, suponiendo que se nos dan tanto los datos observables X como los datos latentes Z) de la siguiente manera: EZ[lnp(X,Z∣μ,Σ,π)]=∑n=1N∑k=1Kγ(znk){lnπk+lnN(xn∣ μk,Σk)}(1)(1)EZ[ln⁡p(X,Z∣μ,Σ,π)]=∑n=1N∑k=1Kγ(znk){ln⁡πk+ln⁡N(xn∣ μk,Σk)} \mathbb{E}_\textbf{Z}[\ln p(\textbf{X},\textbf{Z} \mid \boldsymbol{\mu}, \boldsymbol{\Sigma}, \boldsymbol{\pi})] = \sum_{n=1}^N \sum_{k=1}^K \gamma(z_{nk})\{\ln …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.