Preguntas etiquetadas con self-study

Un ejercicio de rutina de un libro de texto, curso o examen utilizado para una clase o autoaprendizaje. La política de esta comunidad es "proporcionar consejos útiles" para tales preguntas en lugar de respuestas completas.

1
Construcción de distribución Dirichlet con distribución Gamma.
Supongamos que X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} son variables aleatorias mutuamente independientes, cada una con una distribución gamma con parámetros αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 muestra que Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,k, tienen una distribución conjunta comoDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) PDF conjunto de Luego para encontrar la articulación pdf de No puedo encontrar jacobian, es decir,(X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})}(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})J(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})



1
Una prueba de la estacionariedad de un AR (2)
Considere un proceso AR (2) centrado en la media Xt=ϕ1Xt−1+ϕ2Xt−2+ϵtXt=ϕ1Xt−1+ϕ2Xt−2+ϵtX_t=\phi_1X_{t-1}+\phi_2X_{t-2}+\epsilon_t donde ϵtϵt\epsilon_t es el proceso estándar de ruido blanco. Sólo por razones de simplicidad déjame llamar ϕ1=bϕ1=b\phi_1=b y ϕ2=aϕ2=a\phi_{2}=a . Centrándome en las raíces de la ecuación de características obtuve z1,2=−b±b2+4a−−−−−−√2az1,2=−b±b2+4a2az_{1,2}=\frac{-b\pm\sqrt{b^2+4a}}{2a} Las condiciones clásicas en los libros de texto son …

2
¿Cómo calculo la varianza del estimador OLS , condicional en ?
Sé que y esto es lo lejos que llegué cuando la varianza:β0^=y¯−β1^x¯β0^=y¯−β1^x¯\hat{\beta_0}=\bar{y}-\hat{\beta_1}\bar{x} Var(β0^)=Var(y¯−β1^x¯)=Var((−x¯)β1^+y¯)=Var((−x¯)β1^)+Var(y¯)=(−x¯)2Var(β1^)+0=(x¯)2Var(β1^)+0=σ2(x¯)2∑i=1n(xi−x¯)2Var(β0^)=Var(y¯−β1^x¯)=Var((−x¯)β1^+y¯)=Var((−x¯)β1^)+Var(y¯)=(−x¯)2Var(β1^)+0=(x¯)2Var(β1^)+0=σ2(x¯)2∑i=1n(xi−x¯)2\begin{align*} Var(\hat{\beta_0}) &= Var(\bar{y} - \hat{\beta_1}\bar{x}) \\ &= Var((-\bar{x})\hat{\beta_1}+\bar{y}) \\ &= Var((-\bar{x})\hat{\beta_1})+Var(\bar{y}) \\ &= (-\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= (\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= \frac{\sigma^2 (\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} \end{align*} Pero eso es lo que llegué. …


3
¿Por qué necesitamos Bootstrapping?
Actualmente estoy leyendo "Todas las estadísticas" de Larry Wasserman y estoy desconcertado por algo que escribió en el capítulo sobre la estimación de funciones estadísticas de modelos no paramétricos. El escribio "A veces podemos encontrar el error estándar estimado de una función estadística haciendo algunos cálculos. Sin embargo, en otros …

4
Valor esperado de la mediana muestral dada la media muestral
Deje denotar la mediana y deje que denote la media de una muestra aleatoria de tamaño de una distribución que es N (\ mu, \ sigma ^ 2) . ¿Cómo puedo calcular E (Y | \ bar {X} = \ bar {x}) ?YYYX¯X¯\bar{X}n=2k+1n=2k+1n=2k+1N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Intuitivamente, debido al supuesto de normalidad, tiene …



1
¿Derivación del cambio de variables de una función de densidad de probabilidad?
En el libro de reconocimiento de patrones y aprendizaje automático (fórmula 1.27), da dondex=g(y),px(x)es el pdf que corresponde apy(y)py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) |x=g(y)x=g(y)x=g(y)px(x)px(x)p_x(x)py(y)py(y)p_y(y) con respecto al cambio de la variable. Los libros dicen que es porque las observaciones que caen en el rango , …

4
Modelo lineal clásico - selección de modelo
Tengo un modelo lineal clásico, con 5 posibles regresores. No están correlacionados entre sí y tienen una correlación bastante baja con la respuesta. Llegué a un modelo donde 3 de los regresores tienen coeficientes significativos para su estadística t (p <0.05). Agregar una o las dos variables restantes da valores …

2
El pdf de
Supongamos que X1,X2,...,XnX1,X2,...,XnX_1, X_2,...,X_n se iid de N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) con desconocido μ∈Rμ∈R\mu \in \mathcal Ry σ2>0σ2>0\sigma^2>0 Deje Z=X1−X¯S,Z=X1−X¯S,Z=\frac{X_1-\bar{X}}{S},S es la desviación estándar aquí. Se puede demostrar que ZZZ tiene el pdf de Lebesgue f(z)=n−−√Γ(n−12)π−−√(n−1)Γ(n−22)[1−nz2(n−1)2]n/2−2I(0,(n−1)/n√)(|Z|)f(z)=nΓ(n−12)π(n−1)Γ(n−22)[1−nz2(n−1)2]n/2−2I(0,(n−1)/n)(|Z|)f(z)=\frac{\sqrt{n} \Gamma\left(\frac{n-1}{2}\right)}{\sqrt{\pi}(n-1)\Gamma\left(\frac{n-2}{2}\right)}\left[1-\frac{nz^2}{(n-1)^2}\right]^{n/2-2}I_{(0,(n-1)/\sqrt{n})}(|Z|) Mi pregunta es, entonces, ¿cómo obtener este pdf? La pregunta es de aquí en el ejemplo …
15 self-study  umvue 

2
Simulación de sorteos de una distribución uniforme utilizando sorteos de una distribución normal
Recientemente compré un recurso de entrevista de ciencia de datos en el que una de las preguntas de probabilidad era la siguiente: Dados sorteos de una distribución normal con parámetros conocidos, ¿cómo puede simular sorteos de una distribución uniforme? Mi proceso de pensamiento original fue que, para una variable aleatoria …

1
¿Cuál es la intuición detrás de las muestras intercambiables bajo la hipótesis nula?
Las pruebas de permutación (también llamadas prueba de aleatorización, prueba de aleatorización o prueba exacta) son muy útiles y resultan útiles cuando t-testno se cumple el supuesto de distribución normal requerido por ejemplo y cuando se transforman los valores mediante la clasificación de prueba no paramétrica como Mann-Whitney-U-testconduciría a la …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.