Preguntas etiquetadas con conditional-probability

La probabilidad de que ocurra un evento A, cuando se sabe que otro evento B ocurre o ha ocurrido. Se denota comúnmente por P (A | B).


2
Derivando las distribuciones condicionales de una distribución normal multivariante
Tenemos un vector normal multivariado Y∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma) . Considere la posibilidad de particionar μμ\boldsymbol\mu y YY{\boldsymbol Y} en μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} con una partición similar de ΣΣ\Sigma en [Σ11Σ21Σ12Σ22][Σ11Σ12Σ21Σ22] \begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} …

3
Un ejemplo: regresión LASSO usando glmnet para el resultado binario
Estoy empezando a incursionar con el uso de glmnetla LASSO regresión donde mi resultado de interés es dicotómica. He creado un pequeño marco de datos simulados a continuación: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

4
¿Cómo generar números aleatorios correlacionados (medias, variaciones y grado de correlación dados)?
Lo siento si esto parece demasiado básico, pero supongo que solo estoy buscando confirmar la comprensión aquí. Tengo la sensación de que tendría que hacer esto en dos pasos, y he comenzado a tratar de asimilar las matrices de correlación, pero está empezando a parecer realmente complicado. Estoy buscando una …

3
Una generalización de la Ley de Expectativas Iteradas
Recientemente me encontré con esta identidad: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Por supuesto, estoy familiarizado con la versión más simple de esa regla, a saber, que pero no pude encontrar justificación para su generalizaciónE[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) Estaría agradecido si …


13
¿Cuál es la intuición detrás de la fórmula para la probabilidad condicional?
La fórmula para la probabilidad condicional de que ocurra dado que ha sucedido es:AA\text{A}BB\text{B}P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. Mi libro de texto explica la intuición detrás de esto en términos de un diagrama de Venn. Dado que ha ocurrido, la única manera de que ocurra es que …

3



2
La paradoja de los datos de iid (al menos para mí)
En cuanto a mi agregada (y escasos) conocimientos sobre estadísticas permisos, entendí que si X1,X2,...,XnX1,X2,...,XnX_1, X_2,..., X_n son variables aleatorias iid, luego, como el término implica, son independientes y están distribuidas de manera idéntica. Mi preocupación aquí es la antigua propiedad de muestras iid, que dice: p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}), para …

4
Monty Hall Problema con un Monty Falible
Monty sabía perfectamente si la Puerta tenía una cabra detrás (o estaba vacía). Este hecho permite al jugador duplicar su tasa de éxito a lo largo del tiempo al cambiar las "conjeturas" a la otra puerta. ¿Y si el conocimiento de Monty fuera menos que perfecto? ¿Qué pasa si a …




Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.