Preguntas etiquetadas con probability

Una probabilidad proporciona una descripción cuantitativa de la ocurrencia probable de un evento particular.





1
Intuitivamente, ¿por qué la entropía cruzada es una medida de la distancia de dos distribuciones de probabilidad?
Para dos distribuciones discretas y , la entropía cruzada se define comopppqqq H(p,q)=−∑xp(x)logq(x).H(p,q)=−∑xp(x)log⁡q(x).H(p,q)=-\sum_x p(x)\log q(x). Me pregunto por qué esto sería una medida intuitiva de la distancia entre dos distribuciones de probabilidad. Veo que es la entropía de , que mide la "sorpresa" de . es la medida que reemplaza …


2
¿Por qué funciona la convolución?
Entonces sé que si queremos encontrar la distribución de probabilidad de una suma de variables aleatorias independientes X+YX+YX + Y , podemos calcularla a partir de las distribuciones de probabilidad de XXX e YYY , diciendo fX+Y(a)=∫∞x=−∞fX,Y(X=x,Y=a−x) dx=∫∞x=−∞fX(x)fY(a−x) dxfX+Y(a)=∫x=−∞∞fX,Y(X=x,Y=a−x) dx=∫x=−∞∞fX(x)fY(a−x) dxf_{X + Y}(a) = \int_{x = -\infty}^{\infty} f_{X, Y}(X = …




3
¿Cómo actualiza un Bayesiano su creencia cuando sucede algo con probabilidad 0?
Definir X:=X:=X:= "la moneda tiene probabilidad 1 de aterrizar cabezas" Suponga que uno tiene la creencia previa: P(X)=1P(X)=1P(X)= 1. Sin embargo, después de lanzar la moneda una vez que aterriza cruz (E:=E:=E:= "Colas de monedas"). ¿Cómo debe un bayesiano actualizar sus creencias para mantenerse coherente? P(X|E)P(X|E)P(X|E) es indefinido, como P(E)=0P(E)=0P(E) …

2
Varianza del máximo de variables aleatorias gaussianas
Dadas variables aleatorias X1,X2,⋯,XnX1,X2,⋯,XnX_1,X_2, \cdots, X_n iid muestreado de ∼N(0,σ2)∼N(0,σ2)\sim \mathcal{N}(0, \sigma^2), definir Z=maxi∈{1,2,⋯,n}XiZ=maxi∈{1,2,⋯,n}XiZ = \max_{i \in \{1,2,\cdots, n \}} X_i Tenemos eso E[Z]≤σ2logn−−−−−√E[Z]≤σ2log⁡n\mathbb{E}[Z] \le \sigma \sqrt{2 \log n}. Me preguntaba si hay límites superiores / inferiores enVar(Z)Var(Z)\text{Var}(Z)?

2
¿Cuál es la probabilidad de que
Suponga que XXX e YYY son bivariadas normales con media μ=(μ1,μ2)μ=(μ1,μ2)\mu=(\mu_1,\mu_2) y covarianza Σ=[σ11σ12σ12σ22]Σ=[σ11σ12σ12σ22]\Sigma = \begin{bmatrix} \sigma_{11} & \sigma_{12} \\ \sigma_{12} & \sigma_{22} \\ \end{bmatrix} . ¿Cuál es la probabilidad Pr(X&lt;Y|min(X,Y))Pr(X&lt;Y|min(X,Y))\Pr\left(X<Y|\min\left(X,Y\right)\right) ?

1
Probabilidades negativas: explicaciones laicas
Estaba muy intrigada por la respuesta aquí. Me gustaría tener una explicación más laica de lo que podrían significar las probabilidades negativas y sus aplicaciones, posiblemente con ejemplos. Por ejemplo, ¿qué significaría para un evento tener probabilidad -10%, de acuerdo con estas medidas extendidas de probabilidad?

2
Distribución y varianza del conteo de triángulos en gráfico aleatorio
Considere un gráfico aleatorio de Erdos-Renyi . El conjunto de vértices está etiquetado por . El conjunto de aristas se construye mediante un proceso aleatorio.G = (V( n ) , E( p ) )sol=(V(norte),mi(pag))G=(V(n),E(p))nortenortenVVVV={1,2,…,n}V={1,2,…,n}V = \{1,2,\ldots,n\}EEE Sea una probabilidad , entonces cada par desordenado de vértices ( ) ocurre como …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.