Capacidad del canal AWGN


9

Estoy confundido al entender conceptos básicos de comunicación a través de canales AWGN. Sé que la capacidad de un canal AWGN de ​​tiempo discreto es:

C=12log2(1+SN)
y se logra cuando la señal de entrada tiene distribución gaussiana. Pero, ¿qué significa que la señal de entrada es gaussiana? ¿Significa que la amplitud de cada símbolo de una palabra de código debe tomarse de un conjunto gaussiano? ¿Cuál es la diferencia entre usar un libro de códigos especial (en este caso gaussiano) y modular la señal con señalización M-ary, por ejemplo, MPSK?

Respuestas:


11

Suponiendo un canal cuya entrada en cada momento es una variable aleatoria continua X y su salida es Y=X+Z, dónde ZN(0,N) y Z es independiente de X, entonces

CCI-AWGN=12log2(1+PN)
es la capacidad del canal de entrada continua bajo la restricción de potencia
EX2P
La información mutua I(X;Y) está maximizado (y es igual a CCI-AWGN) cuando XN(0,P).

Esto significa que si Xes una variable aleatoria gaussiana continua con la varianza dada, entonces la salida tiene la mayor información mutua posible con la entrada. ¡Eso es!

Cuando la variable de entrada Xestá discretizado (cuantificado), se requiere una nueva formulación. De hecho, las cosas pueden volverse difíciles fácilmente. Para verlo un poco, uno puede considerar el caso simple de una descritización muy grosera deXdonde solo puede tener dos valores. Entonces asume queX se selecciona de un alfabeto binario, por ejemplo, let X{±1}(o una versión a escala para satisfacer una restricción de potencia). En términos de modulación, es idéntico a BPSK.

Resulta que la capacidad (incluso en este caso simple) no tiene forma cerrada. Reporto de "Modern Coding Theory" de Richardson y Urbanke:

CBI-AWGN=1+1ln(2)((2N1)Q(1N)2πNe12N+i=1(1)ii(i+1)e2i(i+1)NQ(1+2iN))
Una comparación entre los dos casos se puede ver en la figura a continuación:

ingrese la descripción de la imagen aquí


¿Qué harías si quisieras acercarte a la capacidad? utilizando un esquema de PSK de orden superior?
Mah

@msm Siempre he creído que FEC es un concepto general que incluye H-ARQ, o H-ARQ es solo un truco para reducir la longitud de la palabra de código por transmisión, es decir, reducir la complejidad de la decodificación, con el costo de un tiempo de transmisión total más largo, no es asi
AlexTP

@msm ¡Por favor, deja de eliminar tus viejas y valiosas publicaciones!
Peter K.

@msm Cuando te registraste en SP.SE, le diste al sitio una licencia irrevocable para usar el contenido. Por favor, deja de eliminar tu valioso contenido.
Peter K.

7

La fórmula de la capacidad

(1)C=0.5log(1+SN)
es para canal de tiempo discreto.

Suponiendo que tiene una secuencia de datos {an} para enviar, necesita un conjunto de forma de onda ortonormal {ϕn(t)}para modulación En la modulación lineal, a quien pertenece la modificación M-aria,ϕn(t)=ϕ(tnT) dónde T es la duración del símbolo y ϕ(t) es la forma de onda prototipo para que la señal TX de tiempo continuo de banda base se convierta

(2)x(t)=nanϕ(tnT)

Las modulaciones típicas usan el caso especial que {ϕn(t)}Satisface el criterio de Nyquist ISI con filtro adaptado para recuperaran. Una bien conocidaϕ(t)Raíz es coseno elevado .

El canal continuo AWGN es un modelo que

(3)y(t)=x(t)+n(t)

dónde n(t) es un proceso estocástico blanco gaussiano.

De (2), podemos ver que an es la proyección de x(t) en {ϕn(t)}. Haz lo mismo conn(t), las proyecciones de n(t) en un conjunto ortonormal hay una secuencia de variables aleatorias iid gaussianas wn=n(t),ϕn(t) (Realmente creo que n(t)se define a partir de sus proyecciones); y llamayn=y(t),ϕn(t). Voilà, tenemos un modelo de tiempo discreto equivalente

(4)yn=an+wn

La fórmula (1) se indica para S y N son energía (varianza si an y wn son cero medias) de an y wn, respectivamente. Sian y wn son gaussianos, también lo son yny la capacidad se maximiza. (Puedo agregar una prueba simple si quieres).

¿Qué significa que la señal de entrada es gaussiana? ¿Significa que la amplitud de cada símbolo de una palabra de código debe tomarse de un conjunto gaussiano?

Significa variables aleatorias an son gaussianos

¿Cuál es la diferencia entre usar un libro de códigos especial (en este caso gaussiano) y modular la señal con señalización M-ary, por ejemplo, MPSK?

La forma de onda ϕn(t) el conjunto debe ser ortonormal, lo cual es cierto para M-PSK, de modo que wn es iid gaussiano.

Actualizar sin embargoanestá cuantificado así que en general, ya no es gaussiano Hay algunas investigaciones sobre este tema, como el uso de la codificación gaussiana de celosía (enlace) .


@msm Me refería al canal "tiempo discreto". Sí, estas variables aleatorias son continuas, su soporte es continuo. He hablado sobre el tiempo continuo y el tiempo discreto porque el autor preguntó sobre la modulación.
AlexTP

@msm my (3) es continuo y (4) es el discreto equivalente. Físicamente en una escala no cuántica, estamos en (3). Para analizar, utilizamos (4). Estamos hablando de dos cosas diferentes, supongo. He editado mi respuesta para usar la terminología correcta.
AlexTP

1
@msm vio su respuesta y descubrió que entendí mal lo que el autor de la pregunta quería preguntar sobre la modulación y lo que me está diciendo. He actualizado mi respuesta para evitar la parte engañosa. Gracias.
AlexTP

"Realmente creo que n (t) se define a partir de sus proyecciones". El problema es que el ruido blanco tiene dimensiones infinitas. Lo interesante es que, por el problema de recuperaran, solo la proyección en ϕn(t)es relevante: todas las demás proyecciones infinitas posibles no ayudan. Ver el "teorema de la irrelevancia".
MBaz

@MBaz sí, estoy de acuerdo. El teorema de la irrelevancia y el teorema del muestreo son la pareja para establecer un modelo de canal de tiempo discreto básico. La parte ortogonal no está correlacionada, por lo tanto, es independiente bajo la suposición gaussiana. Sin embargo, creo que no modificaría mi respuesta porque este material de proyección no se relaciona directamente con la pregunta. Gracias por dejarlo claro.
AlexTP

3

Decir que la señal de entrada tiene una distribución gaussiana significa que se distribuye como una variable aleatoria gaussiana. En la práctica, uno se basa en la codificación en varias instancias del canal (en el tiempo) en lugar de confiar en una distribución de entrada gaussiana. Hay una hermosa teoría llena de pruebas que está más allá del alcance de esta respuesta (Teoría de la información). Los códigos de control de errores (o códigos de canal) generalmente se basan en el uso de modulaciones familiares QAM / PSK, pero a través de la redundancia del código y los usos de múltiples canales, pueden acercarse (aunque no del todo) a la capacidad del canal. A continuación se proporciona un bosquejo del razonamiento (sin detalles completos).

La definición de capacidad del canal es

C=suppX(x)I(X;Y)
dónde X puede referirse libremente como su variable aleatoria de entrada, y Y puede referirse libremente como su variable aleatoria de salida, y I(,)es la información mutua deX y Y. Esta definición requiere que busquemos sobre todas las distribuciones posibles de la entradapX(x)para distribuciones que maximizan la información mutua. El canal discreto AWGN tiene una relación de entrada / salida definida como
Y=X+Z
dónde Z es un gaussiano medio cero con varianza σZ2 (Darse cuenta de σZ2=N y σX2=Sen tu notación). No tengo tiempo para proporcionar todos los detalles en este momento. Sin embargo, cualquier libro sobre teoría de la información puede guiarlo a través de la prueba que muestra que siX se distribuye como un gaussiano entonces I(X;Y) (la información mutua de X y Y) está maximizado. Por ejemplo, vea Elementos de la teoría de la información por Thomas Cover. Si aún no lo ha leído, el tratado original de Shannon Una teoría matemática de la comunicación es una lectura que vale la pena con un razonamiento claro en todo momento.

¿No se dan razones para el voto negativo?
saltos
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.