Preguntas etiquetadas con information-theory

2
Relación entre entropía y SNR
En general, cualquier forma de enropia se define como incertidumbre o aleatoriedad. En un entorno ruidoso, con un aumento del ruido, creo que la entropía aumenta, ya que no estamos seguros del contenido de la información de la señal deseada. ¿Cuál es la relación entre entropía y SNR? Con el …

3
Capacidad del canal AWGN
Estoy confundido al entender conceptos básicos de comunicación a través de canales AWGN. Sé que la capacidad de un canal AWGN de ​​tiempo discreto es: C=12log2(1+SN)C=12log2⁡(1+SN)C=\frac{1}{2}\log_2\left(1+\frac{S}{N}\right) y se logra cuando la señal de entrada tiene distribución gaussiana. Pero, ¿qué significa que la señal de entrada es gaussiana? ¿Significa que la …




1
Problemas relacionados con la entropía
Durante mucho tiempo me he enfrentado con la confusión con respecto a la entropía y estaría obligado si las siguientes respuestas se responden en una jerga menos técnica. Siguiendo el enlace Diferentes tipos de entropía plantea las siguientes preguntas Entropía: se desea que la entropía del sistema se maximice. Maximizar …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.