Durante mucho tiempo me he enfrentado con la confusión con respecto a la entropía y estaría obligado si las siguientes respuestas se responden en una jerga menos técnica. Siguiendo el enlace Diferentes tipos de entropía plantea las siguientes preguntas
- Entropía: se desea que la entropía del sistema se maximice. Maximizar la entropía significa que ningún símbolo es mejor que los demás o no sabemos cuál sería el próximo símbolo / resultado. Sin embargo, la fórmula establece un signo negativo antes de la suma de los logaritmos de probabilidad. ¡Por lo tanto, significa que estamos maximizando un valor negativo! Entonces, si se cuantifica una señal sin procesar original y se calcula la entropía de la información cuantificada y se determina que es menor que la entropía original, implicaría la pérdida de información. Entonces, ¿por qué queremos maximizar la entropía, ya que significaría que estamos maximizando la incertidumbre del siguiente símbolo, mientras que queremos estar seguros de cuál sería la próxima aparición del símbolo?
- ¿Cuáles son las diferencias entre la entropía de Shannon, la entropía topológica y la entropía fuente?
- ¿Cuál es exactamente el significado de la complejidad de Kolgomorov o la entropía de Kolgomorov? ¿Cómo se relaciona con la entropía de Shannon?
- ¿Qué información transmite la información mutua entre dos vectores?