Preguntas etiquetadas con it.information-theory

Preguntas en teoría de la información



3
¿Cuál es el volumen de información?
Esta pregunta se le hizo a Jeannette Wing después de su presentación PCAST sobre informática. “Desde una perspectiva física, ¿hay un volumen máximo de información que podamos tener?” (Una buena pregunta desafiante para la comunidad teórica de la informática ya que creo que plantea la pregunta “¿Qué es la información?”) …


1
¿Buenos códigos decodificables por circuitos de tamaño lineal?
Estoy buscando códigos de corrección de errores del siguiente tipo: códigos binarios con tasa constante, decodificable a partir de una fracción constante de errores, por un decodificador implementable como un circuito booleano de tamaño , donde es la longitud de codificación.O ( N)O(norte)O(N)nortenorteN Algunos antecedentes: Spielman, en códigos de corrección …





5
¿La utilidad de las entropías de Renyi?
La mayoría de nosotros estamos familiarizados, o al menos hemos oído hablar, de la entropía de Shannon de una variable aleatoria, H(X)=−E[logp(X)]H(X)=-mi[Iniciar sesión⁡pag(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] , y todas las medidas teóricas relacionadas con la información, como la entropía relativa, información mutua, etc. Hay algunas otras medidas de …

4
¿Es la equivalencia eta para funciones compatible con la operación seq de Haskell?
Lema: Suponiendo equivalencia eta tenemos eso (\x -> ⊥) = ⊥ :: A -> B. Prueba: ⊥ = (\x -> ⊥ x)por equivalencia eta y (\x -> ⊥ x) = (\x -> ⊥)por reducción bajo la lambda. El informe Haskell 2010, sección 6.2 especifica la seqfunción mediante dos ecuaciones: seq …



1
Entropía y complejidad computacional
Hay investigadores que muestran que el bit de borrado tiene que consumir energía, ¿hay alguna investigación sobre el consumo promedio de energía del algoritmo con complejidad computacional ? Supongo que la complejidad computacional está correlacionada con el consumo promedio de energía, espero poder obtener alguna respuesta aquí.F(n)F(n)F(n)F(n)F(n)F(n)

1
La entropía de una convolución sobre el hipercubo
Digamos que tenemos una función f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R} , de modo que ∑x∈Zn2f(x)2=1∑x∈Z2nf(x)2=1\sum _{x\in \mathbb{Z}_2^n} f(x)^2 = 1 (por lo que podemos pensar en como una distribución). Es natural definir la entropía de dicha función de la siguiente manera: {f(x)2}x∈Zn2{f(x)2}x∈Z2n\{ f(x)^2\} _{x\in \mathbb{Z}_2^n}H(f)=−∑x∈Zn2f(x)2log(f(x)2).H(f)=−∑x∈Z2nf(x)2log⁡(f(x)2).H(f) = -\sum _{x \in \mathbb{Z}_2^n} f(x)^2 \log …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.