Respuesta larga:
Modelemos el flujo de información de su IIR "oculto" X a su salida observable Y como
X⟶Y
Luego, llamamos a la cantidad de información que obtiene por observación la * información mutua I(X;Y); esa información es la reducción de la incertidumbre sobreX a lograr observando Y.
Llamamos a la incertidumbre esperada de algo la entropía , en su caso, la incertidumbre sobreX es su entropía y típicamente se denota como H(X).
Ahora, lo bueno de todo esto es que H(X|Y), es decir, la "incertidumbre sobre X eso queda cuando sabes Y", en realidad es solo la entropía de X menos la información que obtienes, entonces:
H(X|Y)=H(X)−I(X;Y).(1)
El objetivo del atacante es reducir la incertidumbre que aún tiene sobre X a 0.
Ahora, dado que cualquier señal que "excite" todas las funciones propias de un sistema puede caracterizar completamente el sistema, eso significa que solo necesitamos enviar el conjunto completo de funciones propias a través de su IIR. Y dado que su IIR es un sistema LTI, resulta ser el vector que contiene todas las oscilaciones de cualquier frecuencia representable.
Puede reducir la cantidad de información que un atacante puede obtener sobre su sistema insertando ruido artificialmente. Información teórica, esto aumenta su irrelevanciaH(Y|X) (incluso si supieras X, no lo sabrías al 100% Y, porque se agrega ruido).
La información mutua I(X;Y) como se usa en (1) es simétrico, es decir I(X;Y)=I(Y;X); por lo tanto sigue
H(Y|X)H(X|Y)=H(Y)−I(X;Y)=(1)H(Y)−(H(X)−H(X|Y))=H(Y)−H(X)+H(X|Y)=H(Y|X)+H(X)−H(Y)(2)
Su objetivo era detener a un ingeniero inverso, es decir, maximizar H(X|Y).
Ya que H(X) es fijo (tiene algunos coeficientes que pueden tomar algunos valores, por lo que es una cantidad de bits), su única forma de ajustar esta función objetivo es aumentar H(Y|X). Y la única forma de hacerlo es insertando variaciones verdaderamente aleatorias en su salida.