¿Cuál es el factor de normalización para la transformada wavelet reticular quincunx y cómo lo encuentra?


9

En las páginas 57-60 (la vista previa estuvo disponible la última vez que verifiqué, imágenes aquí por si acaso), se describe una transformación reticular de quincunx.

Enrejado:

o • o • o • o •
• o • o • o • o
o • o • o • o •
• o • o • o • o
o • o • o • o •
• o • o • o • o
o • o • o • o •
• o • o • o • o

Básicamente haces estas operaciones de predicción en los puntos negros:

x[ m][n ] -= 1/4 * ( LEFT + RIGHT + DOWN + UP )

Donde , , , .R I G H T = x [ m ] [ n + 1 ] D O W N = x [ m + 1 ] [ n ] U P = x [ m - 1 ] [ n ]LEFT=x[m][n1]RIGHT=x[m][n+1]DOWN=x[m+1][n]UP=x[m1][n]

Luego haces actualizaciones en los puntos blancos:

x[ m][n] += 1/8 * ( LEFT + RIGHT + DOWN + UP )

Entonces nunca volverá a tocar los valores negros, por lo que efectivamente tiene:

o x o x o x o x
x o x o x o x o
o x o x o x o x
x o x o x o x o
o x o x o x o x
x o x o x o x o
o x o x o x o x
x o x o x o x o

Gira la cabeza 45 grados para ver que esto es solo otra red rectangular, y las etiqueta como impares / pares nuevamente:

o   o   o   o 
  •   •   •   •
o   o   o   o 
  •   •   •   •
o   o   o   o 
  •   •   •   •
o   o   o   o 
  •   •   •   •

Repite esto una y otra vez, hasta que le quede 1 "promedio".

Ahora en la transformada wavelet de Haar, hay una pérdida de potencia en cada nivel que corregimos con un factor de normalización de √2 .

Aquí, hay un factor de pérdida de potencia calculada de aproximadamente 1.4629 después del primer paso del primer nivel (encontrado ejecutando 5,000,000 transformaciones en datos aleatorios y encontrando la relación de potencia Antes / potencia Después y promediando).

No sé cómo mostrar / calcular cómo se encuentra esta pérdida de potencia y de dónde proviene el número 1.46.


Probablemente sea solo otro normalizador de potencia. ¿Se conserva su energía?
Spacey

¿En qué tamaños de imagen de datos aleatorios probaste? ¿Podría suceder que 1.4629 esté en realidad disfrazado, debido a los efectos de borde? 2
Laurent Duval

Respuestas:


0

No creo que haya un mejor número para la normalización porque depende de la estructura de los valores en su red.

En el caso más simple donde todos los valores son iguales, la operación de predicción pone a cero los puntos negros y la actualización no cambia los puntos blancos. Debido a que cada par de predicción-actualización reduce a la mitad el número de puntos distintos de cero, multiplicando la red por sqrt (2) después de cada par de pasos ahorraría energía.

Con todos los valores independientes con media cero e igual varianza, el paso de predicción multiplica la varianza de los puntos negros por 5/4 y luego el paso de actualización multiplica la varianza de los puntos blancos por 281/256 para que la energía aumente en cada paso.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.