Resolución de imagen creciente


12

Sé de algunos osciloscopios ( DSA8300 ) que muestrean repetidamente a unos pocos cientos de kS / s para reconstruir algunas señales de GHz. Me preguntaba si esto podría extenderse a señales 2D (fotografías). ¿Puedo tomar una serie (digamos 4) de imágenes fijas usando una cámara comercial de 16MP para finalmente reconstruir una imagen de 32MP? ¿Al hacer esto se eliminarán los alias que tengo de cada imagen?

Si se intentara algo así desde una sola imagen, obviamente no funcionaría ya que no se está introduciendo nueva información. Si todas las imágenes tomadas son absolutamente idénticas, ¿seguiré estando en el mismo punto que teniendo una imagen? Entonces, ¿son esenciales las variaciones? ¿Es el ruido CCD / CMOS suficiente variación para que tal cosa funcione?

¿Hay un nombre para tal técnica o algoritmo? ¿Que debería buscar?


El ruido CCD no lo ayudaría, pero el movimiento físico de la cámara sí. Tomar varias fotos de una escena idéntica con una cámara idéntica en una posición idéntica solo le permitirá reducir el ruido, no reducir el alias. Todavía estás midiendo los mismos puntos. Sin embargo, tomar imágenes compensadas por menos de un píxel entre sí, le daría una frecuencia de muestreo efectivamente más alta, ayudando a eliminar el aliasing.
endolito el

Tengo una Nikon DX con un ancho de 23,6 mm y tiene 4928 píxeles en esa dimensión. Esto explica el ancho de cada fotosite en el sensor ~ 4.7889 micras. Entonces, ¿debo mover mi cámara a lo largo del eje de ancho por fracciones de esta cantidad? ¿Digo 10 fotos moviendo mi cámara 0,47 micras cada vez? ¿Y lo mismo a lo largo de la altura? Esto difícilmente suena como un proyecto de fin de semana con motores paso a paso listos para usar: '- (
Lord Loh.

Después de pensarlo, me preguntaba, ¿puedo usar varias fotos de una sola toma de Light Field Camera ( Lytro ) con diferentes planos focales para reconstruir una imagen de súper resolución? Intuitivamente, creo que no funcionará: - /
Lord Loh.

1
No, depende de la distancia al objetivo, la óptica, etc. Imagine que un rayo sale disparado de cada píxel de su cámara, se dobla por el objetivo y golpea su objetivo, por lo que está cubierto por una cuadrícula rectangular de puntos. Esos son los puntos que ve cada píxel de la cámara. Si el objetivo es un muro cubierto de rayas, y las rayas se alternan varias veces entre cada uno de los puntos de la cuadrícula, entonces tendrá un alias.
endolito

Eso ahora tiene sentido :-) ¡un movimiento de 0.4 micrones en ese caso prácticamente no es movimiento!
Lord Loh

Respuestas:


8

Una palabra para esa técnica es superresolución .

Robert Gawron tiene una publicación de blog aquí y la implementación de Python aquí .

Por lo general, esta técnica se basa en que cada imagen esté ligeramente desplazada de las demás. La única ganancia que obtendría al no moverse entre disparos sería reducir el nivel de ruido.


¿Esto eliminará las partes con alias de la imagen? ¿Te gusta construir ventanas y redes finas? Si cada imagen tiene un alias, ¿se puede recuperar esa información perdida?
Lord Loh


4

Intuitivamente, si mueve el sensor pasos cada uno con el tamaño de de su resolución, puede obtener más resolución. Es como una representación polifásica de la señal.1N ×N1N×N

Usando métodos de estimación, cualquier movimiento que no sea una multiplicación entera (Evento con probabilidad cero) de la resolución del sensor, a saber, el movimiento fraccional puede usarse para reunir más datos y mejorar la resolución.

Por lo general, esos métodos se llaman Super Resolución, que es un nombre elegante para la representación y el muestreo de Poly Phase y son un subproblema en la familia Inverse Problem en el procesamiento de imágenes.

Sin embargo, preste atención a que muchos documentos tratan de Super Resolución, pero que en realidad resuelven un problema diferente (Desconvolución de una sola imagen).
Si bien el problema que está buscando también está en el campo de los problemas inversos, aún utiliza múltiples imágenes.

Creo que el método que está buscando se utiliza principalmente en la industria de la litografía.


Eso es lo que inicialmente pensé. Que tendría que moverme en un rango submicrométrico, pero esto - mathworks.com/matlabcentral/fileexchange/… no adopta ese enfoque y brinda una mejora de imagen decente - puede ser que esté obteniendo información de sitios de subfotos moviéndose la cámara ligeramente al azar en lugar de un movimiento sistemático de paso 1 / N.
Lord Loh

Hola, como escribí, usando técnicas de estimación, cualquier movimiento (a menos que sea una multiplicación entera de las celdas de los sensores) podría usarse para inferir más datos.
Royi

1

Otra palabra es "apilar". Se utiliza para reducir el ruido CCD, para aumentar la profundidad focal (apilando imágenes que se enfocan de manera ligeramente diferente), para mejorar fotos astronómicas con muy poca luz y para obtener un alto rango dinámico (HDR) de una serie de imágenes de rango normal. Ver

http://en.wikipedia.org/wiki/Focus_stacking

http://www.instructables.com/id/Astrophotography-Star-Photo-Stacking

http://en.wikipedia.org/wiki/High_dynamic_range_imaging

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.