¿Son suficientes 2 megapíxeles para imágenes con resolución HD?


12

Las imágenes HD tienen 1920x1080 = 2073600 píxeles = 2025 kilopixel = 1.98 megapíxeles.

¿Significa esto que podemos tomar fotos HD con una cámara de 2 MP? ¿Si no, porque no?


2
No para ser pedante, pero creo que la definición aceptada de megapíxeles es 1 millón de píxeles, no 1.048.576. Entonces HD tendría 2.07 MP
MikeW

10
Creo que, en general, debido al redondeo, realmente no importa si los "megapíxeles" son binarios o decimales. Megapixel es un término útil porque resulta estar en el rango donde obtenemos números pequeños útiles para las personas con las cámaras digitales (hasta ahora). Raramente se usa para significar un valor preciso : una cámara de 16 megapíxeles probablemente generará fotos con un tamaño ligeramente diferente al de otra marca. Por la misma razón básica, "kilopixel" no es una palabra real , porque no hay un caso particular en el que sería útil.
Lea mi perfil el

2
Básicamente sí. En la práctica, la mayoría de las personas no usan el término HD con fotografía, a menos que lo estén usando con fines de marketing, ya que las empresas parecen ansiosas de aplicar el término HD en todo hoy. Si está mostrando imágenes en un televisor de 1080p, sí, 2MP se verá genial.
dpollitt

En mi opinión, una alta resolución casi siempre es buena porque puedes recortar partes innecesarias que no necesitas y extraer las partes buenas de la foto. Si tiene que economizar en la resolución, entonces es más difícil tomar fotos generosamente.
mtahmed

Respuestas:


17

Si el eje largo de resolución es al menos 1920 y el borde corto al menos 1080, entonces sí, puede tomar imágenes HD sin tener que aumentar la escala.

Sin embargo, debido a los beneficios del sobremuestreo, obtendrá una mejor imagen HD al tomar una imagen de 16MP y luego cambiar el tamaño con el mejor método de cambio de tamaño disponible, por ejemplo, la interpolación de lanczos si está disponible.

Otro problema que puede encontrar es que una cámara de 2MP no se ha diseñado teniendo en cuenta imágenes de alta calidad (* a menos que esté hablando de algo como una Canon EOS D2000 de 1998 que tiene la relación de aspecto incorrecta, de todos modos), por lo que ahorraron costos al no solo el sensor, pero también el resto del sistema de imágenes: óptica de gama baja, ADC, procesamiento, etc., lo que produce una resolución total del sistema y un coeficiente intelectual más bajos.


3
Estaría dispuesto a apostar que el 90% de la población fotográfica que podría beneficiarse de esta pregunta no sabrá qué es la "interpolación de lanczos". ; PI usaría la frase "algo de reducción de escala básica en Photoshop", que es más que suficiente para promediar píxeles, reducir el ruido y mejorar la nitidez de una imagen de salida de 1920x1080.
jrista

¿Recuerdas mis pruebas de imagen de sobremuestreo en otra pregunta donde mostré que la textura fina persistiría en la versión reducida, mientras que disparar directamente a esa resolución no capturó la textura? Noté que el resultado final dependía del uso del mejor método de cambio de tamaño disponible. Creo que puedo escribir eso :)
Michael Nielsen

1
@jrista No sé cuál es la situación en los EE. UU., Pero aquí en Europa Lanczos y otros filtros basados ​​en el núcleo son parte del plan de estudios preescolar;)
Matt Grum

1
@jrista ¿Por qué no proporcionar más información? No sé qué es, pero como Michael lo mencionó, puedo investigar sobre métodos de interpolación para obtener más información.
Miridio

13

No, por el filtro Bayer. Realmente necesitarías alrededor de 11 megapíxeles.

Que es un filtro Bayer

Los sensores de cámara a color usan filtros Bayer para capturar los diferentes colores. El filtro Bayer reduce a la mitad la resolución del sensor para cada color (aunque el verde queda un poco más en un patrón de tablero de ajedrez).

Cada píxel en el sensor puede solamente capturar ya sea roja, luz verde o azul, pero no todos los tres colores. Un algoritmo de software necesita interpolar los datos más tarde para reconstruir la fotografía de resolución completa a todo color.

Demosaicing

Este proceso de interpolación (llamado demoaicing ) restaurará visualmente gran parte de la resolución perdida efectiva, haciendo que se vea bastante nítida nuevamente, pero solo puede hacerlo tomando conjeturas bastante inteligentes. No es lo mismo que si hubieras podido capturar la imagen en resolución completa en primer lugar.

Por ejemplo, si bien el demosaicing es bastante bueno para recuperar la nitidez perdida del filtro Bayer, cualquier detalle fino como el cabello, los patrones similares a peines o las rayas finas es probable que sufran aliasing , que puede aparecer como patrones de interferencia coloridos:

( fuente )

(Estas imágenes muestran algoritmos de demostración muy pobres en aras de la ilustración. Las cámaras modernas, incluso los teléfonos celulares, usan mucho más inteligentes).

Los algoritmos modernos de demosaicing son bastante inteligentes y pueden minimizar el efecto de aliasing, pero aún no pueden retener los detalles finos. Una cerca de piquete distante tomada con un sensor de color 1920x1080 conservará una resolución menos efectiva que una imagen RGB 1920x1080 generada por computadora o reducida de un sensor más grande o escaneada en un escáner.

Cómo esto afecta la resolución

(y cómo se me ocurrió la cifra de "11 megapíxeles")

La resolución efectiva de la imagen resultante después del demosaicing no parece ser la mitad de la resolución reclamada por el sensor, debido a las ganancias obtenidas por las rutinas inteligentes de demosaicing, y al hecho de que el canal verde, que se correlaciona bien con la luminancia, tiene más resolución que los otros colores.

Pero aún necesitaría reducirse en un 50% para eliminar cualquier pérdida debido a la interpolación. Si realmente quisiera asegurarse de que su imagen tuviera "resolución completa", sin pérdida de detalles debido a la interpolación, necesitaría tener un sensor de color con el doble de la resolución que desea, tanto en dirección horizontal como vertical, y luego volver a muestrear la imagen resultante al 50%.

Para capturar una resolución efectiva total de 1920x1080, un sensor de cámara en color (con un filtro Bayer, que incluye el 99% de los sensores de cámara en color) necesitaría una resolución del doble que: 3840x2160. Eso es más de 8.2 megapíxeles. Debido al recorte en el sensor (nuevamente debido al método de demostración de la cámara), efectivamente necesitaría alrededor de 8.8 megapíxeles para estar seguro.

Y eso si su sensor tuviera una relación de aspecto perfecta de 16: 9. Si su sensor tiene una relación de aspecto de 3: 2, necesitaría alrededor de 10.7 megapíxeles para capturar una imagen de 3840x2160, incluidas las áreas descartadas en la parte superior e inferior para compensar la relación de aspecto, y un borde pequeño para dar cuenta de cualquier recorte de demostración. .

Sensores sin filtros Bayer

Si bien el 99% de los sensores de cámara en color usan filtros Bayer, hay algunos que usan un diseño de píxeles alternativo, pero el principio es el mismo.

También hay algunos sensores de color que no necesitan un filtro de color, como el sensor Fovean X3 , pero estos son excepcionalmente raros y tienen sus propios problemas. Los fabricantes también tienden a mentir sobre su recuento de píxeles (para ser competitivos con los sensores que usan un filtro Bayer, donde el recuento de píxeles siempre suena mucho más impresionante de lo que realmente es debido al filtro descrito anteriormente).

Otra alternativa que utilizan algunas costosas cámaras de video profesionales es tener tres sensores completamente separados, uno para cada uno de color rojo, verde y azul, y usar un divisor de luz para arrojar la misma imagen en los tres. Obviamente, esto no puede existir en una cámara réflex digital o compacta o en cualquier tipo de cámara fija de consumo. Pero puede explicar por qué el número de píxeles en los sensores de las cámaras de video profesionales no se puede comparar con los de las DSLR.

¡Pero el video usa submuestreo de croma de todos modos!

(Solo para mentes técnicas)

Aunque el video (y a veces JPEG) usa submuestreo de croma, aún necesita el canal de luminancia para retener la resolución completa. En una imagen de un sensor Bayer, el canal de luminancia aún debe calcularse utilizando un proceso de interpolación, aunque con un buen algoritmo de demostración, puede parecer que se acerca a la resolución completa debido a la alta correlación entre la luminancia y el canal verde en la mayoría de los casos. contenido.


3
Su matemática de 11 megapíxeles supone que el demosaicing de Bayer no tiene valor. Las personas razonables pueden estar en desacuerdo con el número exacto, pero seguramente es algo menos dramático.
Lea mi perfil el

¿Cómo puede ser más preciso tomar un cuadro 3840X1216 que ya se ha interpolado antes de la reducción de tamaño que un cuadro 1920X1080 que se ha interpolado de una matriz Bayer 1920X1080? Me parece que tendríamos que mantener los canales RGB de la imagen más grande sin interpolar. Tendría que ser 2 veces más ancho y alto para permitir que se combinen un R, un B y 2 G píxeles , en lugar de interpolarlos , en cada píxel de un cuadro de 1920X1080.
Michael C

1
Es tarde y estoy un poco cansado, pero ¿no creen sus matemáticas que la matriz bayer 4x4 es un píxel discreto sin superposición?
John Cavan

1
Sí, dije que era tarde ... :) 2x2 es lo que quise decir. Sin embargo, si no recuerdo mal, el algoritmo para la demostración de sensores se superpone de tal manera que una matriz 4x4 realmente le daría 9 píxeles de datos. Aunque podría estar muy equivocado.
John Cavan

1
Estoy rechazando esta respuesta, aunque esté bien escrita, y he aquí por qué: casi todas las cámaras, a través de la interpolación de Bayer, dan imágenes con la misma cantidad de píxeles que su sensor. Esto es comúnmente aceptado. Si se habla de una foto digital de 12MP, podemos suponer con seguridad que proviene de una cámara de 12MP que técnicamente tiene un sensor de 12MP. Por otro lado, estamos hablando de resolución, pero debemos abordar las relaciones de aspecto y la calidad de imagen en su conjunto. La interpolación está ahí con la pérdida de calidad que implica, pero ese es un problema diferente.
MattiaG

12

Tiene razón en que una imagen HD de 1080p tiene poco menos de 2 megapíxeles .

Ahora debe tener cuidado al considerar la relación de aspecto de su cámara. Si toma imágenes nativas de 16: 9 y tiene 2 MP, entonces tendría suficiente resolución. Si la cámara tiene un sensor 4: 3, que es el más común para cámaras pequeñas, una cámara de 2 MP probablemente capturaría una imagen de 1680x1260. Desafortunadamente, esto no le da suficiente resolución horizontal.

Por otro lado, una cámara de 3 MP con un sensor 4: 3 produce imágenes de 2048x1536, lo que suele ser suficiente para reducir y recortar a una imagen de 1080p.


0

Existen tres modos comunes de video de alta definición: Modo de video: Tamaño de fotograma (WxH): Píxeles en la imagen (resolución) Tipo de escaneo

  1. 720p 1,280x720 921,600 (casi 1MP) Progresivo
  2. 1080i 1,920x1,080 2,073,600 (> 2MP) Entrelazado
  3. 1080p 1,920x1,080 2,073,600 (> 2MP) Progresivo

depende de qué uso esté planeando. si desea proyectar su video en una pantalla grande (por ejemplo, un proyector), use un modo de video más alto de al menos 1080p que, por supuesto, requiere una resolución más alta (significa más mega píxeles) para una proyección suave de la imagen. Tenga en cuenta también que cuando se utiliza una resolución más alta significa un mayor consumo de espacio en una tarjeta de memoria y requeriría una mayor especificación de su PC para la edición de video. Pero si está planeando una proyección de pantalla pequeña, (computadora portátil, PC) un 720p sería suficiente.

Nota especial sobre el tipo de escaneo progresivo: es una forma de mostrar, almacenar o transmitir imágenes en movimiento en las que todas las líneas de cada cuadro se dibujan en secuencia. La principal ventaja del escaneo progresivo es que el movimiento parece más suave y más realista.

Entrelazado: comúnmente utilizado en analógico envejecido de tv y crt, es una técnica para duplicar la velocidad de cuadro percibida introducida con la señal sin consumir ancho de banda adicional. El principal problema es el twitter interlínea. Por ejemplo, una persona en la televisión con una camisa con rayas finas oscuras y claras puede aparecer en un monitor de video como si las rayas de la camisa estuvieran "gorjeando". Este efecto de alias aparece cuando el sujeto contiene detalles verticales que se aproximan a la resolución horizontal del formato de video.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.