En pocas palabras: los archivos "en bruto" más pequeños agregan los valores del sensor dentro de bloques de píxeles .
Por ejemplo, el formato RAW de Canon transmite información sobre "sensores" individuales. Cada sensor (o "fotosite") responde a un rango restringido de frecuencias (denominadas rojo, verde y azul). Cada uno de estos, cuando más tarde se "desarrolle", se ubicará en un sitio de un solo píxel en la imagen final.
El formato sRAW de Canon, sin embargo, transmite información resumida sobre 2 x 2 bloques de sensores. Informa datos de brillo (luminancia) para cada bloque, pero "diezma" (omite de forma regular) parte de la información de color. Como tal, suceden varias cosas importantes:
Los datos individuales del sensor ya no están disponibles. (Los datos de sRAW son de hecho "procesados").
La resolución de la imagen se reduce (se reduce a la mitad, lo que implica que hay una cuarta parte de píxeles).
El tamaño del archivo de los datos se reduce aproximadamente en dos tercios.
Los datos sRAW no son un "subconjunto" de los datos RAW. Son una codificación diferente de los datos sin procesar, con menos información . No se ignoran los sentidos.
(Normalmente, reducir la resolución de una imagen en un factor de dos disminuirá su tamaño en el disco a una cuarta parte del original. Aquí, sin embargo, los sensores originales entregan unos 14 bits de información, lo que equivale a 56 bits en cada bloque de 2 x 2 en formato RAW. En sRAW, cada bloque de 2 x 2 se codifica como tres piezas de 8 bits o 24 bits. El flujo de datos resultante es, por lo tanto, solo 24/56 = aproximadamente la mitad del tamaño del original, y se reduce en otro 1/3 por la reducción de los datos de crominancia, para una reducción neta de 2/3. La compresión sin pérdida se aplica en sRAW, por lo que la relación puede diferir ligeramente).
Esta información se obtuvo a través de una extensa ingeniería inversa informada el año pasado por Douglas Kerr, cuyo informe resumí aquí muy brevemente (sin demasiada distorsión, espero).