Así que estuve pensando en esto por un tiempo e intenté buscar una respuesta en Google pero sin ningún éxito.
Si todas sus texturas son imágenes LDR de 8 bits, como JPEG, no podría causar conflictos con el control de exposición / mapeo de tonos al renderizar. Es decir, si ajusta la exposición de representación de su imagen que debería exponer detalles en las texturas que realmente no están allí, ya que se han bloqueado por el bajo rango dinámico. Entonces, ¿no tendría sentido también tener las texturas como imágenes HDR, guardadas como .exr, en un espacio de color lineal con medio flotador de 16 bits para obtener una buena representación del color (el flotador "completo" de 32 bits podría ser excesivo?). Tener valores de color más detallados y correctos también podría, creo, tener un efecto en GI y cómo se calcula el sangrado de color.
¿O simplemente no es necesario ya que el resultado final de la representación que queremos probablemente será similar al nivel de exposición de la textura cuando se fotografió de alguna manera? Y dado que la cámara dispara principalmente en 12-14 bits, tendría que tomar múltiples exposiciones de la textura y hacer todo ese trabajo adicional para unirlas todas en un HDRI.
Editar: para aclarar, estoy más interesado en esto desde un punto de vista fotográfico realista, con renderizadores de trazas de rayos (como mental ray, V-Ray, Arnold, etc.) con simulaciones completas de luz e iluminación global, en lugar de motores de juego en tiempo real.