Tengo curiosidad por saber cuáles son las mejores prácticas en la industria del desarrollo de juegos para renderizar el universo 3D.
Para ser más especifico:
- Los puntos de datos son dados y estáticos. Cada punto tiene posición, color y tamaño;
- El conjunto de datos completo es mucho más grande que la memoria disponible;
- El usuario debería poder "alejarse" para ver una imagen más grande a la vez;
El enfoque más ingenuo sería dividir el universo en cubos y renderizar solo lo que es visible. No estoy seguro de cómo en este escenario debo implementar el "alejar". ¿Debo calcular previamente los cubos para cada nivel de zoom posible? ¿O tal vez hay mejores enfoques?
Estoy buscando una solución agnóstica tecnológica.
infinite universe
podría ser similar a las relaciones de seguimiento entre dos puntos en alguna curva de Mandelbrot después de hacer zoom a diferentes niveles. En algún nivel, puede perder precisión y no ser capaz de distinguirlos o incluso localizarlos nuevamente.