Estoy trabajando en un juego simple en OpenGL, usando SDL para la inicialización y entrada de la pantalla, y parece que en términos de tiempo tengo dos opciones disponibles. El número uno solo está durmiendo para el óptimoTimePerFrame - theTimeTakenToRender, cuando el óptimoTimePerFrame en segundos = 1 / theFramerateCap. (No estoy completamente seguro de si esto es necesario, ya que es equivalente a usar vsync, que puede ser más preciso. Si mi suposición es correcta, dígame si SDL + OpenGL tiene vsync por defecto, y si no es así para habilitarlo.) El otro es medir el tiempo transcurrido desde que se renderizó el último fotograma y simplemente ajustar el movimiento en consecuencia. (El tiempo más corto que se tarda en representar un cuadro, las entidades menos lejanas se mueven en ese cuadro). En términos de rendimiento y disminución del parpadeo, etc., ¿cuáles son las ventajas y desventajas de estos dos métodos?