Mi juego usa DirectX 10, y tengo un problema en el que los usuarios informan que mi juego no se está recuperando en su tarjeta gráfica. En cambio, prefiere ejecutarse en su tarjeta Intel integrada, arruinando el rendimiento. Es posible que esto esté relacionado con Windows 8. También podría estar relacionado con tarjetas móviles.
Hasta ahora, he estado creando el dispositivo DirectX 10 sin adaptador especificado (como he visto en todos los ejemplos / demostraciones hasta ahora), para permitir que DirectX elija su propio adaptador. Aparentemente voy a tener que cambiar eso.
Ya tengo una función que se ejecuta a través de todos los adaptadores disponibles y elige el que tiene la mayor cantidad de memoria dedicada. Eso funciona muy bien para corregir el problema, pero ¿es correcto en general?
Desafortunadamente, no puedo confiar en que la tarjeta tenga una salida de video válida (es decir, un monitor conectado) ya que las máquinas afectadas por este problema no informan salidas para la tarjeta deseada.
¿Qué algoritmo puedo usar para elegir correctamente qué adaptador usar con DirectX?