Estoy ejecutando una red neuronal de aprendizaje profundo que ha sido entrenada por una GPU. Ahora quiero implementar esto en varios hosts para inferencia. La pregunta es ¿cuáles son las condiciones para decidir si debo usar GPU o CPU para inferencia?
Agregar más detalles de los comentarios a continuación.
Soy nuevo en esto, por lo que se agradece la orientación.
Memoria : GPU es K80
Marco : Cuda y cuDNN
Tamaño de datos por cargas de trabajo : 20G
Calcular nodos para consumir : uno por trabajo, aunque quisiera considerar una opción de escala
Costo : puedo pagar una opción de GPU si las razones tienen sentido
Implementación : se ejecuta en servidores bare metal alojados, no en la nube.
En este momento estoy corriendo en la CPU simplemente porque la aplicación funciona bien. Pero fuera de esa razón, no estoy seguro de por qué uno incluso consideraría GPU.