Esta observación surgió cuando estaba evaluando la eficiencia del tiempo de ejecución de varias implementaciones de un algoritmo de tamiz principal.
La sorpresa fue encontrar que las diferencias entre los mejores algoritmos eran mucho menores que las 30% de aceleración logrado corriendo el mismo Algoritmo (cualquiera de los dos) simplemente cambiando el uso de la batería al uso de la red.
Dado que mi configuración de energía no está configurada para maximizar la vida útil de la batería, asumí que esto no sería una consideración tan grande.
¿Alguna idea de por qué esta diferencia es tan grande?
¿Se debe a una aceleración inducida por el software / sistema operativo (en cuyo caso puedo desactivar el comportamiento de la regulación cuando estoy en modo de batería), o la elección de la fuente de alimentación afecta directamente las características eléctricas del chip?
(Mi máquina: Windows XP, Intel Core2Duo, 2GHz, 2GB RAM)
PD: soy consciente de que el rendimiento de la tarjeta gráfica depende significativamente de la fuente de alimentación, por ejemplo discutido aquí , pero como mis programas de evaluación comparativa son programas de consola sin gráficos y sin declaraciones de impresión (se ejecutan en la memoria hasta que estén 'terminados'), no espero que la GPU esté involucrada ... ¿verdad?