Cuando se informa la complejidad algorítmica de un algoritmo, se supone que los cálculos subyacentes se realizan en alguna máquina abstracta (por ejemplo, RAM) que se aproxima a una CPU moderna. Dichos modelos nos permiten informar la complejidad de algoritmos en el tiempo y el espacio. Ahora, con la propagación de GPGPU , uno se pregunta si hay modelos bien conocidos en los que también se puede tener en cuenta el consumo de energía.
Se sabe que las GPU consumen una cantidad considerable de energía y ciertas instrucciones se dividen en diferentes categorías de consumo de energía en función de su complejidad y ubicación en el sofisticado chip. Por lo tanto, las instrucciones, desde una perspectiva visual, no tienen un costo unitario (o incluso fijo). Una extensión trivial sería asignar pesos al costo de operación, pero estoy buscando un modelo poderoso donde una operación / instrucción pueda costar unidades de energía no constantes , por ejemplo, cantidad polinómica (o incluso más compleja, por ejemplo: función del tiempo transcurrido desde el inicio del algoritmo; o teniendo en cuenta la probabilidad de falla del sistema de enfriamiento, que calentará los chips y ralentizará la frecuencia del reloj, etc.)
¿Existen modelos en los que se puedan incorporar costos y fallas no triviales?