Ao relatar a complexidade algorítmica de um algoritmo, assume-se que os cálculos subjacentes são executados em alguma máquina abstrata (por exemplo, RAM) que se aproxima de uma CPU moderna. Tais modelos nos permitem relatar a complexidade de algoritmos no tempo e no espaço. Agora, com a expansão das GPGPUs , questiona-se se existem modelos bem conhecidos nos quais também é possível levar em consideração o consumo de energia.
As GPUs são conhecidas por consumir uma quantidade considerável de energia e certas instruções se enquadram em diferentes categorias de consumo de energia com base em sua complexidade e localização no sofisticado chip. Portanto, as instruções, do ponto de vista energético, não têm custo unitário (ou mesmo fixo). Uma extensão trivial seria atribuir pesos ao custo da operação, mas estou procurando um modelo poderoso em que uma operação / instrução possa custar unidades de energia não constantes , por exemplo, quantidade polinomial (ou ainda mais complexa, por exemplo: função do tempo decorrido desde o início) do algoritmo; ou levando em consideração a probabilidade de falha do sistema de refrigeração, o que aquecerá os chips e diminuirá a freqüência do relógio, etc.)
Existem modelos onde custos e falhas não triviais podem ser incorporados?