Como han dicho otros, ya no podemos enfriar efectivamente las CPU si tuviéramos que presionar el voltaje requerido para los mismos aumentos relativos de velocidad de reloj en el pasado. Hubo un momento (era P4 y anterior) en el que se podía comprar una nueva CPU y ver una ganancia "inmediata" es la velocidad porque la velocidad del reloj aumentó significativamente en comparación con la generación anterior. Ahora nos hemos topado con una pared térmica, de algún tipo.
Cada nueva generación moderna de procesadores está aumentando ligeramente la velocidad del reloj, pero esto también es relativo a la capacidad de enfriarlos adecuadamente. Los fabricantes de chips, como Intel, se centran continuamente en reducir el tamaño de la matriz de la CPU para que sean más eficientes y produzcan menos calor en los mismos relojes. Como nota al margen, este tamaño de matriz reducido hace que estos procesadores modernos sean más propensos a morir por sobrevoltaje en lugar de sobrecalentamiento. Esto significa que también está limitando la velocidad de reloj de techo de cualquier CPU de generación actual sin otras optimizaciones hechas por el fabricante del chip.
Otra área en la que los fabricantes de chips se centran mucho es en aumentar el número de núcleos en el chip. Esto sí tiene en cuenta aumentos significativos en el poder computacional, pero solo cuando se utiliza un software que aprovecha múltiples núcleos. Tenga en cuenta la diferencia entre potencia computacional y velocidad aquí. En pocas palabras, la velocidad se refiere a la rapidez con que una computadora puede ejecutar una sola instrucción, mientras que la potencia computacional se refiere a cuántos cálculos puede hacer una computadora en un período de tiempo determinado. Los sistemas operativos modernos y muchos softwares modernos aprovechan múltiples núcleos. El problema es que la programación concurrente / paralela es más difícil que el paradigma de programación lineal estándar. Esto aumentó el tiempo que les tomó a muchos programas en el mercado aprovechar al máximo la potencia de estos procesadores más nuevos porque muchos desarrolladores no estaban acostumbrados a escribir programas de esta manera. Todavía hay algunos programas en el mercado hoy (ya sean modernos o heredados) que no aprovechan los núcleos múltiples o los subprocesos múltiples. El programa de cifrado que citó es uno de esos ejemplos.
Estas dos áreas de enfoque de los fabricantes de chips están intrínsecamente conectadas. Al reducir tanto el tamaño de la matriz como el consumo de energía de un chip, pueden aumentar el número de núcleos en dicho chip. Eventualmente, sin embargo, esto también golpeará una pared, causando otro cambio de paradigma más drástico.
La razón de este cambio de paradigma se debe a que nos acercamos a los límites del silicio como material base para la producción de chips. Esto es algo que Intel y otros han estado trabajando en resolver durante algún tiempo. Intel ha declarado que tiene una alternativa al silicio en proceso, y probablemente comencemos a verla en algún momento después de 2017. Además de este nuevo material, Intel también está buscando transistores 3D que podrían "triplicar efectivamente la potencia de procesamiento". Aquí hay un artículo que menciona ambas ideas: http://apcmag.com/intel-looks-beyond-silicon-for-processors-past-2017.htm