Overclocking: daño permanente?


8

Siempre he tenido la impresión de que el overclocking de cualquier tipo de CPU (para una PC o un microcontrolador), es algo malo. Básicamente, está operando la unidad fuera de las especificaciones del fabricante, lo que significa que el dispositivo puede o no funcionar según lo previsto. Puede ir más rápido, pero a riesgo de un comportamiento errático.

Entiendo que la respuesta a overclock / not es filosófica, dependiendo de cuánto riesgo desee asumir con sus dispositivos. Pero,

¿Qué tipo de daño permanente puede causar el overclocking de una CPU?

(Nota: pregunto esto porque algunos de mis amigos son gamerz y piensan que overclocking roxors soxors ... y por alguna extraña razón después de hacer esto, sus computadoras se rompen con pantallas azules y luego me llaman, y quiero un poco de munición para usar que no tengo que solucionar problemas de hardware potencialmente escamoso tan a menudo ...)


"Roxors soxors"?
Mateen Ulhaq

Es un idioma entusiasta de la informática en los Estados Unidos. Significa "esto es genial".
J. Polfer

muntoo - La traducción directa de l33t (Leet) sería "calcetines [my] socks", y la traducción de esa jerga al inglés normal es "Esto es genial".
Kevin Vermeer

Respuestas:


12

He overclockeado casi todas las computadoras (excluyendo las laptops) que he tenido únicamente por el ahorro de costos y hacer que los sims matlab no tomen todo el día.

El overclocking, como al aumentar la velocidad del reloj o el multiplicador no debería dañar las CPU modernas. El apagado térmico en la CPU debe activarse lo suficientemente temprano como para evitar daños. Las CPU más antiguas no tenían una protección térmica tan sólida.

Si está elevando varios voltajes en un intento de correr aún más rápido, puede causar daños permanentes a la CPU sin darse cuenta. Es bueno mantenerse dentro de las especificaciones de voltaje máximo proporcionadas por el fabricante de la CPU.

Dependiendo de su modelo de uso, el overclocking puede reducir la vida útil. Esto es realmente solo una función de la temperatura de la CPU, cuanto más caliente funciona, más corta es la vida útil. Si la CPU está funcionando al límite de su calificación TDP 24/7, no esperaría que dure 10 años.

Por lo general, no está ejecutando el dispositivo fuera de sus especificaciones de diseño, siempre y cuando se mantenga dentro de los niveles de voltaje especificados. A medida que se desarrolla el diseño, los rendimientos de fabricación mejoran cada vez más y las piezas agrupadas a 2.6GHz a menudo son capaces de probar y a velocidades mucho más altas, simplemente se agrupan en el extremo inferior para satisfacer la mayor demanda del mercado para ese segmento.

Actualmente escribiendo en un núcleo i7 920 @ 4.1ghz con enfriamiento por aire (se le otorga un disipador térmico masivo y 2 ventiladores de 140 mm). Paso a paso D0, un paso más nuevo que es capaz de velocidades mucho más altas que los pasos anteriores. Realmente realicé una prueba prime95 de 12 horas a 4.25 ghz, pero algo más alto comenzó a arrojar errores y no quería aumentar más los voltajes de suministro, así que retrocedí un poco para llegar a 4.1 para un poco de margen. También debe tener en cuenta los cambios de temperatura ambiente si su espacio no tiene aire acondicionado.

EDITAR para simulador de oveja:

El efecto en el RAM depende de la arquitectura de la que esté hablando y de las características que ofrece la placa base.

Por ejemplo en la arquitectura core i7:

En la arquitectura Core i7 tiene 1 reloj base que genera los relojes para el núcleo de la CPU, el 'uncore', el QPI y la RAM a través de 4 multiplicadores diferentes.

En algunos modelos de CPU, estos multiplicadores tienen rangos limitados, pero son clave para su pregunta: cuando overclockea el sistema, normalmente activa el reloj base, lo que también aumenta el reloj RAM. Pero, si lo desea, puede reducir el multiplicador de reloj de RAM para obtener stock o muy cerca de las velocidades de memoria RAM de stock. El Core i7 920 por defecto usa ram DDR3-1066, pero DDR3-1600 tiene casi el mismo precio, por lo que la mayoría de las personas compra el ram más rápido y ajusta el multiplicador de RAM para llegar a la clasificación de 1600. También tiene control sobre el voltaje del ram en buenas placas base, por lo que tiene la opción de sobrevoltaje / sincronización del ram si así lo desea.

En algunas arquitecturas antiguas había un control limitado o nulo sobre el multiplicador de reloj RAM, lo que podría significar que necesita una memoria RAM más rápida para lograr un reloj de CPU en particular.


@Mark: ¿el overclocking no afecta tu RAM con ciertos cambios de parámetros? Tenía un amigo que aceleró su i5, y su ranura 0 en la placa base se dañó y causó errores de memoria. Él cambió el BCLOCK.
J. Polfer

@sheepsimulator - buen nombre :) y revisa mi edición. En resumen, podría haber overclockeado salvajemente su carnero si solo hubiera accionado ciegamente BCLK sin reducir el multiplicador de memoria. La memoria RAM generalmente no tiene mucha, o ninguna, protección térmica, por lo que debe prestar atención a sus relojes de memoria.
Mark

ejecutar su CPU a una temperatura aumentada reducirá la vida útil esperada de la CPU. Solo como una nota al margen, pensé que lo agregaría. Todavía encuentro que, en general, mi computadora estará desactualizada antes de que falle mi CPU, por lo que no es un riesgo importante.
Kortuk


2

Esto me recuerda un pequeño gran artículo titulado The Zen of Overclocking por Bob Colwell, quien fue el arquitecto jefe IA-32 para los procesadores Intel Pentium Pro a Pentium 4.

Lamentablemente, el documento no está disponible para el público en general, pero debería estar disponible para los miembros de la IEEE Computer Society y muchas / la mayoría de las redes de universidades. Fue publicado originalmente en la revista Computer , marzo de 2004 (Vol. 37, No. 3) págs. 9-12.

Un par de breves citas:


Resumen : El overclocking es un experimento grande e incontrolado en la operación del sistema en el mejor de los casos.

... Este número de Computer [número de revista] destaca lo que yo llamo diseño "mejor que el peor de los casos". Con un diseño normal en el peor de los casos, cualquier sistema informático es un conglomerado de componentes, que opera dentro de las frecuencias, los voltajes de la fuente de alimentación y los rangos de temperatura que se configuraron para acomodar simultáneamente los valores del peor de los casos de cada componente. (Las CPU modernas ya no lo hacen de esta manera, pero una vez lo hicieron, y es más fácil pensar en el peor diseño de esta manera) ...

... Compare el enfoque de los overclockers con el asiento de los pantalones, tal vez funcionará con el desafío de ingeniería que enfrentan Intel y AMD. Primero, tenga en cuenta que este desafío no es solo la otra cara de la moneda del overclocker. Los fabricantes de chips deben diseñar y producir decenas o cientos de millones de chips; los overclockers solo se preocupan por uno. Los fabricantes deben establecer una meta de confiabilidad cuantificable, y no, no es "cero fallas, nunca". Ese sería un objetivo inalcanzable, y no muy productivo, porque golpearlo requeriría evitar los rayos cósmicos. Incluso a nivel del mar, eso requeriría más metros de concreto de los que cualquier comprador de computadora portátil encontrará atractivo. E incluso entonces, el concreto solo mejoraría las probabilidades. Seguiría siendo un juego estadístico. ...

Conclusión

Si no usa hilo dental, no necesariamente se pudrirá. La gran mayoría de los viajes en automóvil no incluyen doblado de metal, entonces, ¿por qué usar cinturones de seguridad? ¿Y por qué no fumar? No todos los fumadores contraen cáncer. O podría adoptar el compromiso de Oscar London: "Si fuma, ¿por qué molestarse en usar el cinturón de seguridad?" Y algunos músicos de rock de la década de 1960 todavía están vivos, por lo que tal vez todas esas drogas sean realmente beneficiosas, actuando como algún tipo de conservante. En cuanto a mí, bueno, soy ingeniero y vivo en un mundo estadístico. Voy con las probabilidades.


¿En cuanto a los detalles de si el sobre reloj puede causar daño permanente? Sí, en particular a medida que la tecnología de litografía mejora al crear troqueles de menor escala (por ejemplo, 35 nanómetros), el grosor del aislante / óxido también disminuye. Esto significa que esta barrera cada vez más delgada podría fallar debido a un alto voltaje o deterioro. Por lo tanto, el margen relacionado para un error aceptable está disminuyendo (o el margen de falla está aumentando).

Creo que los transistores MOSFET todavía se usan para el diseño de la CPU, por lo que observar algunas de las dificultades con la reducción de tamaño de MOSFET puede resaltar otros problemas potenciales que puede causar el overclocking. A nivel del sistema, el overclocking también puede causar EMI / RFI interno / entre canales dentro del dado de la CPU o cualquiera de los otros subsistemas (por ejemplo, bus RAM), y puede reducir la relación señal-ruido (SNR) de forma mecánica o EMI / RFI externo ya no son tolerables y terminan produciendo errores aleatorios en los buses digitales.

Y para que conste, he dañado los procesadores debido a un exceso de tiempo estúpido y una pobre disipación térmica. Entonces, más allá de la teoría, en realidad es posible.


En realidad, hay 2 versiones de overclocking, la primera es ejecutar el dispositivo más rápido de lo que fue diseñado para funcionar. El segundo es ejecutar una parte que fue clasificada a una velocidad menor que su familia puede ejecutar. El primero ciertamente implica mucho más peligro, el segundo, especialmente en los pasos posteriores del dado, es realmente bastante seguro. Tengo la impresión de que el artículo vinculado estaba discutiendo principalmente el primero.
Mark

@Mark, mi comprensión (incompleta) es que el binning (troquel pequeño, calificado para diferentes velocidades) se basa en el análisis estadístico de los rendimientos, no puramente en la economía de mercado (costo versus suministro). Debería comparar los costos hundidos (NRE) con los costos de materiales por unidad para tener una idea de si se estaba utilizando la agrupación para maximizar las ganancias.
mctylr

... mismo dado, calificado para diferentes velocidades ...
mctylr

Quizás para aclarar, la tasa de falla para un dado individual no es la misma en la superficie de una oblea, pero creo que en la mayoría de los casos es más baja en el centro, y aumenta para los dados en el borde exterior de la oblea. Por lo tanto, la agrupación de núcleos de matriz aparentemente idénticos se realiza debido a la probabilidad de falla, que puede mitigarse a través de reducciones de velocidad o potencialmente deshabilitar un subconjunto de características (es decir, si el caché L2 o la FPU son puntos comunes para que la falla no aparezca debido a la densidad o el paralelo -ness), una versión agrupada puede tener la función deshabilitada, reduciendo la posibilidad de falla para estos troqueles más externos.
mctylr
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.