En este momento estoy revisando la literatura de ingeniería eléctrica sobre el tipo de estrategias empleadas para producir de manera confiable sistemas altamente complejos pero también extremadamente frágiles como DRAM, donde tienes una variedad de muchos millones de componentes y donde una sola falla puede bloquear todo el sistema .
Parece que una estrategia común que se emplea es la fabricación de un sistema mucho más grande, y luego la desactivación selectiva de filas / columnas dañadas utilizando fusibles configurables. He leído [1] que (a partir de 2008) ningún módulo DRAM sale de la línea en funcionamiento, y que para los módulos DDR3 de 1 GB, con todas las tecnologías de reparación implementadas, el rendimiento general va de ~ 0% a alrededor del 70% .
Sin embargo, ese es solo un punto de datos. Lo que me pregunto es si es algo que se anuncia en el campo. ¿Existe una fuente decente para discutir la mejora en el rendimiento en comparación con el SoA? Tengo fuentes como esta [2], que hacen un trabajo decente al discutir el rendimiento del razonamiento de los primeros principios, pero eso es 1991, e imagino / espero que las cosas estén mejor ahora.
Además, ¿todavía se utiliza el uso de filas / columnas redundantes incluso hoy? ¿Cuánto espacio de placa adicional requiere esta tecnología de redundancia?
También he estado mirando otros sistemas paralelos como pantallas TFT. Un colega mencionó que Samsung, en un momento, encontró más barato fabricar pantallas rotas y luego repararlas en lugar de mejorar su proceso a un rendimiento aceptable. Sin embargo, todavía no he encontrado una fuente decente para esto.
Refs
[1]: Gutmann, Ronald J, y cols. Wafer Level 3-d Ics Tecnología de proceso Nueva York: Springer, 2008. [2]: Horiguchi, Masahi, et al. "Una técnica de redundancia flexible para DRAM de alta densidad". Circuitos de estado sólido, IEEE Journal of 26.1 (1991): 12-17.