Neste momento, estou analisando a literatura de engenharia elétrica sobre os tipos de estratégias empregadas para produzir de maneira confiável sistemas altamente complexos, mas também extremamente frágeis, como DRAM, onde você tem uma matriz de muitos milhões de componentes e onde uma única falha pode afetar todo o sistema. .
Parece que uma estratégia comum empregada é a fabricação de um sistema muito maior e a desativação seletiva de linhas / colunas danificadas usando fusíveis configuráveis. Eu li [1] que (a partir de 2008) nenhum módulo DRAM sai da linha funcionando e que, para os módulos DDR3 de 1 GB, com todas as tecnologias de reparo implementadas, o rendimento total varia de ~ 0% a cerca de 70% .
Esse é apenas um ponto de dados, no entanto. O que eu quero saber é, isso é algo que é anunciado em campo? Existe uma fonte decente para discutir a melhoria no rendimento em comparação com o SoA? Tenho fontes como esta [2], que fazem um trabalho decente em discutir o rendimento do raciocínio dos primeiros princípios, mas isso é 1991, e imagino / espero que as coisas estejam melhores agora.
Além disso, o uso de linhas / colunas redundantes ainda é empregado ainda hoje? Quanto espaço adicional na placa requer esta tecnologia de redundância?
Eu também estive olhando para outros sistemas paralelos, como monitores TFT. Um colega mencionou que a Samsung, a certa altura, achou mais barato fabricar telas quebradas e depois repará-las, em vez de melhorar seu processo para um rendimento aceitável. Ainda estou para encontrar uma fonte decente sobre isso, no entanto.
Refs
[1]: Gutmann, Ronald J. et al. Wafer Nível 3-d Ics Tecnologia de Processo. Nova York: Springer, 2008. [2]: Horiguchi, Masahi, et al. "Uma técnica de redundância flexível para DRAMs de alta densidade". Circuitos de Estado Sólido, IEEE Journal de 26.1 (1991): 12-17.