La razón subyacente es: es más fácil construir una lógica de dos estados, y el 99% de las veces, algo más complicado no ofrece ninguna ventaja práctica.
De hecho, es lejos es más fácil (es decir, más pequeño, más barato y más confiable) construir cuatro unidades de memoria, cada una con dos estados (que se pueden usar para almacenar un dígito decimal en notación BCD) que construir una sola unidad de memoria que pueda almacenar y leer Fuera de 10 estados.
Cualquier futura mejora tecnológica podría mejorar la memoria 1 de 10, sí. Pero, los mismos desarrollos tecnológicos también podrían aplicarse a los circuitos binarios, haciéndolos más pequeños, más confiables y usando menos energía. Los circuitos binarios mejorarán más rápido que los circuitos de uno de diez niveles de voltaje, porque los circuitos binarios realizan un trabajo fundamentalmente más simple. Así que los circuitos de uno de diez pueden Nunca alcanzar.
El uso de voltajes más altos no es un arranque. Aumentarás el consumo de energía; y cuanto más altos son los voltajes en sus líneas de señal, más ruido emiten (por lo que es más probable que corrompan otras señales). De hecho, actualmente estamos ejecutando trazas de señal tan cerca unas de otras que a 50 voltios tendrías que preocuparte por el arco eléctrico, ¡no solo por el acoplamiento capacitivo! La tendencia en las CPU modernas es usar voltajes más bajos y más bajos, no más altos.
Además, la codificación binaria, aunque parece extraño en el primer encuentro, es extremadamente conveniente de muchas maneras. Un circuito sumador binario es un diseño mucho más simple (y más confiable) que un sumador que usaría diferentes niveles de voltaje, como se describe. (Y ni siquiera quiero pensar en cómo harías la multiplicación, la división o el punto flotante). Además, necesitas la lógica digital binaria para implementar el resto del procesador de la computadora de todos modos.
El hecho de que los humanos prefieran tratar con computadoras que usan números decimales es casi irrelevante: la conversión entre binario y decimal es un bit trivial de código.
Vale la pena señalar que hubo algunas computadoras muy tempranas que almacenaron números como dígitos decimales. Pero no lo hicieron con niveles de voltaje variables. En su lugar, utilizaron circuitos llamados "contadores de anillo" que, en efecto, tenían diez bits de memoria configurados de modo que solo uno de los diez podría ser "1" a la vez. (Busque "dekatron".)
Posteriormente hubo computadoras "decimales" como la IBM 1401 y la IBM 1620, pero nuevamente, todas utilizaron fundamentalmente almacenamiento binario. Los bits solo se utilizaron para representar dígitos decimales de varias maneras. p.ej. el 1401 utilizó "decimal codificado en binario" en el que se utilizó un conjunto de cuatro bits para codificar cada dígito decimal. Computadoras como esta tuvieron mucho éxito en su tiempo, y la mayoría de las calculadoras todavía funcionan de esta manera.
En resumen, aunque la representación decimal parece tener más sentido, eso es realmente porque eso es lo que nosotros, como civilización, estamos acostumbrados. La representación binaria tiene más sentido para los circuitos de computadoras por cada medida de ingeniería. (Y de todos modos, si hubiéramos sido un poco más inteligentes, habríamos crecido usando nuestros dedos para contar en binario, y podríamos contar no solo a 10 sino a 1023! :))