Estoy tomando un curso de diseño de sistemas informáticos y mi profesor nos dijo que en los sistemas digitales, los voltajes convencionales utilizados para denotar un 0 digital y un 1 digital han cambiado con los años.
Aparentemente, en los años 80, se usaba 5 V como "alto" y 1 V para denotar un "bajo". Hoy en día, un "alto" es 0.75 V y un "bajo" es alrededor de 0.23 V. Agregó que en un futuro cercano, podemos cambiar a un sistema donde 0.4 V denota un alto y 0.05 V, un bajo.
Argumentó que estos valores se están reduciendo para que podamos reducir nuestro consumo de energía. Si ese es el caso, ¿por qué nos tomamos la molestia de establecer el 'bajo' en cualquier voltaje positivo? ¿Por qué no lo establecemos en el verdadero voltaje de 0 V (neutral de las líneas de alimentación, supongo)?