Respuestas:
Asumo que no estás aludiendo a una discusión filosófica más profunda sobre información, poder y entropía, pero solo estás interesado en los aspectos prácticos.
En pocas palabras, los circuitos digitales necesitan medir la entrada, digitalizarla, ejecutarla a través de algún tipo de procesamiento y luego transformar la salida en una señal eléctrica nuevamente. Los circuitos digitales no pueden manipular directamente señales eléctricas analógicas. Inherentemente tiene latencia adicional debido a la conversión de señal.
Puedes dejar de leer aquí si esto responde a tu pregunta.
Desde un punto de vista más filosófico / físico, en casi todos los circuitos en realidad no estás tratando de manipular la energía eléctrica (eso es lo que hace la electrónica de potencia), pero estás tratando de manipular la información. En este caso, técnicamente no es del todo cierto que lo analógico sea más rápido que lo digital. ¿Por qué? Bueno, las rutas de señal analógica son procesadores de información no ortogonales: no existe un opamp perfecto o un buffer perfecto, todo tiene efectos parásitos que necesita filtrar o eliminar. Especialmente a velocidades muy altas, se convierte en un problema real incluso construir un cable que transfiera un voltaje de manera confiable. El procesamiento digital desacopla el aspecto eléctrico de la información: después de digitalizar sus entradas, la señal existe como una forma muy pura de información.
Si bien se le penaliza con dos etapas de conversión, entre su ADC y DAC puede emplear muchos trucos de procesamiento para acelerar la velocidad de procesamiento y, por lo general, superar ampliamente el rendimiento de cualquier procesador de señal puramente analógico. Un gran ejemplo de esto es la revolución de los módems digitales en los teléfonos celulares, que ahora funcionan muy cerca del límite teórico del procesamiento de la información (decenas de requisitos de energía pJ / bit), mientras que no hace mucho tiempo los módems GSM puramente analógicos requerían órdenes de magnitud más área de silicio y creo que 5 o 6 órdenes de magnitud más energía de procesamiento.
Los procesos digitales agregan inherentemente una cierta cantidad de latencia ya que un evento que ocurre entre dos ciclos de reloj no puede procesarse hasta el siguiente y, para evitar problemas con eventos que suceden muy cerca de los límites del ciclo de reloj, las cosas a menudo están diseñadas para que los eventos no surtirán efecto hasta el segundo ciclo de reloj después de ellos (tratar de decidir rápidamente si un evento ocurrió antes o después de un límite de ciclo de reloj a menudo es sorprendentemente difícil, incluso si las llamadas cerradas podrían decidirse de manera segura de cualquier manera; poder posponer el la decisión de un ciclo de reloj adicional hace las cosas mucho más fáciles). Sin embargo, eso suele ser solo una pequeña parte de la latencia que se observa en muchos sistemas digitales.
Un factor más importante en la latencia del sistema digital gira en torno al hecho de que, por diversas razones, muchos sistemas pueden procesar grandes cantidades de datos de manera más eficiente que los pequeños. Por ejemplo, aunque sería posible grabar un flujo de datos de audio estéreo de 44KHz interrumpiendo el procesador 88,200 veces / segundo, eso requeriría que el procesador detenga lo que estaba haciendo 88,200 veces / segundo, guarde todos sus registros, cambie a la interrupción contexto, tome la muestra, cambie, etc. Incluso interrumpir la entrada y la salida toma solo un microsegundo cada una, el sistema pasaría el 22% de su tiempo entrando y saliendo de la interrupción en lugar de hacer algo útil. Si el sistema utilizara hardware para almacenar grupos de 512 muestras (256 de cada canal) y notificar al procesador cuando cada grupo estaba listo,
Tenga en cuenta que tomar grupos de 256 muestras por canal podría no parecer un gran retraso (son aproximadamente 6 ms), si la señal pasa a través de múltiples dispositivos y cada uno induce dicho retraso, los retrasos pueden acumularse. Además, si cualquiera de las etapas por las que pasa la señal utiliza algún tipo de tiempo compartido variable, los retrasos pueden ser variables. Pasar datos de audio en tiempo real a través de un canal que a veces tenía un retraso más largo que otras veces causaría un "chirrido" o "chirrido" notable cada vez que cambiara el retraso. Para evitar eso, algunos sistemas etiquetan bloques de datos de audio con una marca de tiempo que indica cuándo fueron capturados, y tienen el destinatario final de datos digitales que los convertirá de nuevo en forma analógica lo retienen hasta que haya transcurrido un cierto tiempo desde que fue capturado . Si el destinatario final lo retrasa hasta un segundo después de su captura, las variaciones en el retraso en diferentes partes del viaje no afectarán la salida a menos que sumen más de un segundo. Si se cree que las demoras cortas aleatorias en la transmisión serán frecuentes pero las demoras más largas serán poco frecuentes, aumentar el retraso antes de que el receptor final emita el audio reducirá la frecuencia de las interrupciones audibles, pero también significa que el sonido no saldrá tan pronto como de lo contrario podría haberlo hecho.
Además, los sistemas digitales tienden a cronometrarse, en efecto, cuantifican el tiempo, lo que significa que los eventos digitales no se propagan hasta la próxima hora del reloj.