( Advertencia: vistas algo sesgadas, simplificaciones excesivas y generalizaciones descaradas por delante ) .
A menudo, la diferencia entre la computación distribuida y la computación paralela se puede resumir de la siguiente manera:
- En la informática distribuida , las medidas de complejidad primarias están relacionadas con los flujos de comunicación e información : cuántas rondas de comunicación ("tiempo"); cuantos bits transmiten
- En computación paralela , las medidas de complejidad primarias están relacionadas con la computación y el procesamiento de la información : cuántos pasos elementales ("tiempo"); cuántos bits almacenados
Si toma esta perspectiva, a menudo resulta que para modelar sistemas distribuidos, realmente no importa qué tipo de poder computacional tengan sus nodos (o procesadores o computadoras).
O ( n )
XX
TT
Por lo tanto, usar máquinas de Turing como punto de partida para modelar sistemas distribuidos me parece un poco antinatural: si este es un aspecto irrelevante, ¿por qué construir todo sobre él? Por otro lado, en computación paralela esto sería natural (excepto que el modelo generalmente es algo así como PRAM en lugar de máquinas Turing).