El campo de la computación distribuida se ha quedado lamentablemente corto en el desarrollo de una sola teoría matemática para describir algoritmos distribuidos. Existen varios 'modelos' y marcos de cómputo distribuido que simplemente no son compatibles entre sí. La gran explosión de propiedades temporales variables (asincronía, sincronía, sincronía parcial), varias primitivas de comunicación (transmisión de mensajes vs. memoria compartida, difusión vs. unidifusión), modelos de fallas múltiples (detención de fallas, recuperación de fallas, omisión de envío, bizantino, etc.) on) nos ha dejado con una cantidad intratable de modelos de sistemas, marcos y metodologías, que comparar los resultados de solvencia relativa y los límites inferiores entre estos modelos y marcos se ha vuelto arduo, intratable y, a veces, imposible.
Mi pregunta es muy simple, ¿por qué es así? ¿Qué es tan fundamentalmente diferente sobre la computación distribuida (de su contraparte secuencial) que no hemos podido cotejar la investigación en una teoría unificada de la computación distribuida? Con la computación secuencial, las máquinas de Turing, las funciones recursivas y el cálculo de Lambda se han convertido en equivalentes. ¿Fue solo un golpe de suerte o realmente hicimos un buen trabajo encapsulando la computación secuencial de una manera que aún no se ha logrado con la computación distribuida?
En otras palabras, ¿la informática distribuida es inherentemente inflexible a una teoría elegante (y si es así, ¿cómo y por qué?), O simplemente no somos lo suficientemente inteligentes como para descubrir tal teoría?
La única referencia que pude encontrar que aborda este problema es: " Evaluación de dos décadas de investigación de la teoría de la computación distribuida " por Fischer y Merritt DOI: 10.1007 / s00446-003-0096-6
Cualquier referencia o exposición sería realmente útil.