He tenido problemas para aceptar la visión teórica de la complejidad de "eficientemente resuelto por algoritmo paralelo" que es dada por la clase NC :
NC es la clase de problemas que puede resolver un algoritmo paralelo en el tiempo en procesadores con .
Podemos asumir una PRAM .
Mi problema es que esto no parece decir mucho sobre máquinas "reales", es decir, máquinas con una cantidad finita de procesadores. Ahora me dicen que "se sabe" que podemos simular "eficientemente" un algoritmo de procesador procesadores p \ in \ mathbb {N} .
¿Qué significa "eficientemente" aquí? ¿Es este folklore o hay un teorema riguroso que cuantifica la sobrecarga causada por la simulación?
Lo que me temo que sucede es que tengo un problema que tiene un algoritmo secuencial y también un algoritmo paralelo "eficiente" que, cuando se simula en procesadores , también lleva tiempo (que es todo lo que se puede esperar en este nivel de análisis de granularidad si el algoritmo secuencial es asintóticamente óptimo). En este caso, no hay aceleración alguna por lo que podemos ver; de hecho, el algoritmo paralelo simulado puede ser más lento que el algoritmo secuencial. Es decir, realmente estoy buscando declaraciones más precisas que bounds (o una declaración de ausencia de tales resultados).