La prueba de Adleman de que está contenido en muestra que si hay un algoritmo aleatorio para un problema que se ejecuta en el tiempo en entradas de tamaño , entonces también hay un algoritmo determinista para el problema que se ejecuta en el tiempo en entradas de tamaño [el algoritmo ejecuta el algoritmo aleatorio en cadenas de aleatoriedad independientes . Debe haber aleatoriedad para el algoritmo repetido que es bueno para todosP / p o l y t ( n ) n Θ ( t ( n ) ⋅ n ) n Θ ( n ) 2 nposibles entradas]. El algoritmo determinista no es uniforme; puede comportarse de manera diferente para diferentes tamaños de entrada. Entonces, el argumento de Adleman muestra que, si a uno no le importa la uniformidad, la aleatorización solo puede acelerar los algoritmos por un factor que es lineal en el tamaño de entrada.
¿Cuáles son algunos ejemplos concretos donde la aleatorización acelera la computación (según nuestro conocimiento)?
Un ejemplo es la prueba de identidad polinómica. Aquí la entrada es un circuito aritmético de tamaño n que computa un polinomio de variante m sobre un campo, y la tarea es averiguar si el polinomio es idénticamente cero. Un algoritmo aleatorio puede evaluar el polinomio en un punto aleatorio, mientras que el mejor algoritmo determinista que conocemos (y posiblemente el mejor que existe) evalúa el polinomio en muchos puntos.
Otro ejemplo es el árbol de expansión mínimo, donde el mejor algoritmo aleatorio de Karger-Klein-Tarjan es el tiempo lineal (¡y la probabilidad de error es exponencialmente pequeña!), Mientras que el mejor algoritmo determinista de Chazelle se ejecuta en el tiempo ( es la función inversa de Ackermann, por lo que la aceleración de la aleatorización es realmente pequeña). Curiosamente, Pettie y Ramachandran demostraron que si hay un algoritmo de tiempo lineal determinista no uniforme para un árbol de expansión mínimo, entonces también existe un algoritmo de tiempo lineal determinista uniforme.α
¿Cuáles son algunos otros ejemplos? ¿Qué ejemplos sabe donde la aceleración de la aleatorización es grande, pero esto es posiblemente solo porque todavía no hemos encontrado algoritmos deterministas suficientemente eficientes?