En lugar de evidencia empírica, ¿con qué principios formales hemos demostrado que la computación cuántica será más rápida que la computación tradicional / clásica?
En lugar de evidencia empírica, ¿con qué principios formales hemos demostrado que la computación cuántica será más rápida que la computación tradicional / clásica?
Respuestas:
Esta es una pregunta que es un poco difícil de desempaquetar si no está familiarizado con la complejidad computacional. Como la mayoría del campo de la complejidad computacional, los resultados principales son ampliamente creídos pero conjeturales.
Las clases de complejidad típicamente asociadas con la computación clásica eficiente son (para algoritmos deterministas) y (para aleatorización). La contraparte cuántica de estas clases es . Las tres clases son subconjuntos de (una clase muy poderosa). Sin embargo, nuestros métodos de prueba actuales no son lo suficientemente fuertes como para mostrar definitivamente que no es lo mismo que . Por lo tanto, tampoco sabemos cómo separar formalmente de , ya queB P P B Q P P S P A C E P P S P A C E P B Q P P ⊆ B Q P ⊆ P S P A C E, Separando estas dos clases es más duro que el ya formidable tarea de separar de P S P A C E . (Si pudiéramos probar P ≠ B Q P , obtendríamos inmediatamente una prueba de que P ≠ P S P A C E , por lo que demostrar que P ≠ B Q P tiene que ser al menos tan difícil como el ya difícil problema de demostrando P ≠ P S P A C E) Por esta razón, dentro del estado actual de la técnica, es difícil obtener una prueba matemática rigurosa que muestre que la computación cuántica será más rápida que la computación clásica.
Por lo tanto, usualmente confiamos en evidencia circunstancial para separaciones de clase de complejidad. Nuestra evidencia más fuerte y más famoso es el algoritmo de Shor que nos permite factor en . Por el contrario, no conocemos ningún algoritmo que pueda tener en cuenta B P P , y la mayoría de la gente cree que uno no existe; esa es parte de la razón por la que usamos RSA para el cifrado, por ejemplo. Hablando en términos generales, esto implica que es posible que una computadora cuántica factorice eficientemente, pero sugiere que puede no ser posible que una computadora clásica factorice eficientemente. Por estas razones, el resultado de Shor ha sugerido a muchos que B Q P es estrictamente más poderoso que B P P(y por lo tanto también más poderoso que ).
No conozco ningún argumento serio de que , excepto de aquellas personas que creen en colapsos de clase de complejidad mucho más grandes (que son una minoría de la comunidad). Los argumentos más serios que he escuchado contra la computación cuántica provienen de posturas más cercanas a la física y argumentan que B Q P no capta correctamente la naturaleza de la computación cuántica. Estos argumentos generalmente dicen que los estados coherentes macroscópicos son imposibles de mantener y controlar (por ejemplo, porque hay algún obstáculo físico fundamental aún desconocido), y por lo tanto, los operadores en los que se basa B Q P no pueden realizarse (incluso en principio) en nuestro mundo .
Si comenzamos a pasar a otros modelos de computación, entonces un modelo particularmente fácil de trabajar es la complejidad de la consulta cuántica (la versión clásica que corresponde a ella es la complejidad del árbol de decisión). En este modelo, para las funciones totales podemos demostrar que (para algunos problemas) los algoritmos cuánticos pueden lograr una aceleración cuadrática, aunque también podemos mostrar que para las funciones totales no podemos hacerlo mejor que una aceleración de potencia 6 y creemos que la cuadrática es la mejor posible. Para funciones parciales, es una historia totalmente diferente, y podemos demostrar que se pueden lograr aceleraciones exponenciales. Una vez más, estos argumentos se basan en la creencia de que tenemos una comprensión decente de la mecánica cuántica y que no existe una barrera teórica mágica desconocida para evitar que se controlen los estados cuánticos macroscópicos.
Para la complejidad computacional, no hay pruebas de que las computadoras cuánticas sean mejores que las computadoras clásicas debido a lo difícil que es obtener límites inferiores en la dureza de los problemas. Sin embargo, hay configuraciones en las cuales una computadora cuántica funciona mejor que una clásica. El más famoso de estos ejemplos está en el modelo de caja negra en el que tiene acceso a través de la caja negra a una función y desea encontrar la x única para la que f se evalúa como 1. La medida de complejidad en este caso es el número de llamadas a f. Clásicamente, no puede hacerlo mejor que adivinar al azar, lo que toma en promedio consultas Ω ( 2 n ) a f . Sin embargo, usando el algoritmo de Grover puedes lograr la misma tarea en O ( √.
Para obtener más separaciones comprobables, puede analizar la complejidad de la comunicación donde sabemos cómo probar los límites inferiores. Hay tareas que dos computadoras cuánticas que se comunican a través de un canal cuántico pueden lograr con menos comunicación que dos computadoras clásicas. Por ejemplo, calcular el producto interno de dos cadenas, uno de los problemas más difíciles en la complejidad de la comunicación, se acelera cuando se usan computadoras cuánticas.
Artem Kaznatcheev proporciona un resumen sobresaliente de algunas razones clave por las que esperamos que las computadoras cuánticas sean fundamentalmente más rápidas que las computadoras clásicas, para algunas tareas.
Si desea una lectura adicional, puede leer las notas de clase de Scott Aaronson sobre computación cuántica , que discuten el algoritmo Shor y otros algoritmos que admiten algoritmos cuánticos eficientes pero no parecen admitir ningún algoritmo clásico eficiente.
No es allí está BQP un modelo preciso de la realidad, o es algo que nos pueda impedir la construcción de un ordenador cuántico, ya sea por razones de ingeniería o debido a barreras físicas fundamentales: un debate sobre si los ordenadores cuánticos se pueden construir en la práctica? Puede leer las notas de la conferencia de Scott Aaronson que resumen los argumentos que otros han planteado y también leer su publicación de blog con su opinión sobre ese debate , pero probablemente no tendremos una respuesta definitiva hasta que alguien realmente construya una computadora cuántica que pueda realizar tareas no triviales (como factorizar números grandes).
El edificio básico de la computación cuántica es la transformación unitaria, esta es la herramienta principal para acelerar en muchos algoritmos en la literatura. Los algoritmos que usan unidades unitarias usan propiedades teóricas de números / gráficos de los problemas a mano: búsqueda de períodos, aceleraciones en caminatas cuánticas, etc. Las aceleraciones en problemas naturales aún son difíciles de alcanzar, como se señaló. Si factorizar números grandes es el fin en sí mismo para la computación cuántica, sigue siendo una pregunta abierta. Otras preguntas abiertas como QNC, su separación de NC aún podrían proporcionar pistas evasivas sobre lo que pueden hacer las computadoras cuánticas. Pero, si el objetivo de la computadora cuántica es factorizar grandes números, ¡aún puede ser factible, en sí mismo en algún futuro, con implicaciones aterradoras (por supuesto, para la privacidad personal)!
Quería responder a los comentarios de Niel de Beaudrap sobre la fuente de las aceleraciones cuánticas, pero no puedo comentar. No sé si puedo publicar una respuesta.
En mi opinión, todas las aceleraciones cuánticas se deben a enredos. El único algoritmo en el que podemos hacer algo más rápido que las computadoras clásicas sin usar estados entrelazados es Deutsch-Jozsa para calcular la paridad de dos bits. Si hablamos sobre aceleraciones asintóticas, es necesario enredar, y de hecho mucho. Si un algoritmo cuántico necesita una pequeña cantidad de entrelazamiento, puede simularse eficientemente de manera clásica. Puedo señalar el artículo http://arxiv.org/abs/quant-ph/0201143 , que analiza específicamente el algoritmo de factorización y la cantidad de enredos que requiere.
Esta es casi la misma pregunta central que está impulsando algo así como cientos de millones, o posiblemente miles de millones de dólares en iniciativas de investigación informática QM tanto públicas como privadas en todo el mundo. La pregunta está siendo atacada al mismo tiempo, tanto experimental como teóricamente, y los avances en cada lado se trasladan al otro lado.
la pregunta intenta separar claramente los aspectos teóricos y pragmáticos / experimentales de esta pregunta, pero un experimentalista o ingeniero argumentaría que están estrechamente unidos, son inseparables, y que el progreso histórico hasta ahora en el desafío es evidencia / prueba de eso.
el siguiente punto ciertamente no va a ganar ningún concurso de popularidad (posiblemente debido en parte al sesgo conocido / observado de que los resultados negativos rara vez se informan científicamente), pero vale la pena señalar que existe una opinión minoritaria / contraria promovida por varios creíbles , incluso los investigadores de élite de que la computación QM puede o nunca materializarse físicamente debido a desafíos de implementación insuperables, e incluso hay alguna justificación / análisis teórico para esto (pero tal vez más de la física teórica que el TCS). (y tenga en cuenta que algunos pueden tener dudas pero no están dispuestos a dejar constancia cuestionando el "paradigma dominante"). Los argumentos principales se basan en el ruido inherente de QM, el principio de incertidumbre de Heisenberg y el desorden experimental fundamental de las configuraciones de QM, etc.
Ahora hay dos décadas bastante sólidas de investigación teórica y experimental, y la facción minoritaria argumentaría que los resultados hasta ahora no son alentadores, mediocres o incluso ahora están al borde de una respuesta negativa definitiva.
Dyakonov es uno de los defensores más abiertos de la visión negativa (¡que raya en extrema / mordaz!) pero, sin embargo, argumenta el caso apasionadamente basado en todos los ángulos:
Estado del arte y perspectivas para la computación cuántica / Dyakonov
Perspectivas para la computación cuántica: extremadamente dudoso / Dyakonov
se puede acusar a Dyakonov de casi polémico, pero sirve como un contrapunto casi simétrico para algunos defensores de la computación de QM que creen fervientemente en la posición opuesta (que no hay absolutamente ninguna duda de su viabilidad futura / eventual / inevitable). Kalai es otro teórico importante que defiende las limitaciones inherentes a la informática QM (basada en el ruido). Aquí hay un extenso debate entre él y Harrow sobre el tema.
También es natural establecer una analogía al menos floja con otro proyecto de física masiva / compleja que hasta ahora no ha logrado su objetivo final después de décadas de intentos y predicciones optimistas iniciales, la de los experimentos de fusión que generan energía .