¿Hay alguna estimación sobre cómo la complejidad de la ingeniería cuántica escala con el tamaño?


12

Me parece que una pregunta extremadamente relevante para las perspectivas de la computación cuántica sería cómo la complejidad de ingeniería de los sistemas cuánticos escala con el tamaño. Es decir, es más fácil de construir 1 ordenadores -qubit de un n equipo -qubit. En mi opinión, esto es más o menos análoga al hecho de que es más fácil de resolver analíticamente n 1 problemas -cuerpo de un n -cuerpo problema, ya que el entrelazamiento es el principal factor de motivación detrás de la computación cuántica en el primer lugar.n 1nn 1n

Mi pregunta es la siguiente: Parece que realmente debería importarnos cómo crece la 'dificultad' de construir y controlar un sistema cuántico de cuerpos con n . Arreglar una arquitectura de compuerta, o incluso un algoritmo: ¿existe una dificultad en principio derivada del hecho de que una computadora de n- bits es un problema cuántico de muchos cuerpos? Y, matemáticamente hablando, nuestra comprensión de cómo los fenómenos cuánticos se convierten en fenómenos clásicos es bastante pobre. Aquí la dificultad podría definirse de varias maneras, y la pregunta que nos preocuparía, más o menos, es controlar una máquina de 1000 qubits (es decir, preservar la coherencia de sus funciones de onda) "simplemente" 100 veces más difícil que controlar unnnn1000100Máquina de 10 bits, o 100 2 , o 100 ! o 100 100 ? ¿Tenemos alguna razón para creer que es más o menos lo primero y no lo segundo?101002100!100100


Ja, no sé a qué se suponía que conduciría mi ...
Keith Rush

Hola @KeithRush, ¿no falta algo en la primera oración? Gran pregunta por cierto.
MEE - Restablece a Monica

Absolutamente no duplicado, pero siento que las respuestas a las dos preguntas están profundamente conectadas: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino

Respuestas:


8

Esta es una pregunta en la que he estado pensando durante más de 10 años. En 2008 era estudiante y le dije a mi profesor de computación cuántica que quería estudiar la "complejidad física" de realizar algoritmos cuánticos para los cuales se sabía que la "complejidad computacional" se beneficiaba de la computación cuántica.

Por ejemplo, la búsqueda de Grover requiere puertas cuánticas en oposición aO(n)puertas clásicas, pero ¿quépasasi el costo de controlar las puertas cuánticas se escala comon4mientras que para las puertas clásicas es solon?O(n)O(n)n4n

Él instantáneamente respondió:

"Seguramente su idea de complejidad física dependerá de la implementación"

nn

Estos son los pasos que deberías seguir:



FnFn

E

Ahora puede ver por qué tuvo que venir aquí para hacer la pregunta y la respuesta no estaba en ningún libro de texto:

El paso 1 depende del tipo de implementación (RMN, fotónica, SQUIDS, etc.) El
paso 2 es muy difícil. La dinámica libre de decoherencia se ha simulado sin aproximaciones físicas para 64 qubits , pero la dinámica no perturbativa no markoviana con decoherencia está actualmente limitada a 16 qubits .
El paso 4 depende del algoritmo. Por lo tanto, no existe una "escala universal" de complejidad física, incluso si se trabaja con un tipo particular de implementación (como NMR, Photonics, SQUID, etc.) El
paso 5 depende de la elección del código de corrección de errores

Entonces, para responder a sus dos preguntas específicamente:

100101002100!100100

Depende de su elección en el Paso 1 , y nadie ha podido pasar del Paso 1 al Paso 3 para obtener una fórmula precisa de la complejidad física con respecto al número de qubits, incluso para un algoritmo específico. Así que esta sigue siendo una pregunta abierta, limitada por la dificultad de simular dinámicas de sistemas cuánticos abiertos.

¿Tenemos alguna razón para creer que es más o menos lo primero y no lo segundo?

n!n100n


1
nρ(C2)nnρn

1
¿Qué quieres decir con "dinámica infinitesimal"? El campo vectorial está determinado por la dinámica evaluada en qué punto? Calcular la norma de qué (usando el campo tensor métrico de Fisher)? ¿Quieres decir calcular la norma del campo vectorial? Parece que posiblemente sea una buena idea, pero si es lo que creo que quieres decir, que es mirar la decoherencia por tiempo infinitesimal en t = 0, no sé lo valioso que es esto como métrica, porque requiere tiempo para que la decoherencia alcance su fuerza completa, porque la fuerza de la decoherencia se caracteriza por la función de respuesta del baño, que es una integral sobre t.
user1271772

1
(Mn,g)nMnρTρMnr(ρ). Si desea un supremum sobre todos los estados posibles, haga un ascenso gradual. Esto proporciona un límite muy grueso de la tasa de decoherencia dado el campo vectorial que definió la dinámica. Esto puede usarse para delimitar la decoherencia incluso en tiempos más largos debido a ese límite de velocidad.
AHusain

4

Complejidad del circuito

Creo que el primer problema es comprender realmente qué se entiende por "controlar" un sistema cuántico. Para esto, podría ayudar comenzar a pensar en el caso clásico.

n2n222n2n/nk2n

nϵO(n2), entonces controlar apropiadamente una máquina de 1000 qubit es un poco más de 10000 veces más difícil que controlar una máquina de 10 qubit, en el sentido de que necesita protegerlo de la decoherencia durante mucho más tiempo, implementar muchas más puertas, etc.

Decoherencia

Siguiendo los comentarios,

Consideremos un algoritmo específico o un tipo específico de circuito. Mi pregunta podría repetirse: ¿hay alguna indicación, teórica o práctica, de cómo se escala el problema (de ingeniería) de prevenir la decoherencia a medida que escalamos el número de estos circuitos?

Esto se divide en dos regímenes. Para dispositivos cuánticos a pequeña escala, antes de la corrección de errores, se podría decir que estamos en el régimen NISQ . Esta respuesta es probablemente más relevante para ese régimen. Sin embargo, a medida que su dispositivo se agrande, habrá rendimientos decrecientes; cada vez es más difícil cumplir la tarea de ingeniería solo para agregar algunos qubits más.

pppp1%O(logϵ)ϵO(logϵ)factor de escala. Para números específicos, es posible que le interesen los tipos de cálculos que Andrew Steane ha realizado: vea aquí (aunque los números probablemente podrían mejorarse un poco ahora).

Lo que es realmente convincente es ver cómo cambian los coeficientes en estas relaciones a medida que su error de puerta se acerca cada vez más al umbral de corrección de errores. Parece que no puedo poner mis manos en un cálculo adecuado (estoy seguro de que Andrew Steane hizo uno en algún momento. Posiblemente fue una charla a la que fui), pero explotan muy mal, así que quieres estar operando con un margen decente por debajo del umbral.

Dicho esto, hay algunas suposiciones que deben hacerse sobre su arquitectura antes de que estas consideraciones sean relevantes. Por ejemplo, tiene que haber suficiente paralelismo; debe poder actuar en diferentes partes de la computadora simultáneamente. Si solo hace una cosa a la vez, los errores siempre se acumularán demasiado rápido. También desea poder ampliar su proceso de fabricación sin que las cosas empeoren. Parece que, por ejemplo, los qubits superconductores serán bastante buenos para esto. Su rendimiento depende principalmente de la precisión con la que puede hacer diferentes partes del circuito. Lo haces bien para uno, y puedes "simplemente" repetir muchas veces para hacer muchos qubits.


1
Esto es esencialmente lo que quise decir, pero eliminar la complejidad algorítmica y centrarme en la complejidad de la ingeniería, especialmente para evitar la decoherencia. Consideremos un algoritmo específico o un tipo específico de circuito. Mi pregunta podría repetirse: ¿hay alguna indicación, teórica o práctica, de cómo se escala el problema (de ingeniería) de prevenir la decoherencia a medida que escalamos el número de estos circuitos?
Keith Rush

@KeithRush OK! Ahora empiezo a entender lo que buscas :) en esencia, esta es la complejidad computacional de la tolerancia a fallas: cuáles son los gastos generales de tiempo y espacio para obtener un cierto número de qubits lógicos de alta calidad, y es algo que la gente ha resuelto con mucho cuidado Intentaré desenterrar la información relevante mañana, a menos que alguien más me supere.
DaftWullie

2

mn

Entonces, en cierto sentido, la "fidelidad" podría dar una estimación de cuán propenso a errores es el procesador. Si usó la computadora cuántica para calcular la dinámica de la reacción química, o cualquier otro problema, que podría usar la superposición para lograr la aceleración cuántica (o incluso la "supremacía cuántica" eventualmente) podría verse afectado por la decoherencia, o incluso qué tan rápido logra una superposición , podría desempeñar un papel en la operación libre de errores. La "fidelidad" podría dar una estimación de error, ya sea que usemos 1 qubit o digamos 200 qubits. Incluso podría "diseñar" un hamiltoniano, para dar qubits de alta fidelidad, en el caso adiabático, donde se producen errores de fuga.

Tenga en cuenta que en la práctica, las tasas de error de 99.5% + son altamente deseables, para facilitar la corrección eficiente de errores. Las tasas de error podrían ser del tipo de lectura de espines de electrones entre qubits con precisión. En tal caso, las tasas de error de 99.5% o 99.8% (confianza de tipo sigma cinco o seis) requerirían menos gastos generales (corrección de errores) al escalar el sistema.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.