Me parece que una pregunta extremadamente relevante para las perspectivas de la computación cuántica sería cómo la complejidad de ingeniería de los sistemas cuánticos escala con el tamaño. Es decir, es más fácil de construir 1 ordenadores -qubit de un n equipo -qubit. En mi opinión, esto es más o menos análoga al hecho de que es más fácil de resolver analíticamente n 1 problemas -cuerpo de un n -cuerpo problema, ya que el entrelazamiento es el principal factor de motivación detrás de la computación cuántica en el primer lugar.
Mi pregunta es la siguiente: Parece que realmente debería importarnos cómo crece la 'dificultad' de construir y controlar un sistema cuántico de cuerpos con n . Arreglar una arquitectura de compuerta, o incluso un algoritmo: ¿existe una dificultad en principio derivada del hecho de que una computadora de n- bits es un problema cuántico de muchos cuerpos? Y, matemáticamente hablando, nuestra comprensión de cómo los fenómenos cuánticos se convierten en fenómenos clásicos es bastante pobre. Aquí la dificultad podría definirse de varias maneras, y la pregunta que nos preocuparía, más o menos, es controlar una máquina de 1000 qubits (es decir, preservar la coherencia de sus funciones de onda) "simplemente" 100 veces más difícil que controlar unMáquina de 10 bits, o 100 2 , o 100 ! o 100 100 ? ¿Tenemos alguna razón para creer que es más o menos lo primero y no lo segundo?