Prueba de optimización para la estrategia clásica del juego CHSH


8

Soy consciente de que la optimización de la estrategia cuántica para el juego CHSH está dada por el límite de Tsirelson , pero todas las presentaciones omiten la prueba (ciertamente menos interesante) de la optimización de la estrategia clásica.

En el juego CHSH, tenemos dos jugadores: Alice y Bob. Se les da por separado bits aleatorios independientes X y Y como entrada, y sin bits de comunicación debe de salida de su propio ( A y B ) con el objetivo de hacer verdadera la fórmula lógica XY=AB . La estrategia clásica óptima afirmada es que Alice y Bob siempre produzcan 0 , lo que resulta en una ganancia del 75% del tiempo:

XYABXYAB000000010000100000110010

La estrategia cuántica (que paso por aquí ) resulta en una ganancia ~ 85% del tiempo. Puede usar esto como prueba de la insuficiencia de las variables ocultas locales para explicar el enredo de la siguiente manera:

  1. Suponga que los qbits deciden en el momento del enredo cómo colapsarán (en lugar de en el momento de la medición); Esto significa que deben llevar consigo cierta información (la variable oculta local), y esta información puede escribirse como una cadena de bits.
  2. Dado que la información es suficiente para describir completamente la forma en que colapsan los qbits enredados, Alice y Bob podrían, si se les da acceso a esa misma cadena de bits clásicos, simular el comportamiento de un par compartido de qbits enredados.
  3. Si Alice y Bob pudieran simular el comportamiento de un par compartido de qbits entrelazados, podrían implementar la estrategia cuántica con métodos clásicos locales utilizando la cadena precompartida de bits clásicos. Por lo tanto, debe existir alguna estrategia clásica que proporcione una tasa de éxito del 85% con alguna cadena de bits como entrada.
  4. Sin embargo, no existe una cadena de bits que permita una estrategia clásica con una tasa de éxito superior al 75%.
  5. Por contradicción, el comportamiento de las partículas enredadas no es reducible a una cadena de bits (variable oculta local) y, por lo tanto, las partículas enredadas deben afectarse instantáneamente entre sí en el momento de la medición.

Estoy interesado en la prueba de (4). Me imagino que esta prueba toma la forma de un par no comunicativo de máquinas de Turing que toman como entrada bits aleatorios independientes X e Y más una cadena de bits compartida arbitraria, que luego gana el juego CHSH con una probabilidad superior al 75%; presumiblemente esto da como resultado cierta contradicción que demuestra la inexistencia de tales TM. Entonces, ¿qué es esta prueba?

En segundo lugar, ¿qué documentos han presentado una prueba de la optimización de la estrategia clásica?

Pregunta adicional: en (1), afirmamos que la variable oculta local se puede escribir como una cadena de bits; ¿Hay una razón simple por la cual este es el caso?

Respuestas:


6

Yo diría que este es el tema crítico a entender para las desigualdades de Bell. Encontrar una violación de una desigualdad de Bell le dice que el sistema no es clásico (nota: no prueba que sea cuántico), por lo que debe comprender qué es lo clásico que el mundo no es.

Expongamos la variable aleatoria CHSH que nos interesa:

S=A1B1+A1B2+A2B1A2B2,
donde cada uno de A1,A2,B1,B2 son variables aleatorias con valores de ±1 . La suposición clave para la estrategia clásica es que para cada ejecución del experimento, las cuatro variables tienen un valor fijo(aunque solo descubramos dos de los valores). Las variables ocultas son esencialmente irrelevantes aquí: permiten que dos partes distantes coordinen cuáles serán esos valores fijos sin tener que comunicarse en el momento, pero no pueden cambiar esta suposición básica.

¿Cuales son las consecuencias de esto? Reescribe S como

S=A1(B1+B2)+A2(B1B2).
Ahora, si B1{±1} y B2{±1} , entonces B1=B2 , en cuyo caso B1B2=0y B1+B2=±2 , o B1=B2 , de modo que B1+B2=0 y B1B2=±2 . En cualquier caso, S=±2 . Finalmente, si, en cada ejecución del experimento, S=±2 , entonces el valor promedio |S|2 .

Entonces, lo que se aprende de la violación de una desigualdad de Bell es que, cada vez que se ejecuta el experimento, no se determinaron todas las respuestas posibles. Clásicamente, esto es posible con la escapatoria de la localidad: si se conocen ambas preguntas, entonces una respuesta ganadora puede decidirse determinísticamente sin tener que especificar todos los demás resultados posibles. De lo contrario, hay algo de aleatoriedad inherente en el juego al elegir las respuestas.

En cuanto a dónde puede encontrar pruebas en la literatura, ¿por qué no hacer un seguimiento de las referencias en el artículo de Wikipedia ? Como digo, el límite clásico es el elemento central, por lo que debe estar en los documentos originales.

Pregunta adicional: en (1), afirmamos que la variable oculta local se puede escribir como una cadena de bits; ¿Hay una razón simple por la cual este es el caso?

Cualquier información puede escribirse como una cadena de bits.


Estoy interesado en la justificación de por qué las cuatro variables tienen un valor fijo: esta es una afirmación de que todas las estrategias clásicas deben ser necesariamente deterministas, pero, por supuesto, podemos inyectar el no determinismo a través de un lanzamiento de moneda. No es que crea que las estrategias no deterministas serían más poderosas, pero estoy interesado en una justificación de por qué no se incluyen en el análisis.
ahelwer

No se trata de determinismo o indeterminismo. Puede tener un proceso en segundo plano que determine aleatoriamente los valores de los resultados cada vez que ejecute el experimento, en función del conocimiento local de las opciones de medición, y tal vez algo de aleatoriedad que se compartió por adelantado. Sin embargo, la condición es que cuando se realiza esa elección aleatoria, el resultado debe ser qué respuestas se darían para todos los ajustes de medición, incluso si solo se dan las respuestas específicas para las mediciones elegidas.
DaftWullie

4

Una forma de probar esto es caracterizar el conjunto de todas las estrategias posibles que Alice & Bob pueden adoptar. Por "estrategia" me refiero a una posible relación entre entradas y salidas, codificada en el conjunto de cuatro números binarios A0,A1,B0,B1 .

Vale la pena señalar que no importa si estamos considerando protocolos deterministas o probabilísticos aquí. La diferencia entre estos dos enfoques está en la forma en que avanzan los pasos del protocolo, pero si uno considera solo la entrada y la salida del protocolo, sin importar cómo se obtiene realmente la salida, entonces caracteriza el conjunto de todas las posibles relaciones de entrada-salida y mostrando que ninguna de estas combinaciones da una probabilidad de ganar mayor al 75%es suficiente. En otras palabras, el uso de un enfoque probabilístico no expande el número de posibles resultados / estrategias, sino que solo proporciona una forma diferente de llegar a ellos. Debido a que solo estamos interesados ​​en la probabilidad ganadora final y, por lo tanto, en la estrategia general, no necesitamos tener en cuenta los casos deterministas y probabilísticos por separado.

Tenga en cuenta que, dada una estrategia S{A0,A1,B0,B1} , podemos escribir el número de combinaciones de entrada para las cuales esta estrategia da el resultado incorrecto como

(1)PSA0B0+A0B1+A1B0+(1A1B1),
dondeab denota el módulo de suma 2.

Nuestro problema es encontrar la estrategia S que minimice PS .

Ahora, hay varias formas de hacer esto.

Fuerza bruta

La manera más simple, si el menos elegante, consiste en calcular el valor de PS para todas las posibles estrategias de S . Hay 16 de estos, así que esto no es tan malo. Con unas pocas líneas de código puede obtener la siguiente tabla

(A0A1B0B1PS00001000110010300113010010101301101011131000310011101031011111003110131110111111)
lo que confirma que, de hecho, todas las estrategias posibles hacen que el juego se pierda por al menos una combinación de entrada (es decir, en sus palabras, una probabilidad de éxito no mayor al 75% ).

Pero ahora, por supuesto, esta no es una forma muy satisfactoria de resolver el problema (al menos para mí). Sería mucho mejor tener una forma de demostrar la optimización sin tener que comprobar todas las posibilidades. El principal obstáculo a superar es que la ecuación. (1) contiene sumas modulares y sumas regulares, lo que hace que la manipulación sea un poco incómoda, ya que no podemos escribir algo como A0B0+A0B1=A0(B0B1) .

Puedo ver dos formas de evitar esto, la segunda de las cuales también arroja luz sobre las similitudes entre este formalismo y la prueba regular de las desigualdades CHSH.

Primer metodo

Una forma de evitar este problema es de notar que podemos expresar sumas modulares usando sumas y productos regulares, como siguiente

AB=(1A)B+A(1B)=A+B2AB.
A0B0+A0B1=2A0(1(B0+B1))+(B0+B1),A1B0+(1A1B1)=1+(2A11)(B1B0),
PS=1+2{B0+A0[1(B0+B1)]+A1(B1B0)}.

B0=B1PS=1+2A0B0B0+B1=1PS=1+2A1B0

PS

PS=(12B0)(B1B0)[1+2A1B0]+[1(B0+B1)](12B0)[1+2A0B0]+B0(1B0)(...),
B0{0,1}B0=B1B0=B1(12B0)(B1B0)=1 iff B0=B1, and (12B0)(1B0B1)=1 iff B0=B1.

Second method

This involves showing that this formalism is equivalent to the one commonly used in the context of deriving the CHSH inequalities.

Denote with A~x12Ax the number obtained by replacing 0,1 in Ax with +1,1, respectively, and similarly for B~y. For example, Ax=0 gives A~x=+1. Note that, under this mapping, we have the identities

AxBy=(1A~xB~y)/2.
We can then write

PS=12[4A~0B~0A~0B~1A~1B~0+A~1B~1]=2S/2,
where we defined
SA~0B~0+A~0B~1+A~1B~0A~1B~1,
which you might recognise as equivalent to the operator S^ used when discussing the CHSH inequalities.

Standard arguments now give you S=±2, and thus |S|2, and finally PS1 (or more precisely PS{1,3}).


For "mixing a number of these strategies with some randomness certainly cannot give a better result" is this because we can just pre-generate a random string of bits and give that as input to the process, and it is computationally equivalent to generating a random string while the process is running?
ahelwer

@ahelwer I'm not sure what you mean. I think it is simply that you have only a small number of possible "strategies" in this scenario, "strategy" here meaning relations between inputs and outputs. The locality condition prevents communication between Alice and Bob, therefore these strategies reduce to combinations of local strategies. There is really nothing fancy to be done in such a restrictive situation. A & B look at their inputs and produce outputs. If any produced output is sometimes wrong, how can producing a nondeterministic outcome change this?
glS

I don't believe a nondeterministic outcome would change things, but I'm interested in some proof/justification of that.
ahelwer

that's what I've been trying to prove I believe. I think your confusion might arise from thinking in terms of how efficiently a given strategy might be achieved. This is however not what is considered here. We do not care how A&B might go about implementing an actual strategy (though the "implementation" is quite trivial in this case), we are only considering the winning probability of each strategy. Because we are exploring every single strategy A&B might employ, there is really no room for further improvement. There are literally only 16 ways to play this game
glS

I don't think I'm confused, I'm just interested in a justification of why we can reduce the analysis to the deterministic case (the 16 ways to play the game) and ignore all nondeterministic strategies. Again, I don't believe it will change things, but I want to know the proof of that.
ahelwer

2

In the CHSH game we have 2 players Alice and Bob. Can we proof in the form of a noncommunication pair of TMs which takes as input independant random bits x and y plus an arbitrary shared bitstring, that ALice and Bob win the CHSH game with probability greater than 75%.

We ask Alice and Bob questions x and y with probability p(xy) they give answers a and b. The rules of the game are denoted using V(a,b|x,y)wich takes the value "1" if a and b are the winning answers. The probability that Alice and Bob win the game is maximized over all possible strategies Pwin=maxstrategyx,yp(x,y)|a,bV(a,b|x,y)p(a,b|x,y). Where p(a,b|x,y) is the probability that Alice and Bob produce answers a and b given x and y.

Test setup

In terms of probabilities there is an distinction between a classical deterministic prob and a classical shared ramdoness probability. A deterministic classical stratey is given by the functions fA(x)=a and fB(y)=b that take the questions x and y.

If we have shared randomness another string r is used with a sharing probability p(r). Classicaly Alice and Bob can only apply functions a=fA(x,r) and b=fb(y,r) This gives p(a,b|x,y)=x,y(p(r))p(a,b|x,y,r) In this case the pobability of winning the game is

Pwin=maxstrategyx,yp(x,y)a,bV(a,b|x,y)rp(r)p(a,b|x,y,r). In this case of shared randomnes we have an extra term with the string r. Alice and Bob can fix the best possible r given a deterministic strategy for a and b. So it is possible to run an algorithm on a Turing machine using a string r according to the test setup in the picture. Problem how do we find the best possible string r?

Another way to look at it is to say that the string r as a shared randomness is referred to as a hidden variabele in physics. So the Hidden Variabele Theory is equivalent to using a string r in a turing machine. Therefore we might just as well make use of a proof of the CHSH inequality. Furthermore we can compare an arbitrary HVT (dashed line ) and QM results for a photonic experiment. enter image description here

A compact proof of the CHSH inequality based on a hidden variabele can be found in the article Entangled photons, nonlocality and Bell inequalities in the undergraduate laboratory.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.