Hermosos resultados en TCS


29

Recientemente, un amigo mío (trabajando en TCS) mencionó en una conversación que "quería ver / saber todo (o la mayor cantidad posible) de los hermosos resultados en TCS en su vida". Esto me hizo preguntarme sobre los hermosos resultados en esta área y, por lo tanto, la motivación para la siguiente pregunta:

¿Qué resultados (o ideas), en su opinión, son hermosos en la informática teórica? Sería genial si mencionaras la razón también. [También estaría bien incluso si las ideas se originan en las matemáticas, pero han despertado interés y encontrado usos en TCS]

Comenzaría con una respuesta como el argumento diagonal de Cantor porque es simple, elegante y, sin embargo, un resultado poderoso.


2
Casi duplicado de esta pregunta (pero solo cerca, porque los algoritmos son un subconjunto apropiado de TCS)
Jeffε

3
No lo sé si esta es una buena pregunta en su forma actual, por favor vea Buen subjetivo, Mal subjetivo .
Kaveh

55
Por lo menos, esto debe ser CW.
Suresh Venkat

1
Tal vez podríamos modificar la pregunta para enfocarnos en resultados no algorítmicos, ya que el otro hilo es sobre algoritmos.
Vijay D

44
En su blog, Lance Fortnow tiene listas de "teoremas favoritos" de cada década. Hay bastantes resultados hermosos en esas listas.
MCH

Respuestas:


21

La indecidibilidad del problema de detención.

Hermoso por muchas razones. Es un resultado imposible. La prueba utiliza diagonalización. La declaración se aplica a una amplia gama de modelos de computación. Se puede formular de varias maneras, particularmente, utilizando lenguajes de programación estándar. Fue un resultado decisivo en la historia de la informática. Ampliar esta afirmación lleva al Teorema de Rice, los grados de Turing y muchos otros resultados geniales. Etc. Etc. Etc.


17

En mi opinión, la correspondencia Curry-Howard es uno de los resultados teóricos más bellos, y el que me llevó a investigar.

La idea de que dos sistemas, programas por un lado, y pruebas por otro lado, tienen exactamente la misma estructura, es casi de naturaleza filosófica: ¿existen algunos "patrones de razonamiento" generales?


Personalmente, considero la correspondencia de Curry-Howard como el ejemplo canónico de teorías duplicadas debido a diferentes contextos, mientras que tienen la misma denotación matemática. Debería considerarse más bien como la vergüenza de los humanos que no pueden reconocer las estructuras existentes y reinventar la rueda.
Ludovic Patey

11
Estoy en completo desacuerdo. Si Curry-Howard trata sobre humanos insignificantes duplicando el trabajo, también lo es gran parte de las matemáticas modernas, particularmente los resultados que relacionan estructuras en combinatoria, álgebra y topología.
Vijay D

Tiene razón en el sentido de que las matemáticas consisten principalmente en encontrar correlaciones entre estructuras, y una correlación es, por definición, una no independencia, revelando algunas duplicaciones en al menos algunas partes de las teorías. Para ser coherente, debo concluir que las matemáticas son una vergüenza en su esencia porque si pudiéramos ver duplicaciones, los teoremas serían obvios y las matemáticas inútiles. ^^
Ludovic Patey

Turingoid: estoy de acuerdo. Llegué a conclusiones similares (sobre reinventar la rueda) al trabajar con el concepto de simetría. Es realmente una lástima que no podamos trabajar al nivel de las relaciones de simetría / asimetría primarias. En mi opinión, habrá un colapso de algunas de las ciencias reales en otras más amplias cuando finalmente avancemos.
Mooncer

1
Si solo hubiera alguna forma de automatizar el proceso.
Jeffε

17

La posibilidad de la criptografía de clave pública, por ejemplo, el esquema de intercambio de claves Diffie-Hellman.

Rompe la preconcepción muy fuerte que las personas deben conocer antes de intercambiar secretos en un canal inseguro.


16

Estaba y todavía estoy sorprendido por el algoritmo de Euclides. Para mí, es un testimonio del poder del pensamiento humano: que las personas podrían concebir un algoritmo tan temprano (alrededor del 300 aC si confío en mi memoria).

Avance rápido, hay literatura que aturde la mente sobre el tema. Creo que la lista de Scott Aaronson debería ser útil a este respecto, sin embargo, como el propio Aaronson dice que no está completa (y no es completamente teórica)


15

La técnica de Yao para usar el Teorema Minmax de von Neumann para probar los límites inferiores de los Algoritmos Aleatorios. Lo encuentro como algo fuera de este mundo.

Método probabilístico para demostrar la existencia de objetos que nos resulta difícil construir, incluido el Lema local de Lovasz. Estas técnicas son tan simples, pero tan poderosas.

Construcciones de la teoría de codificación de Madhu Sudán utilizando polinomios.

Expansores (esto comenzó como gráficos de Ramanujan) y Extractores y sus aplicaciones en Pseudoaleatoriedad.

Algoritmo de transformación rápida de Fourier de Cooley y Tukey para encontrar DFT. (Sin embargo, como asumió Tukey, ¡esto fue un redescubrimiento de una técnica bien conocida, al menos conocida por Gauss!)

El teorema de Barrington (un resultado muy sorprendente en su momento)

Teorema de repetición paralela (aunque el resultado es bueno, la prueba no es fácil)

Función Lovasz Theta para estimar la capacidad de shannon de un gráfico.

Algoritmo elipsoide que mostró que LP está en P, sorprendiendo a muchos en un momento en que muchos todavía sospechaban que podría ser NP-Completo.


El método probabilístico no es realmente un resultado. Es solo una característica inmediata de la definición de probabilidad. Por razones similares, es difícil argumentar que es especial para TCS (a pesar de que hay un libro con el mismo nombre).
Lembik

14

Sorprendentemente, una de las respuestas más obvias no se ha agregado todavía. a veces uno trabaja demasiado con algo para verlo imparcialmente. La teoría de la integridad de NP lanzada por Cook / Levin e inmediatamente amplificada por Karp, quien dio una indicación temprana de su ubicuidad, aún más profética en retrospectiva. En muchos sentidos, este es el nacimiento de la teoría moderna de TCS y complejidad, y su pregunta central / clave / notoria P =? NP todavía está abierta después de cuatro décadas de intenso estudio / ataque. P =? NP tiene un premio Claymath de $ 1M por su solución.

La prueba Cook introdujo el NDTM, que aparentemente no es en absoluto una mera curiosidad teórica, sino una parte casi extremadamente fundamental de TCS. lanzó mil naves, por así decirlo. además, continuamente resiste / desafía los esfuerzos a través de una de las otras técnicas TCS clave / poderosas mencionadas en esta lista, la diagonalización, vista, por ejemplo, en los resultados de Oracle / Relativización BGS-75, lo que sugiere que debe haber algo exótico y diferente sobre cualquier posible solución, también sugerida / ampliada por el documento Razborov-Rudich Natural Proofs (premio Godel 2007).

Hay muchas, muchas referencias en el subj pero una más reciente con algún relato de primera mano de la historia se puede encontrar en The P =? NP Question y Godel's Lost Letter por RJ Lipton


En realidad, los NDTM ya aparecen en el artículo de Turing de 1936 como "máquinas de elección"; ver Wikipedia
Jeffε

1
Uy, ok. Gracias por la corrección. de todos modos, el papel de cocina es quizás el primero en mostrar que el NDTM es muy diferente a un DTM en un sentido de teoría de la complejidad.
vzn

¡Uy! Estaba a punto de publicar esto. También me sorprendió que no se publicara de inmediato.
Andrew D. King

14

La complejidad de Kolmogorov y el método de incompresibilidad .

El método de incompresibilidad, basado en la complejidad de Kolmogorov, proporcionó una forma nueva e intuitiva de formular pruebas. En una prueba típica que usa el método de incompresibilidad, primero se elige un objeto incompresible de la clase en discusión. El argumento invariablemente dice que si una propiedad deseada no se cumple, entonces, en contraste con la suposición, el objeto puede comprimirse y esto genera la contradicción requerida.

Vea, por ejemplo, la prueba de que hay un número infinito de números primos, la prueba alternativa del teorema de incompletitud de Godel o las conexiones entre la complejidad de Kolmogorov y la complejidad computacional ...


11

Estaba (y todavía estoy) asombrado por el segundo teorema de recursión de Kleene . En la superficie, parece simple y no muy útil, pero luego descubrí que es profundo tanto matemática como filosóficamente.

Cuando también leí acerca de la variante probada en Turing Machines (muy informalmente afirmando que las máquinas pueden obtener sus propias descripciones o, de manera equivalente, que hay máquinas que generan su propia descripción, como un programa que se imprime ...), sentí que mi cerebro se retorcía tan duro, pero intrigado como nunca antes. Luego, verá cómo se utiliza el teorema para proporcionar pruebas de una línea para la indecidibilidad del problema de detención y la irreconocibilidad de máquinas mínimas ... etc.


11

Fuente y teoremas de codificación de canales de Shannon.

Una definición matemática que distinguía entre el transmisor, el receptor y el medio y que ignoraba la semántica del mensaje fue un gran paso. La entropía, en el contexto de los datos, es una noción fantásticamente útil. Y porque la teoría de la información debería ser mejor conocida.


También tenga en cuenta que Shannon casi inventó la teoría de la información en su artículo seminal.
Alejandro Piad

11

Un hermoso resultado que se basa en el teorema de PCP establece que es computacionalmente difícil (NP-difícil) satisfacer más de 7/8 de las cláusulas de la fórmula 3SAT incluso para las que son satisfactorias.


44
Aún más sorprendente ya que 7/8 de las cláusulas pueden satisfacerse de manera bastante trivial (mediante una asignación aleatoria o un algoritmo codicioso).
Jan Johannsen

1
Este resultado no es exactamente el teorema de PCP. Se basa en el teorema de PCP, pero necesita mucho más trabajo que eso.
MCH

10

algoritmo shors para factorizar en BQP . en mi opinión / memoria, la computación cuántica fue más que una curiosidad teórica hasta este resultado en 1994, momento en el que parece que la literatura y el interés de la investigación en computación QM explotaron. sigue siendo posiblemente uno de los algoritmos QM más importantes conocidos. galardonado con el premio Gödel 1999. también revela que la factorización en la computación QM en realidad se comprende mejor en cierto sentido que en la computación clásica, donde, por ejemplo, la cuestión de si la factorización es NP completa aún está abierta.


1
tenga en cuenta que factorizar estar completo de NP sería un gran shock, ya que implicaría coNP = NP
Sasho Nikolov

2
Yo pondría el algoritmo de Simon junto con el de Shor.
Juan Bermejo Vega

10

Me parece que la prueba de primalidad AKS P-time es bastante hermosa en varios sentidos. un avance en el momento, uno de los grandes pero raros avances vistos en la teoría de la complejidad en nuestras vidas. resuelve un problema que se remonta a la antigüedad griega y se relaciona con algunos de los primeros algoritmos inventados (tamiz de eratóstenes), es decir, identificar primos de manera eficiente. es una prueba constructiva de que la detección de primalidades está en P en oposición a muchas pruebas excelentes que desafortunadamente no son constructivas.

está interconectado con el algoritmo de criptografía RSA mencionado en otra respuesta porque ese algoritmo necesita encontrar primos grandes rápidamente, antes del algoritmo AKS esto solo era probabilísticamente posible. está fundamentalmente relacionado con la teoría de números y otros problemas profundos, por ejemplo, la conjetura de Riemann que, en muchos sentidos, es el ámbito original de la algorítmica.

galardonado con el Premio Gödel 2006 y el Premio Fulkerson 2006


3
Este es definitivamente un resultado importante, pero hermoso? De Verdad?
Jeffε

Estoy de acuerdo con el comentario anterior de JeffE. El resultado es muy significativo y eso es lo que se ha señalado en la respuesta, en lugar de cómo (o qué idea (s) utilizada) la prueba de primalidad de AKS es / son hermosas.
Nikhil

Para mí, un resultado "enormemente significativo" es hermoso. "Su experiencia puede ser diferente".
vzn

77
Miller-Rabin es bastante hermosa, por otro lado
Sasho Nikolov

1
No sé por qué la gente consideraría el algoritmo probabilístico superior en belleza al algoritmo exacto. Sí, AKS se basa en gran medida en Miller-Rabin, pero es un avance importante que elimina la aleatorización que se perdió (o tal vez no se vio como posible) durante décadas y finalmente se encontró. para mí eso es hermoso además, la teoría de números es solo un área hermosa de matemática / algoritmos [con la teoría de los números primos en la teoría de números], esta perspectiva se puede ver, por ejemplo, en el famoso libro Mathematicians Apology de GH Hardy.
vzn

10

Creo que el teorema de gráficos menores de Robertson y Seymour fue la teoría más maravillosa que he visto (y la leí parcialmente). En primer lugar, es bastante complicado, pero las conjeturas básicas no son difíciles y es posible que todos los que trabajan en TCS puedan adivinarlas. Su esfuerzo extremo para demostrarlos fue maravilloso. De hecho, después de leer algunos de los artículos de esa serie, entiendo el poder de la mente humana.

Además, el teorema menor del gráfico tiene un gran impacto en diferentes campos de TCS. Como teoría de grafos, algoritmo de aproximación, algoritmos parametrizados, lógica, ...


9

Uno de mis resultados favoritos es que varios problemas de naturaleza aparentemente infinita son decidibles.

  1. La teoría del primer orden de los campos cerrados reales es decidible (por Tarski). La geometría euclidiana también es un modelo de los axiomas de los campos realmente cerrados, por lo tanto, según Tarski, las declaraciones de primer orden en este modelo son decidibles.
  2. La aritmética previa a la hamburguesa es decidible.
  3. La teoría de primer orden de los campos cerrados algebraicamente (esto incluye números complejos) es decidible.
  4. La lógica monádica de segundo orden sobre palabras infinitas (y finitas) es decidible. La prueba es elegante y se puede enseñar a estudiantes de pregrado.

8

Hay muchos resultados encantadores sobre los algoritmos probabilísticos, que son engañosamente simples y un gran paso adelante en la forma en que pensamos sobre la computación.

El truco de von Neumann para implementar una moneda justa con una sesgada. Estamos tan acostumbrados a los algoritmos probabilísticos ahora, pero desde una perspectiva externa, esto es increíblemente genial. Tanto el algoritmo como la prueba son accesibles para cualquiera que conozca la probabilidad de la escuela secundaria.


Hubiera esperado que mencionaras el principio minmax de Yao para encontrar límites más bajos en los tiempos de ejecución esperados de los algoritmos de Las Vegas. Conecta ideas de teoría de juegos con probabilidad y algoritmos.
karthik

Seguro. Pero ya estoy enviando esta pregunta con suficientes respuestas. Agregue su resultado favorito como respuesta.
Vijay D

8

El resultado de Tim Griffin es que los operadores de control call/ccestán relacionados con la lógica clásica, extendiendo la correspondencia Curry-Howard.

call/ccmi¬¬τdounall/ /dodo(mi)τ¬τττ

Su artículo , "Una noción de control de Fórmulas como tipos", aparece en POPL 1990.


7

Mi favorito es el algoritmo de tiempo lineal de Rabin para calcular el par de puntos más cercano en el plano (o más precisamente su simplificación). Transmite la importancia del modelo de computación, el poder de los algoritmos aleatorios y alguna forma elegante de pensar en algoritmos aleatorios.

Dicho esto, CS todavía está lejos de alcanzar el nivel de elegancia que uno encuentra en matemáticas (bueno, tenían 5000 años de ventaja), desde definiciones básicas / resultados en cálculo, topología (teoremas de punto fijo), combinatoria, geometría (teorema de Pitágoras http : //en.wikipedia.org/wiki/File: Pythag_anim.gif ), etc.

Si buscas belleza, búscala en todas partes ...


5

Este resultado es probablemente un poco reciente para calificar como fundamental, pero creo que la interpretación de tipos como homotopía califica. Esta vista permite interpretar tipos de teoría constructivos como conjuntos con ciertas propiedades geométricas, en este caso, la homotopía .

Considero que este punto de vista es particularmente hermoso, ya que hace que ciertas observaciones previamente complejas sobre la teoría de tipos sean simples, por ejemplo, el hecho de que el "axioma K" no es derivable .

Una descripción general de este campo en ciernes por Steve Awodey puede encontrarse aquí .


2

La prueba de conocimiento cero es un concepto muy interesante. Permite que una entidad, el probador, demuestre (con alta probabilidad) a otra entidad, el verificador, que conoce "un secreto" (una solución a algún problema NP, una raíz cuadrada modular de algún número, un discreto registro de algún número, etc. ...) sin dar ninguna información sobre el secreto (lo cual es difícil a primera vista, ya que la primera idea para demostrar que usted sabe un secreto es decir el secreto, y que cualquier comunicación que pueda resultar en el verificador cree que usted conoce el secreto a priori solo puede aumentar el conocimiento del verificador sobre el secreto).

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.