¿Es cierto que agregar axiomas al CIC podría tener influencias negativas en el contenido computacional de definiciones y teoremas? Entiendo que, en el comportamiento normal de la teoría, cualquier término cerrado se reducirá a su forma canónica normal, por ejemplo, si es verdadero, entonces debe reducirse a un término de la forma . Pero cuando postulamos un axioma, digamos la función axioma de extensionalidad , simplemente agregamos una nueva constante al sistemafunext
eso solo "mágicamente" produce una prueba de de cualquier prueba de , sin ningún significado computacional ( en el sentido de que no podemos extraer ningún código de ellos? )
Pero, ¿por qué es esto "malo"?
Porque funext
, leí en esta entrada de coq y en esta pregunta de mathoverflow que hará que el sistema pierda la canonicidad o la verificación decidible. La entrada de coq parece presentar un buen ejemplo, pero todavía me gustaría obtener más referencias al respecto, y de alguna manera no puedo encontrar ninguna.
¿Cómo es que agregar axiomas adicionales podría causar que CIC tenga un comportamiento peor? Cualquier ejemplo práctico sería genial. (Por ejemplo, ¿el axioma de la univalencia?) Me temo que esta pregunta es demasiado blanda, pero si alguien pudiera arrojar algo de luz sobre esos temas o darme algunas referencias, ¡sería genial!
PD: La entrada de Coq menciona que "Thierry Coquand ya observó que la coincidencia de patrones sobre familias intensivas es inconsistente con la extensionalidad a mediados de los años 90". ¿Alguien sabe en qué papel o algo?