Definición
Llamemos universal a una secuencia entera (infinita) si contiene cada secuencia entera finita como una subsecuencia contigua.
En otras palabras, la secuencia entera (a 1 , a 2 , ...) es universal si y solo si, para cada secuencia entera finita (b 1 , ..., b n ) , hay un desplazamiento k tal que (a k + 1 , ..., a k + n ) = (b 1 , ..., b n ) .
La secuencia de números primos positivos, por ejemplo, no es universal, entre otras, por las siguientes razones.
No contiene enteros negativos, 1 o números compuestos.
Aunque contiene 3 , no contiene la subsecuencia contigua (3, 3, 3) .
Aunque contiene 2 y 5 , no contiene la subsecuencia contigua (2, 5) .
Aunque contiene la subsecuencia contigua (7, 11, 13) , no contiene la subsecuencia contigua (13, 11, 7) .
Tarea
Elija cualquier secuencia entera universal (un 1 , un 2 , ...) e impleméntela en el lenguaje de programación que elija, respetando las siguientes reglas.
Puede enviar un programa completo o una función.
Tiene tres opciones para E / S:
No ingrese datos e imprima o devuelva la secuencia completa.
Tome un índice n como entrada e imprima o devuelva un n .
Tome un índice n como entrada e imprima o devuelva (un 1 , ..., un n ) .
Para las opciones de E / S 2 y 3 , puede usar la indexación basada en 0 si lo prefiere.
Su envío debe ser determinista: si se ejecuta varias veces con la misma entrada, debe producir la misma salida.
Además, a menos que sea inmediatamente obvio, pruebe que la secuencia que eligió es universal. Su prueba puede no depender de conjeturas no comprobadas.
Aplican reglas estándar de código de golf . ¡Que gane el código más corto en bytes!