Por lo que he leído, los algoritmos genéticos generalmente se aplican (¿siempre?) A los cromosomas de bits. Entonces, si un problema implica maximizar una función que toma valores enteros, los enteros se codifican primero como bits.
¿Es necesario este mapeo? Parece que podría tomar cromosomas de enteros y aplicar crossover y mutación directamente. Entonces, si tengo una función que toma 35 entradas enteras, simplemente puedo aplicar los operadores genéticos a esos enteros, en lugar de en los bits de 35xB (donde B es el número de bits necesarios para codificar un entero). ¿Hay alguna razón para que esto no se haga?
Quizás el algoritmo sufriría porque el problema se define de manera más gruesa (es decir, un problema se puede definir con cromosomas más cortos si no estamos usando bits), pero tengo curiosidad si alguien tiene una mejor respuesta.