Al estimar el tamaño relativo de las historias de usuario en el desarrollo ágil de software, se supone que los miembros del equipo estiman el tamaño de una historia de usuario como 1, 2, 3, 5, 8, 13, .... Por tanto, los valores estimados deberían parecerse a la serie de Fibonacci. Pero me pregunto, ¿por qué?
La descripción de http://en.wikipedia.org/wiki/Planning_poker en Wikipedia contiene la frase misteriosa:
La razón para utilizar la secuencia de Fibonacci es reflejar la incertidumbre inherente al estimar elementos más grandes.
Pero, ¿por qué debería haber una incertidumbre inherente en elementos más grandes? ¿No es mayor la incertidumbre si hacemos menos mediciones, es decir, si menos personas estiman la misma historia? E incluso si la incertidumbre es mayor en historias más grandes, ¿por qué eso implica el uso de la secuencia de Fibonacci? ¿Existe una razón matemática o estadística para ello? De lo contrario, usar la serie de Fibonacci para la estimación me parece una ciencia de CargoCult.
2^n
podría espaciar los números demasiado, entonces, ¿por qué no usar la secuencia de Fibonacci, que es aproximadamentec*phi^n
?