Casi todas las fuentes o personas con las que he interactuado, excepto la fuente de Wolfram que vinculó, se refieren al proceso como la adaptación de un modelo a los datos . Esto tiene sentido, ya que el modelo es el objeto dinámico y los datos son estáticos (también conocidos como fijos y constantes).
Para aclararlo, me gusta el enfoque de Larry Wasserman sobre esto. En su relato, un modelo estadístico es una colección de distribuciones. Por ejemplo, la colección de todas las distribuciones normales:
{Normal(μ,σ):μ,σ∈R,σ>0}
o el conjunto de todas las distribuciones de Poisson:
{Poisson(λ):λ∈R,λ>0}
Ajustar una distribución a los datos es cualquier algoritmo que combina un modelo estadístico con un conjunto de datos (los datos son fijos), y elige exactamente una de las distribuciones del modelo como la que "mejor" refleja los datos.
El modelo es lo que cambia (más o menos): lo estamos colapsando de una colección completa de posibilidades en una sola mejor opción. Los datos son solo los datos; no le pasa nada en absoluto.