Supongo que la eficiencia gaussiana es algo relacionado con el costo de cálculo.
La eficiencia de la adaptación gaussiana se basa en la teoría de la información debido a Claude E. Shannon. Cuando ocurre un evento con probabilidad P, entonces se puede lograr el registro de información (P). Por ejemplo, si la aptitud media es P, la información obtenida para cada individuo seleccionado para la supervivencia será −log (P) - en promedio - y el trabajo / tiempo necesario para obtener la información es proporcional a 1 / P. Por lo tanto, si la eficiencia, E, se define como información dividida por el trabajo / tiempo necesario para obtenerla, tenemos: E = −P log (P). Esta función alcanza su máximo cuando P = 1 / e = 0.37. Gaines ha obtenido el mismo resultado con un método diferente.
Simplemente puedo concluir que cuanto mayor es la eficiencia gaussiana, menos recursos (RAM) se necesitan para calcular algo así como un estimador de escala robusto de una muestra grande. Dado que las CPU son mucho más rápidas que el resto de la computadora, preferimos ejecutar un algoritmo de prueba / error por momentos en lugar de hacerlo de una vez con 128 GB de RAM. cuando la eficiencia gaussiana es alta, el trabajo se realizará en un tiempo más corto.