¿Existe una forma más científica de determinar el número de dígitos significativos para informar sobre un intervalo medio o de confianza en una situación que es bastante estándar, por ejemplo, la clase de primer año en la universidad?
He visto Número de cifras significativas para poner en una tabla , ¿Por qué no usamos dígitos significativos y Número de figuras significativas en un ajuste de chi cuadrado , pero estos no parecen señalar el problema?
En mis clases trato de explicarles a mis alumnos que es un desperdicio de tinta informar 15 dígitos significativos cuando tienen un error estándar tan amplio en sus resultados; mi intuición era que debería redondearse a algún lugar del orden de . Esto no es muy diferente de lo que dice ASTM: Resultados de la prueba de informes que se refieren a E29 donde dicen que debería estar entre y .
EDITAR:
Cuando tengo un conjunto de números como el x
siguiente, ¿cuántos dígitos debo usar para imprimir la media y la desviación estándar?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
PREGUNTA: Explique en detalle cuál es la precisión (cuando hay un vector de números de doble precisión) para la desviación media y estándar en esto y escriba una función pedagógica R simple que imprima la desviación media y estándar al número significativo de dígitos que se refleja en el vector x
.
R
(así como en casi todo el software) la impresión está controlada por un valor global (ver options(digits=...)
), no por ninguna consideración de precisión.