No existe una convención universal sobre lo que es un "margen de error", pero creo que (como ha observado) se usa con mayor frecuencia como el radio de un intervalo de confianza , ya sea en la escala original de la estimación o como un porcentaje de una estimación. A veces se usa como sinónimo del "error estándar", por lo que debe tener cuidado de que otros entiendan lo que quiere decir cuando lo usa.
Un "intervalo de confianza" no tiene convenio universal sobre su significado. Básicamente es el rango de posibles estimaciones generadas por un proceso de estimación que contendría, X% del tiempo (siendo el 95% el más utilizado) el valor verdadero del parámetro que se estima. Este concepto de un "proceso" que produciría el verdadero valor X% de las veces es un poco contra-intuitivo y no debe mezclarse con un "intervalo de credibilidad" de la inferencia bayesiana, que tiene una definición mucho más intuitiva, pero es no es lo mismo que el intervalo de confianza ampliamente utilizado.
Su presupuesto actual es un poco desordenado y necesita algunas reparaciones menores como se describe. Evitaría este uso adicional de la palabra "margen" y favorecería las "barras de error". Entonces:
"Los intervalos de confianza se estiman en 1.96 multiplicado por los errores estándar relevantes y se muestran en los gráficos como barras de error".
(Esto deja de lado la pregunta de si esta es una buena manera de calcular los intervalos de confianza, que depende de su modelo, etc. y no es relevante).
Comentario final sobre la terminología: no me gusta el "error estándar", que solo significa "la desviación estándar de la estimación"; o "error de muestreo" en general: prefiero pensar en términos de aleatoriedad y la varianza de las estadísticas, en lugar de "errores". Pero me metí en el uso del término "error estándar" anterior porque supongo que es muy utilizado.