Una pregunta reciente sobre cómo calcular la precisión de un circuito me hizo pensar en la calibración en general.
En particular, como EE usamos habitualmente voltios y amperios como una unidad y, sin embargo, estos son elementos bastante vagos y difíciles de cuantificar.
Solía ser que un voltio estaba definido por una "celda estándar" encerrada en una bóveda en algún lugar, pero eso cambió a usar el "estándar de voltaje Josephson", que es un sistema complejo que utiliza un chip de circuito integrado superconductor que funciona a 70– 96 GHz para generar voltajes estables que dependen solo de una frecuencia aplicada y constantes fundamentales.
Esto último no es exactamente algo que uno podría juntar en un sótano, o incluso en los departamentos de ingeniería de prueba en la mayoría de las empresas.
El amperio es peor. Se define en SI como "Esa corriente constante que, si se mantiene en dos conductores paralelos rectos de longitud infinita, de sección transversal circular insignificante, y se coloca a un metro de distancia en vacío, produciría entre estos conductores una fuerza igual a 2 × 10 −7 newtons por metro de longitud ".
No tengo idea de cómo alguien podría medir eso.
El ohmio solía definirse por una altura y peso específicos de mercurio, pero eso se abandonó a favor de ser una unidad derivada de 1V y 1A.
Todo esto me lleva a preguntarme cuánto de lo que usamos está calibrado para el medidor de otra persona. Y cuántos de esos medidores están calibrados para otra persona ... y así sucesivamente. Parece una gran casa de naipes.
¿Existe algún tipo de estándar intermedio de medidas o equipo que pueda comprar para usar como referencias calibradas para 1V, 1A y 1R? (Obviamente, solo necesitas dos de esos).
Pregunta adicional: ¿Hay algún tipo de etiqueta de certificación que se debe buscar al comprar un medidor u otro equipo que indique que efectivamente se probó con los valores reales de SI en comparación con, por ejemplo, un Fluke?