Después de ver a algunos estudiantes ayer que intentaron usar un divisor de voltaje en lugar de un regulador para proporcionar un sensor con una fuente de alimentación más baja, con resultados predecibles, comencé a preguntarme sobre esta pregunta.
Al elegir un regulador, parece que muchos observan la caída de voltaje requerida y la disipación de energía requerida. Dejando de lado la eficiencia por el momento, si un regulador lineal puede reducir esa potencia dentro de los límites térmicos, los reguladores lineales son una opción y, si no pueden, pasar a los reguladores de conmutación.
Si se pudiera calcular el rango de consumo de corriente, y calcular un divisor de voltaje que mantenga simultáneamente la entrada a un regulador lineal lo suficientemente alta como para mantener la regulación y lo suficientemente baja como para que el regulador no queme demasiada energía a través de la corriente dibujar rango, ¿es este un enfoque viable?
Se me ocurren varias razones por las cuales este podría no ser el mejor enfoque: la relación de rechazo de la fuente de alimentación puede no ser lo suficientemente buena para el regulador; el rango de corrientes de corriente que hacen que este enfoque sea factible puede ser muy pequeño, a menos que use resistencias pequeñas que probablemente excedan sus propias clasificaciones de potencia; es más eficiente usar un regulador de conmutación; etc.
Además, puede ser que la gente haga esto todo el tiempo, y simplemente no me haya dado cuenta, o tal vez se use un zener en lugar del divisor. Simplemente parece que cuando la caída de energía es demasiado grande, la mayoría de las personas recurren a conmutadores reguladores.
¿Algo que me falta?