Resistencias: agrupamiento y distribuciones extrañas


13

Leí sobre un pequeño capricho relacionado con las resistencias binning en un comentario sobre esta pregunta reciente .

Algunos fabricantes venderán, por ejemplo, resistencias de 1% y 5% que realmente se fabrican en el mismo lote. Cuando las resistencias se ordenan por valor, las más precisas se colocan en una categoría de 1% y se venden por un precio ligeramente más alto, y las menos precisas se venden como resistencias de 5%.

Este método de clasificación garantiza que las resistencias del 5% que se ejecutan en este proceso nunca estarán dentro del 1% de su valor nominal. En otras palabras, una resistencia de 1 k +/- 5% tendría una resistencia en el rango [950, 990] o [1010, 1050], pero nunca [990, 1010].Ω

¿Esto realmente sucede? Supongo que las partes siguen siendo lo que estás pagando, pero parece realmente extraño que una resistencia del 5% tenga 0 probabilidad de estar dentro del 1% de tolerancia.


3
¿Cómo es extraño que un fabricante quiera maximizar las ganancias y al mismo tiempo ofrecer al consumidor los componentes dentro de las especificaciones? Es por eso que compra componentes cuyo peor caso funcionará en su aplicación.
I. Wolfe

99
Esto me recuerda una historia que escuché hace mucho tiempo. Un fabricante estaba vendiendo piezas con una tasa de falla garantizada de 1 parte en 100. 100 unidades caben en una caja. Uno de los clientes notó que siempre había una parte defectuosa en una ubicación particular de la caja. El fabricante estaba probando todas las piezas y colocó una pieza defectuosa en cada caja de 100.
JRE

2
Porque los vendedores habían hecho que el cliente tuviera un precio más bajo por la tasa de fracaso del 1%. Como el fabricante estaba haciendo el 100% de las pruebas de las piezas de todos modos (otros requisitos para ese producto y demasiado costoso para cambiar la metodología para uno o dos clientes), simplemente dejaron caer un solo de cada 100 para justificar el precio más bajo.
JRE

2
@Kynit para evitar tener que tirarlo y reemplazarlo por uno que funcione.
Will

10
@JRE: La historia que escuché fue que una compañía automotriz ordenó un millón de chips de un fabricante japonés y especificó que como máximo el 0.01% podría estar defectuoso. Llegó una caja que contenía, junto con miles de tubos de chips, una bolsa con 100 chips. Cuando se les preguntó cuáles eran, el fabricante indicó que eran los "defectuosos" [dejando en claro que estaban seguros de que los 999,900 chips restantes eran buenos, y tal vez indicando que se habían sentido insultados al pensar que enviarían menos de Producto 100% perfecto].
Supercat

Respuestas:


15

El punto es que podría suceder.

La forma correcta de ver este problema es nunca asumir nada sobre la distribución del error dentro de la banda de tolerancia especificada. Siempre asuma que la distribución será la más inconveniente para su diseño, porque no sabe que no lo es.

Especular sobre cómo se comporta algo más allá de la tolerancia especificada en la hoja de datos no tiene sentido y solo lo meterá en problemas.


Supongo que es justo, estoy sentado aquí imaginando una curva de campana agradable y suave, pero no hay nada que diga que este tiene que ser el caso.
Greg d'Eon

3
@Kynit No se puede suponer una curva de campana suave sin conocer los detalles del proceso. Para empezar, la distribución puede ser asimétrica, etc. Tampoco es muy probable que el pico de la distribución caiga en el valor deseado. Ese es un buen resultado, pero rara vez se logra. Cuando observa la distribución de las partes del 1%, verá que está sesgada.
Vuelva a instalar Monica

9

Este método de clasificación garantiza que las resistencias del 5% que se ejecutan en este proceso nunca estarán dentro del 1% de su valor nominal.

Esta es una conclusión falsa.

Por ejemplo, si el 90% de las piezas de producción caen dentro del 1% del valor nominal, pero solo el 10% del volumen de ventas es para piezas con especificaciones del 1%, entonces aproximadamente el 89% de las piezas del "5%" todavía tendrán valores dentro de 1% del nominal.


Sí, esto ha sucedido con microprocesadores. Se prueban a la frecuencia más alta, los que fallan se vuelven a probar a frecuencias más bajas. Si pasan, se convierten en procesadores de menor calificación. No hay suficientes clasificaciones inferiores para satisfacer la demanda, por lo que el overclocking a menudo funciona.
Loren Pechtel

5

En mi experiencia, esto no sucede (las resistencias se ajustan al valor en los tiempos modernos, no se fabrican y luego se clasifican), pero eso no significa que el centro de la distribución sea el valor nominal ni que la distribución se vea necesariamente como una normal. curva.

Por ejemplo, en resistencias del 5%, el equipo de recorte puede establecerse en el valor nominal, pero los retrasos en el corte significan que el valor es sistémicamente más alto que el nominal, o tal vez hay un pequeño error de calibración en el equipo de medición: un cambio de rango y / o un cambio a cero, más alguna variación entre las mediciones. Siempre que el valor típico esté dentro del 1-2% del valor nominal, se ejecutará con él porque las variaciones de una unidad a otra no darán lugar a una cantidad significativa de chatarra.

Por lo general, hay alguna ventaja en hacer cosas como usar 100K || 100K, 100K y 100K + 100K como bits de MS en un DAC (todos del mismo lote), pero incluso eso es una oportunidad: debe probar y estar preparado para volver a trabajar. A veces vale la pena si las piezas son caras en comparación con la mano de obra. Rara vez en los países desarrollados.


3

Sí, puede suceder y sucede, pero también pueden suceder otras cosas.

Por diversión, recientemente escribí un código para medir y archivar de forma semiautomática valores de resistencia de 100 resistencias de 1% 150kΩ (con algunos equipos lo suficientemente precisos). Ya no tengo datos a la mano, pero los valores estaban en una distribución que parecía la mitad de una parte de gaussiana, que van desde 148.5Ω a 149.3Ω.

Como dijo Olin, espere que suceda cualquier cosa, incluso para encontrar ocasionalmente valores un poco fuera de la tolerancia.


2

Sé que solía suceder en los años 1940-60, etc. Recuerdo haber leído sobre eso en las viejas revistas de electrónica de mi padre, como Practical Wireless, etc.

Sin embargo, que yo sepa, @Spehro Pefhany es correcto, y las resistencias se ajustan a las especificaciones desde al menos los años 80. No tiene sentido recortar y medir en dos pasos separados: se miden, recortan y probablemente se empacan una sola vez.


1

terminología.

"Si el fabricante clasificara las resistencias del 5% y etiquetara el resto como 10%, terminaría con resistencias del 10% con una distribución bimodal ... También conocida como" distribución de orejas de conejo ", una gaussiana con el centro cortado" - "10% de resistencia de tolerancia ... ... ¿para qué sirve?"

¿Esto realmente sucede?

a veces no.

"una resistencia del 5% probablemente estará entre el 1% y el 5% (menos una banda de protección); si fuera menos del 1%, generalmente se vendería como una tolerancia más estricta ... Entiendo la teoría detrás de por qué una empresa podría hacer esto pero aún no he visto ninguna evidencia de que realmente se haya hecho. De hecho, los resultados del 'experimento' de EEVblog ... indican que este tipo de agrupamiento no se realizó en las resistencias que Dave probó ". - Reddit: pregunta rápida sobre la tolerancia de resistencia.

a veces sí.

"Medí cada una de las resistencias usando mi ... multímetro ... parece tener dos" golpes "distintos en el histograma". - Paulo Oliveira

"En uno de mis laboratorios escolares (hace una docena de años) probé varias docenas de resistencias de tolerancia relativamente baja y encontré una distribución bimodal justo dentro de los valores de tolerancia +/- que parecía que el fabricante había hecho pruebas equivalentes para agruparlos. ". - Dan Neely

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.