En la teoría de la codificación, "qué tan bueno es un código" significa cuántos errores de canal pueden corregirse, o mejor dicho, el nivel de ruido máximo con el que puede lidiar el código.
Para obtener mejores códigos, los códigos están diseñados con un alfabeto grande (en lugar de uno binario). Y luego, el código es bueno si puede manejar una gran cantidad de "símbolos" erróneos.
¿Por qué no se considera hacer trampa? Quiero decir, ¿no deberíamos preocuparnos solo por lo que sucede cuando "traducimos" cada símbolo en una cadena binaria? La "tasa de error de bit" es diferente de la tasa de "error de símbolo". Por ejemplo, la tasa de error de bit no puede superar 1/2 mientras que (si entiendo esto correctamente), con un alfabeto lo suficientemente grande, el error de símbolo puede subir a . ¿Es esto porque restringimos artificialmente el canal para que cambie solo "símbolos" en lugar de bits, o es porque el código es realmente mejor?