Estoy trabajando con un dispositivo integrado con un protocolo único que envía mensajes a otros dispositivos y estoy creando una aplicación que analiza los paquetes enviados. Cada paquete lleva 8 bytes. El protocolo se define como donde el primer byte es el encabezado y los 7 bytes restantes son los datos.
Están tratando de pasar una cadena de identificación particular, pero la cadena de identificación tiene 8 caracteres de longitud (ASCII), por lo que no cabe en 7 bytes.
Lo que mi colega me dijo es que convertirán los 8 bytes ascii de la cadena original en entero (decimal) y me enviarán 4 bytes. Me dijeron que debería poder obtener la cadena original de los 4 bytes. Me está costando mucho entender esto.
Entonces, si tiene una cadena de identificación como "IO123456", eso es 0x49 0x4f 0x31 0x32 0x33 0x34 0x35 0x36 en ASCII ... ¿Cómo puede comprimir eso en 4 bytes convirtiéndolo en un entero y puedo obtener la cadena original? ? ¿Me estoy perdiendo algo o mi colega se equivoca? Entiendo que esta es una pregunta realmente extraña, pero en serio no tiene ningún sentido para mí.