Estou trabalhando com um dispositivo incorporado com um protocolo exclusivo que envia mensagens para outros dispositivos e estou criando um aplicativo que analisa os pacotes enviados. Cada pacote leva 8 bytes. O protocolo é definido como onde o primeiro byte é o cabeçalho e os 7 bytes restantes são os dados.
Eles estão tentando transmitir uma sequência de ID específica, mas a sequência de ID tem 8 caracteres (ASCII), portanto não caberá em 7 bytes.
O que meu colega me disse é que eles vão transformar os 8 bytes ASCII da string original em número inteiro (decimal) e me enviar 4 bytes dela. Eles me disseram que eu deveria conseguir a string original dos 4 bytes. Estou tendo dificuldades para entender isso.
Portanto, se você tiver uma cadeia de caracteres de identificação como "IO123456", será 0x49 0x4f 0x31 0x32 0x33 0x34 0x35 0x36 em ASCII ? Estou faltando alguma coisa ou meu colega está enganado? Entendo que essa é uma pergunta realmente bizarra, mas isso não faz muito sentido para mim.