É um pouco estranho que você mencione isso no contexto da ordem das mensagens. Citando você:
Pelo que entendi, a ordem na qual as mensagens MPI ponto a ponto sem bloqueio (Isend e Irecv) são recebidas é consistente com a ordem em que são enviadas.
Vale ressaltar aqui que o MPI garante apenas que as mensagens correspondentes entre os processos serão recebidas na ordem em que foram enviadas. Você realmente não quer que esse tipo de pedido seja alterado, pois torna seu código mais compreensível e tira um fardo enorme de você como programador de aplicativos.
No entanto, se você enviou mensagens com tags diferentes, isso altera os critérios de correspondência e você pode facilmente receber o segundo antes do primeiro. Veja o segundo exemplo na parte relevante da norma para obter detalhes. Eu espero que, se você tem dois pedaços de seu código enviando simultaneamente que você já está separando as mensagens grosseiras e finas usando tags, e não tentar implementar algum protocolo de sua própria no topo da mensagem de encomenda. Essa é uma segunda natureza para a maioria dos programadores de MPI que conheço.
De qualquer forma, supondo que você esteja fazendo isso, provavelmente está preocupado com o fato de as mensagens granulares de alto volume entupirem sua rede quando você deseja enviar mensagens grosseiras. Meu conselho geral sobre isso é que, se não for um problema de desempenho que você possa realmente medir no momento, não deverá se preocupar em resolvê-lo ainda. Você parece confirmar que ainda não é um problema em um dos comentários acima.
Uma solução possível que você pode considerar seria usar um coletivo não-bloqueador (NBC) como Bcast ou Barrier para notificar a todos que a fase grosseira está pronta e pronta para enviar sua solução. Com toda a probabilidade, o tráfego da NBC não será priorizado, mas os processos notificados podem pelo menos parar de enviar montes de soluções finas até que os envios grosseiros sejam feitos. As NBCs estarão no MPI-3 ou você pode tentar usar a libNBC se não puder esperar tanto tempo.
Mais uma vez, porém, isso parece dar muito trabalho para algo que ainda não parece um problema de desempenho.