Pergunta de 10 Gb blade


9

Estou debatendo com um colega sobre uma configuração potencial. Estamos implementando uma nova solução blade que possui um switch interno de 10 Gb e dois servidores blade, cada um com 4 NICs de 10 Gb.

No entanto, o restante do nosso ambiente ainda é de 1 Gb.

O switch blade possui quatro portas externas de 10GBASE-T que detectam automaticamente até 1 Gb. Planejamos LAGAR estes.

Basicamente, teremos 80 Gb de largura de banda da NIC em um switch de 10 Gb conectado a um link de switch de 4 Gb.

Acho que devemos definir manualmente as portas internas para 1 Gb, mas ele não acha que haverá problemas de desempenho perceptíveis no design acima.

Entre em contato se você já teve alguma experiência com uma configuração semelhante ou se conhece algum problema que possamos antecipar.


3
É muito provável que você experimente problemas de buffer nesta topoloy, desde micro rajadas, passando de 10 Gbps a 1 Gbps. Verifique se você está verificando quedas de saída e, possivelmente, aumente os buffers de porta.
jwbensley

Alguma resposta o ajudou? Nesse caso, você deve aceitar a resposta para que a pergunta não apareça para sempre, procurando uma resposta. Como alternativa, você pode fornecer e aceitar sua própria resposta.
Ron Maupin

Respostas:


1

Basicamente, seus pacotes de link de 40 Gb servem apenas para tolerância a falhas, a menos que você tenha transferências de lâmina para lâmina na chave blade; até uma única conexão de servidor de 10 Gb é mais do que a largura de banda total do uplink.

Existem muitas redes e switches com velocidade de porta mista. A Cisco tem uma diretriz baseada em extensa pesquisa. A taxa de largura de banda da porta de acesso (suas conexões de servidor) à porta de distribuição (suas conexões externas) não deve ser maior que 20: 1. Isso significa que para cada 20 Gb na velocidade da porta de acesso, você precisa de 1 Gb de velocidade na porta de uplink. O que você está descrevendo (80 Gb a 4Gb) é 20: 1. A distribuição recomendada para o núcleo é muito menor em 4: 1.


1

Você deve aplicar a QoS entre comutadores blade e o restante do seu ambiente, para impedir que os fluxos jumbo causem a fome em outros fluxos.

Como isso pode ser feito depende das especificações de hardware, mas cada uma das portas de 10 GbE que enfrentam comutadores de 1 GbE tem 8 filas de hardware (0 a 7, uma fila por valor CoS), onde os pacotes aguardam sua vez de sair.

Você tem a chance de configurar algoritmos de agendamento usados ​​por cada fila (prioridade estrita ou algum tipo de agendamento). A fila em que os quadros Ethernet esperam para deixar comutadores blade, pode ser escolhida quando os quadros entram no comutador.

O SO do servidor, os hipervisores, precisam marcar os quadros Ethernet, enquanto os comutadores blade precisam respeitar os valores de CoS, confiando no seu equivalente.
Uma vez marcados, os quadros terminam na fila desejada, mantendo você no controle.

Leia sobre o suporte e a configuração do Data Center Bridging ( DCB ) entre servidores e comutadores blade.

Verifique o suporte ao DCB em switches de 1 GbE: se os switches de 1 Gb forem compatíveis com DCB, os Pause Frames direcionados aos switches blade atuarão em filas específicas em caso de congestionamento (Ethernet Priority Flow Control), enquanto as filas de prioridade mais alta continuarão movendo os quadros Ethernet.


0

Não há diferença. Porque você tem a mesma porta no switch com 1Gb e 10Gb de largura de banda. Essa opção provavelmente possui um buffer de pacote compartilhado, o que não causa um problema de queda de microburst. Mas se você obtiver um switch de pacote configurável que possui buffers separados em portas diferentes, poderá não haver espaço livre na fila de saída em momentos de alta carga.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.