A largura de banda é escalonada pelo tamanho da instância. Aqui está uma resposta abrangente:
Para instâncias t2 / m3 / c3 / c4 / r3 / i2 / d2:
- t2.nano = ??? (Com base nos fatores de escala, eu esperaria de 20 a 30 MBit / s)
- t2.micro = ~ 70 MBit / s (o qiita indica 63 MBit / s) - t1.micro obtém aproximadamente ~ 100 Mbit / s
- t2.small = ~ 125 MBit / s (t2, qiita diz 127 MBit / s, cloudharmony diz 125 Mbit / s com picos de mais de 200 Mbit / s)
- * .medium = t2.medium obtém 250-300 MBit / s, m3.medium ~ 400 MBit / s
- * .large = ~ 450-600 MBit / s (a maior variação, veja abaixo)
- * .xlarge = 700-900 MBit / s
- * .2xlarge = ~ 1 GBit / s + - 10%
- * .4xlarge = ~ 2 GBit / s + - 10%
- * .8xgrande e marcada especialidade = 10 Gbit, espera ~ 8,5 GBit / s, requer rede e VPC aprimoradas para taxa de transferência total
m1 instâncias pequena, média e grande tendem a apresentar desempenho acima do esperado. c1.medium é outra aberração, a 800 MBit / s.
Juntei isso por pentear dezenas de fontes fazendo benchmarks (principalmente usando conexões iperf & TCP). Os nossos agradecimentos à CloudHarmony & flux7, em particular por muitos dos benchmarks (observe que esses dois links vão para as pesquisas do Google que mostram os vários benchmarks individuais).
Advertências e Notas:
O tamanho da instância grande tem a maior variação relatada:
- m1.large é ~ 800 Mbit / s (!!!)
- t2.large = ~ 500 MBit / s
- c3.large = ~ 500-570 Mbit / s (resultados diferentes de fontes diferentes)
- c4.large = ~ 520 MBit / s (eu já confirmei isso de forma independente)
- m3.large é melhor em ~ 700 MBit / s
- m4.large é ~ 445 Mbit / s
- r3.large é ~ 390 Mbit / s
Instâncias Burstable (T2) parecem exibir também desempenho de rede burstable:
Observe que eles estão dentro da mesma região - se você estiver transferindo entre regiões, o desempenho real poderá ser muito mais lento. Mesmo para as instâncias maiores, estou vendo números de algumas centenas de MBit / s.