Sim (e não, não é a velocidade da Internet e não é a velocidade propriamente dita).
Rapidez
Velocidade é uma expressão muito imprecisa que mistura duas coisas diferentes que são amplamente independentes, mas interagem entre si: latência e largura de banda.
Além disso, a velocidade que você observa não é a velocidade da Internet . É uma mistura muito complexa de muitas coisas que acontecem no seu lado (seu computador), no outro lado (servidor) e em vários pontos intermediários. O que pode ser totalmente diferente no próximo servidor que você acessa, mesmo que esse esteja tão longe (ou mais).
Largura de banda
Largura de banda é a quantidade de dados que você pode - em teoria - inserir no fio por unidade de tempo. Geralmente, existem limites rígidos e flexíveis para isso. O limite rígido seria o que a linha é capaz de suportar, e depois há o que você paga e o que o provedor permitirá (geralmente menos!). Freqüentemente, as transferências não são uniformes, elas iniciam mais rápido e depois diminuem muito em breve.
Por exemplo, eu tenho um uplink de 96Mbit / s com uma capacidade de linha física de 112Mbit / s. Isso ocorre porque, para maior estabilidade, menos largura de banda é usada do que seria realmente possível. No entanto, pago apenas 50Mbit / s (o que é suficiente para minhas necessidades e 10 € por mês mais barato), apesar de realmente ter 96Mbit / s. Espere ... como isso funciona? Por que alguém pagaria mais dinheiro então? Bem, eu transmito tudo a 96 MBit / s, mas o provedor, depois de um tempo muito curto (menos de 0,1 segundos), secretamente me bloqueia e só permite que mais dados sejam enviados / recebidos uma vez que o tempo passou, por isso estou dentro a cota pela qual paguei. Assim, em média, tenho meus 50Mbit / s. Coisas muito semelhantes acontecem em vários locais da Internet, onde o tráfego também passará (sem que você saiba). O tráfego está sendo "moldado"
A largura de banda na Internet é, em grande parte, tão grande que - exceto durante ataques DDoS em várias nações - não é um fator limitante de forma alguma. Bem, em teoria, e na maior parte do mundo, é isso.
No entanto, existem gargalos: um está no seu final, o próximo óbvio está no final do servidor e existe a chance real de que, se você interagir com um servidor em uma localização geográfica diferente, especialmente em um país do terceiro mundo, essa largura de banda total será significativamente pior do que qualquer um dos dois. Alguns países do sudeste da Ásia têm internacionaisuplinks que não são muito maiores do que um punhado de usuários domésticos individuais possui em outros países (ou mesmo no mesmo país). Não sei se esse ainda é o caso (as coisas mudam muito rápido no mundo), mas, por exemplo, na Tailândia, acessar um servidor dentro do mesmo país costumava ser 4 vezes mais rápido do que acessar um servidor em outro país, por apenas essa razão. O mesmo se aplicaria se você tentasse acessar um servidor no país deles.
Embora a largura de banda na sua localização possa ser alta, é a conexão mais lenta da cadeia que limita a quantidade de dados que você pode enviar (como em um cano de água). Longa distância significa que geralmente há mais oportunidades para encontrar um link lento (ou congestionado).
Latência
Latência é o tempo que leva para chegar ao seu local (ou qualquer local específico) a partir de algum ponto.
Primeiro, há a velocidade da luz, que é (não) constante e, sendo um limite físico rígido, não pode ser contornada. Por que estou dizendo "(não) constante"?Bem, porque a realidade é ainda pior que a teoria. A velocidade da luz é realmente um limite superior, medido no vácuo. Em um cabo de cobre ou mesmo mais em um cabo de fibra ótica, a velocidade mensurável da luz é facilmente algo 30% mais lenta que no vácuo, além da distância real ser maior. Isso não é apenas porque o cabo não está em uma linha perfeitamente reta, mas também porque a luz viaja ao longo da fibra em zig-zag, refletindo nas paredes (reflexão interna total). É um desafio difícil (isso significa: impossível) tornar a velocidade da luz significativamente mais rápida. Não que você não possa fazer isso usando um meio diferente, mas um meio com maior velocidade de luz significa alterar o índice de refração, para reduzir e, eventualmente, perder a reflexão interna total. O que significa que, a menos que o sinal entre em uma linha perfeitamente reta,
Assim, em resumo, há um atraso mais ou menos fixo que é inevitável e, embora não seja perceptível nas transmissões locais (LAN ou alguns quilômetros), ele se torna muito perceptível à medida que o sinal passa por meio continente. Além desse limite físico rígido, existem atrasos introduzidos por roteadores intermediários e, possivelmente, seu uplink local (a infame "última milha").
Por exemplo, em uma conexão de Internet doméstica típica baseada em ATM, você tem um atraso de cerca de 4 ms apenas para que seus datagramas sejam desnecessariamente encapsulados em PPP e agrupados em quadros ATM de 53 bytes, sendo enviados para o DSLAM, roteados dentro rede ATM do provedor e sendo remontada antes de entrar em uma rede IP novamente. A razão pela qual isso é feito é histórica. Era uma vez, o caixa eletrônico parecia um bom plano para permitir ligações telefônicas de alta qualidade e baixa latência por longas distâncias. Era uma vez, isso foi na década de 1980, mas, infelizmente, os provedores de telecomunicações se movem lentamente.
Mesmo para muitas instalações que possuem "fibra" em seu nome, na realidade o fio de cobre é usado nos últimos doze metros, a fibra raramente termina nas ruas (embora exista fibra real no porão).
Um roteador típico da Internet adiciona algo no intervalo de 0,05 a 0,2 milissegundos ao seu atraso, mas dependendo de quão ocupado ele é (talvez não seja de primeira qualidade), isso pode muito bem ser um milissegundo. Isso não é muito, mas considere que ter 6-8 roteadores entre você e o servidor de destino não é nada incomum, e você pode muito bem ter 12 a 15 deles a uma distância maior! Você pode tentar correr tracert some.server.name
para se ver.
Uma linha que tenha sido cortada e tocada pela NSA ou pelo SVR (portanto, basicamente todas as linhas principais que vão de / para o continente asiático ou através do Mar Vermelho, Mar da Índia ou Oceano Atlântico) terão pelo menos mais dois milissegundos ou mais de latência adicionada ao material de espionagem que eles estão fazendo, possivelmente mais. Alguns países são conhecidos por (ou pelo menos altamente suspeitos) não apenas observam o conteúdo e bloqueiam determinados intervalos de IP, mas também fazem alguma filtragem / bloqueio ativo extensivo de conteúdo politicamente / ideologicamente inapropriado. Isso pode causar atrasos muito maiores.
Assim, mesmo para locais "próximos", você pode esperar algo entre 15 e 25 ms de atraso, mas para algo em outro país, você deve esperar ~ 100 ms, em outro continente, 150-250 ms, se tiver azar 400-500 Senhora.
Agora, apesar de tudo, parece que isso não faz muita diferença, porque esse é apenas um atraso inicial único, que você nem percebe. Direita?
Infelizmente, isso não é inteiramente verdade. A maioria dos protocolos que transmitem quantidades significativas de dados, como, por exemplo, o TCP, usam uma forma de otimização da largura de banda controlada por reconhecimento, portanto, a quantidade de dados que você pode enviar ao fio depende do tempo necessário para realizar uma viagem de ida e volta completa (lá e volta) novamente). Isso não é 100% exato porque o TCP tenta otimizar a taxa de transferência usando um dos vários algoritmos de janelas bastante complexos que enviam alguns datagramas antes de aguardar o reconhecimento.
Embora isso possa atenuar o efeito, o princípio básico permanece: o que você pode enviar (ou receber) é finalmente limitado pelo tempo que leva para receber os agradecimentos. Alguns outros protocolos com requisitos em tempo real mais rigorosos e requisitos de confiabilidade menos importantes ( pense em telefonia IP) use uma estratégia diferente com questões diferentes (que não irei elaborar).
Você pode ver qual é a grande latência de impacto se comparar uma implementação de TCP ruim (Microsoft Windows) com uma melhor (Linux). Embora ambos falem o mesmo protocolo e aparentemente façam exatamente a mesma coisa, eles não lidam com a compensação de latência igualmente bem.
Eu possuo um computador desktop (processador 6700K, 64GB RAM, Windows) e um Synology DiskStation (chip ARMv8 de baixa potência, 1GB RAM, Linux). O computador desktop, conectado ao mesmo roteador, embora seja muitas vezes mais poderoso, não pode saturar totalmente a linha de 50 Mbit / s ao fazer o download de servidores nacionais ou dentro da UE (15-20 ms RTT), mesmo com vários downloads simultâneos em voo. O discreto DiskStation não tem problemas em saturar completamente a linha em um único download, obtendo de 15 a 20% a mais de produtividade - o mesmo cabo, o mesmo tudo.
Na minha rede de área local (onde a latência está bem abaixo de um milissegundo), não há diferença perceptível entre os dois. Esse é o efeito da latência.
Velocidade ... de novo
Em resumo, sim, você pode esperar que a "velocidade" diminua à medida que a distância aumenta, principalmente porque a latência aumenta e, em certa medida, porque você pode ter conexões de largura de banda mais baixas. Na maioria das vezes, o efeito deve ser tolerável.