talvez todos os principais / preferidos algoritmos de interesse para esse público tenham sido mencionados neste momento. no entanto, mais alguns merecem menção pela integridade. & alguma análise do que é considerado um algoritmo significativo é relevante aqui.
nos campos de CS e TI, parece haver um fenômeno observado há muito tempo na IA chamado "mover as traves do gol" . esse é um fenômeno psicológico em que o campo avança relativamente rápido, mas as pessoas rapidamente se ajustam mentalmente ao "novo normal" e consideram os avanços reais ou mesmo revolucionários como mundanos ou não-observáveis em retrospecto, depois de realizados, ou seja, subestimados ou minimizados. isso é altamente capturado nesta questão da maneira como os algoritmos passam da P&D para a "implantação". citando o autor da pergunta em comentários posteriores:
De fato, uma fração desprezível de todo o código que é escrito está implementando qualquer coisa interessante do ponto de vista algorítmico.
mas isso é problemático e basicamente uma redefinição centrada no TCS da palavra "algoritmo". presumivelmente, os algoritmos interessantes são avançados. isso significa que, se um problema é reduzido a um algoritmo avançado, ele não é mais "interessante"? e "avançado" é claramente um alvo em movimento. portanto, existe uma maneira de definir "algoritmos" de maneira restrita ou ampla . parece que a definição do TCS muda de contexto, mas note que, mesmo no TCS, há uma tendência em direção à definição ampla, por exemplo, nas chamadas "lentes algorítmicas" .
Às vezes, os algoritmos mais onipresentes também são os mais ignorados! a internet e a WWW são um ambiente amplo / quase ecológico para algoritmos. ainda relativamente jovem, com apenas 2 décadas de idade (inventado ~ 1991), cresceu maciça e exponencialmente em um curto período de tempo. O crescimento do site WWW provavelmente superou a famosa lei exponencial de Moores.
Internet / WWW são suportados por muitos algoritmos sofisticados. a internet possui algoritmos complexos de roteamento incorporados aos roteadores (alimentando novamente empresas de bilhões de dólares, como a Cisco). alguma teoria avançada é aplicável lá, por exemplo, em algoritmos de roteamento . Esses algoritmos foram objeto de pesquisas emergentes e avançadas / de ponta décadas atrás, porém agora são tão afinados e bem compreendidos que são um tanto invisíveis.
não devemos esquecer tão cedo que décadas atrás, os principais pesquisadores nem sequer tinham certeza se o mundo da Internet funcionava ou era possível (visto em pesquisas anteriores de troca de pacotes, um novo padrão radical de design no momento em que a troca de circuitos anterior) e mesmo alguns anos atrás, havia o receio de que ele não chegasse a ser dimensionado em algum momento e começaria a falhar devido a picos esmagadores de volume.
Ele também usa detecção / correção sofisticada de erros . a internet provavelmente é o maior sistema mais tolerante a falhas já construído por humanos, ainda em crescimento.
a seguir, há um argumento forte para fazer com que os algoritmos que alimentam a WWW sejam avançados. Os servidores HTTP e da Web são altamente ajustados / otimizados e também usam protocolos avançados de segurança / criptografia (HTTPS). a lógica de renderização de uma página da Web tornou-se extremamente avançada em HTML5 e CSS3 , junto com a linguagem de programação Javascript .
o CSS relativamente novo possui vários princípios semelhantes à programação OOP , como reutilização e herança. por falar em tipografia, o TeX é um sistema de tipografia científica importante e complexo internamente (não tão diferente de uma linguagem de programação) inventado por Knuth que agora pode ser renderizado em páginas da web (e usado em centenas de milhares de artigos científicos ou mais).
outra área relativamente nova de algoritmos construídos na internet, ainda emergentes, aqueles baseados em inteligência coletiva . O software stackexchange em si é um exemplo de um sofisticado sistema de inteligência coletiva. as redes sociais também exibem os principais recursos da inteligência coletiva e os recursos são continuamente adicionados para aumentar essa inteligência (por exemplo, os "likes" do facebook têm apenas alguns anos). o campo dos sistemas de classificação é baseado em algoritmos de filtragem colaborativa e ainda está evoluindo com base em novas pesquisas e aplicações.
portanto, em resumo, todos os sucessos revolucionários que transformam a experiência humana diária, na verdade, muito além de meramente "objetivos de campo". como afirma o título da pergunta, todos os principais algoritmos foram implantados . agora tão onipresente e invisível que parece algo como a expressão de TI, "parte do encanamento".