O termo "meta-algoritmo" tem um significado bastante bem aceito no contexto da teoria da aprendizagem, que é o campo de pesquisa do qual se originam pesos multiplicativos.
Especificamente, um meta-algoritmo, no contexto da teoria da aprendizagem, é um algoritmo que decide como usar um conjunto de outros "algoritmos" (geralmente, embora não necessariamente não-meta) (que podem ser tão burros quanto uma saída constante, por exemplo) e constrói um novo algoritmo a partir deles, geralmente combinando ou ponderando as saídas dos algoritmos do componente. (Porém, não considere isso uma definição canônica.) Normalmente, esses algoritmos de componentes são vistos como caixas-pretas que recebem e produzem sua saída, com o funcionamento interno oculto / irrelevante.
Existem vários exemplos de meta-algoritmos. O algoritmo de ponderação multiplicativa referenciado é um exemplo. Um exemplo particularmente simples é a votação majoritária em um conjunto de classificadores binários: suponha que você tenha vários algoritmos de classificação binária e não saiba como escolher um bom. Você pode computar todos eles e deixá-los votar. A votação neste caso é o meta-algoritmo. Obviamente, isso pode não funcionar muito bem, e você pode querer fazer algo como votação ponderada, onde o peso de alguma forma varia com o desempenho observado.
Apenas alguns exemplos de meta-algoritmos que posso pensar no momento:
- pesos multiplicativos
- maioria ponderada
- aumentando
- ensacamento
- média do conjunto, votação
- "Siga o Mestre"
Como sempre, você pode encontrar exemplos que obscurecem a linha entre meta e não meta. Por exemplo, vizinhos K-mais próximos podem ser considerados uma votação / média ponderada dos algoritmos de componentes, onde cada vizinho em potencial (isto é, os pontos marcados no conjunto de dados) é seu próprio algoritmo de componente, com uma saída constante, e a ponderação é uma função de distância da entrada do algoritmo.