Existe uma descrição realmente simples das diferenças práticas entre essas duas técnicas?
Ambos parecem ser usados para aprendizado supervisionado (embora as regras de associação também possam lidar com supervisão).
Ambos podem ser usados para previsão
O mais próximo que encontrei de uma descrição 'boa' é do livro de texto Statsoft . Eles dizem que as Regras de Associação são usadas para:
... detectar relacionamentos ou associações entre valores específicos de variáveis categóricas em grandes conjuntos de dados.
Embora os classificadores da Árvore de Decisão sejam descritos como sendo usados para:
... prever a associação de casos ou objetos nas classes de uma variável dependente categórica a partir de suas medições em uma ou mais variáveis preditoras.
No entanto, na R Data Mining, eles fornecem um exemplo de Regras de Associação sendo usadas com um campo de destino .
Portanto, ambos podem ser usados para prever a associação ao grupo. A principal diferença é que as árvores de decisão podem lidar com dados de entrada não categóricos, enquanto as regras de associação não podem? Ou há algo mais fundamental? Um site ( sqlserverdatamining.com ) diz que a principal diferença é:
As regras das árvores de decisão são baseadas no ganho de informações, enquanto as regras de associação são baseadas na popularidade e / ou confiança.
Portanto, (possivelmente respondendo minha própria pergunta), isso significa que as regras de associação são avaliadas exclusivamente com a frequência com que aparecem no conjunto de dados (e com que frequência são "verdadeiras"), enquanto as árvores de decisão estão realmente tentando minimizar a variação?
Se alguém souber de uma boa descrição, estaria disposto a me indicar, então seria ótimo.