Eu ficaria tentado a responder "nenhum" ou "classificação e agrupamento".
Por que "nenhum"? Porque os HMMs não estão na mesma bolsa que as máquinas de vetores de suporte ou k-means.
Máquinas de vetores de suporte ou k-means são projetadas especificamente para resolver um problema (classificação no primeiro caso, agrupamento no segundo) e, de fato, são apenas um procedimento de otimização para maximizar um critério de "qualidade esperada da classificação" ou "qualidade do agrupamento" . A beleza está na escolha do critério e do procedimento de otimização. O HMM não é um algoritmo em si. Eles são um tipo específico de distribuição de probabilidade sobre seqüências de vetores - para os quais conhecemos bons algoritmos de estimação de parâmetros e de distribuição marginal. Mas perguntar se eles estão na família "agrupamento" ou "classificação" é tão ridículo quanto perguntar se a distribuição gaussiana é um aprendizado supervisionado ou não supervisionado.
Por que "classificação e agrupamento"? Por causa do seguinte: Sendo distribuições de probabilidade, o HMM pode ser usado para classificação em uma estrutura bayesiana; e sendo modelo com estados ocultos, alguns agrupamentos latentes dos dados de treinamento podem ser recuperados de seus parâmetros. Mais precisamente:
O HMM pode ser usado para classificação. Esta é uma aplicação direta da estrutura de classificação bayesiana, com o HMM sendo usado como modelo probabilístico que descreve seus dados. Por exemplo, você tem um grande banco de dados de enunciados de dígitos ("um", "dois" etc.) e deseja criar um sistema capaz de classificar um enunciado desconhecido. Para cada classe em seus dados de treinamento ("um", "dois", você estima os parâmetros de um modelo HMM que descreve as seqüências de treinamento nessa classe - e termina com 10 modelos. Em seguida, para realizar o reconhecimento, calcule os 10 pontuações de probabilidade (que indicam a probabilidade da sequência que você deseja reconhecer ter sido gerada pelo modelo) e o modelo com a pontuação mais alta fornece o dígito. No tutorial Rabiner sobre HMMs, a etapa de treinamento é "Problema 3", a etapa de classificação é "Problema 2".
kγkk