Até onde eu sei, os SOMs no estilo Kohonen tiveram um pico em 2005 e não têm recebido tanto favor recentemente. Não encontrei nenhum documento que diga que os SOMs tenham sido incluídos por outro método ou que tenham sido equivalentes a outra coisa (em dimensões mais altas, de qualquer maneira). Mas parece que o tSNE e outros métodos ganham muito mais tinta hoje em dia, por exemplo, na Wikipedia ou no SciKit Learn, e o SOM é mencionado mais como método histórico.
(Na verdade, um artigo da Wikipedia parece indicar que os SOMs continuam a ter certas vantagens sobre os concorrentes, mas também é a entrada mais curta da lista. EDIÇÃO: Por solicitação de gung, um dos artigos em que estou pensando é: Redução não - linear de dimensão Observe que o SOM escreveu menos sobre isso do que os outros métodos. Não consigo encontrar o artigo que mencionou uma vantagem que os SOMs parecem reter sobre a maioria dos outros métodos.
Alguma ideia? Alguém mais perguntou por que os SOMs não estão sendo usados e obteve referências de um tempo atrás, e eu encontrei procedimentos de conferências do SOM, mas fiquei imaginando se o aumento de SVMs ou tSNE, et al, apenas eclipsou os SOMs no aprendizado de máquinas pop.
EDIT 2: Por pura coincidência, eu estava lendo uma pesquisa de 2008 sobre redução da dimensionalidade não linear esta noite e, por exemplo, apenas menciona: Isomap (2000), incorporação localmente linear (LLE) (2000), Hessian LLE (2003), Laplacian mapas próprios (2003) e incorporação semi-definida (SDE) (2004).