A melhor sugestão é do shimao:
normalmente, qualquer artigo novo que afirme um bom desempenho ou o estado da arte em qualquer tarefa terá uma tabela de resultados bastante abrangente em comparação com os resultados anteriores, o que pode ser uma boa maneira de acompanhar.
Qualquer tabela de classificação logo se tornará inútil, porque é basicamente sempre mantida por estudantes (de graduação / pós-graduação), que param de atualizá-la assim que obtêm seu diploma / conseguem um emprego. De qualquer forma, se o CIFAR-10 e o CIFAR-100 forem bons o suficiente para você, isso é muito bom:
https://github.com/arunpatala/cifarSOTA
Este é mais geral (inclui o ImageNet) e possui resultados mais recentes:
https://github.com/Lextal/SotA-CV
Este é o que eu costumava usar, mas o proprietário parou de atualizá-lo, como costuma acontecer:
https://github.com/RedditSota/state-of-the-art-result-for-machine-learning-problems/
Finalmente, você pode estar interessado neste notebook Jupyter lançado hoje por Ali Rahimi, com base em dados extraídos do LSVRC e do site da COCO.
Uma última observação: se você está procurando os resultados mais recentes porque deseja comparar seus resultados com o SotA, ótimo. No entanto, se seu objetivo é aplicar a “melhor” arquitetura no ImageNet a um aplicativo industrial usando transferência de aprendizado, você deve saber (se ainda não o fez) que as arquiteturas mais recentes são piores , em termos de invariância da tradução, do que as mais antigas . Isso é um risco se o seu conjunto de dados não tiver viés de fotógrafo ou se você não tiver computação e dados suficientes para treinar novamente a arquitetura em uma distribuição de imagem mais útil. Veja a excelente pré-impressão:
Azulay & Weiss, 2018, mais “Por que redes convolucionais profundas generalizam tão mal a pequenas transformações de imagem?”