Eu estava assistindo a uma apresentação de um especialista em ML de um grande varejista, onde eles haviam desenvolvido um modelo para prever eventos fora de estoque.
Vamos supor por um momento que, com o tempo, o modelo deles se torne muito preciso, não seria de alguma maneira "autodestrutivo"? Ou seja, se o modelo realmente funcionar bem, eles serão capazes de antecipar eventos fora de estoque e evitá-los, chegando a um ponto em que eles têm pouco ou nenhum evento fora de estoque. Mas, se for esse o caso, não haverá dados históricos suficientes para executar o modelo, ou o modelo será descarrilhado, porque os mesmos fatores causais que costumavam indicar um evento de falta de estoque não o fazem mais.
Quais são as estratégias para lidar com esse cenário?
Além disso, pode-se imaginar a situação oposta: por exemplo, um sistema de recomendação pode se tornar uma "profecia auto-realizável" com um aumento nas vendas de pares de itens impulsionados pela saída do sistema de recomendação, mesmo que os dois itens não sejam realmente assim. relacionados.
Parece-me que ambos são resultados de um tipo de loop de feedback que ocorre entre a saída do preditor e as ações executadas com base nele. Como alguém pode lidar com situações como essa?