De acordo com a Wikipedia (citações omitidas):
Na história da inteligência artificial, um inverno de IA é um período de financiamento reduzido e interesse em pesquisas de inteligência artificial. O termo foi cunhado por analogia à idéia de um inverno nuclear. O campo passou por vários ciclos de hype, seguidos de decepções e críticas, seguidos de cortes de financiamento, seguidos de renovado interesse anos ou décadas depois.
A página da Wikipedia discute um pouco sobre as causas dos invernos com IA. No entanto, estou curioso para saber se é possível impedir que um inverno de IA ocorra. Eu realmente não gosto da alocação incorreta de recursos causada por investimento excessivo seguido por investimento insuficiente.
Uma das causas do inverno da IA listada nessa página da Wikipedia é "hype":
Os invernos da IA podem ser parcialmente entendidos como uma sequência de expectativas superinflacionadas e subsequentes quedas vistas nas bolsas de valores e exemplificadas pela mania ferroviária e pela bolha pontocom. Em um padrão comum no desenvolvimento de novas tecnologias (conhecido como ciclo de hype), um evento, tipicamente um avanço tecnológico, cria publicidade que se alimenta de si mesma para criar um "pico de expectativas infladas" seguido de uma "calha de desilusão". Como o progresso científico e tecnológico não pode acompanhar o aumento das expectativas impulsionado pela publicidade entre os investidores e outras partes interessadas, um acidente deve ocorrer. A tecnologia de IA parece não ser exceção a esta regra.
E parece que este parágrafo indica que qualquer nova tecnologia ficará presa nesse padrão de "expectativas infladas" seguidas de desilusão.
Então, os invernos da IA são inevitáveis? É inevitável que as tecnologias de IA sempre sejam exageradas no futuro e que "correções" severas sempre ocorram? Ou pode haver uma maneira de gerenciar esse ciclo de hype para impedir aumentos / diminuições graves no financiamento?