A questão está relacionada a este tópico . Gostaria de obter um estado estável único para um problema de controle ideal.
Considere o seguinte programa onde indica preferência de tempo, é o valor e uma função objetiva. é a variável de estado e o controle. O estado é governado por . A equação de Hamilton-Jacobi-Bellman lê
Agora suponha que o controle de feedback seja dado por
Suponha que exista um ponto fixo em e possamos derivar uma representação alternativa para o controle ideal no ponto fixo com
Suponha que adicionalmente o HJB no ponto fixo seja dado por
Se aproxima de zero, devemos ter . Por outro lado, se aproxima do infinito, devemos ter pela definição da função de valor e, assim, novamente . Resumindo, temos as seguintes propriedades em equilíbrio:
Bem, isso está em desacordo com
sendo uma função crescente estritamente monóton, contradizendo nosso resultado anterior. Observe, no entanto, que podemos resolver o problema observando
Então, podemos finalmente conjeturar que devemos ter no ponto fixo tal modo que