Os Equilibria de Nash são incontestáveis em geral. Um equilíbrio -ash é um conjunto de estratégias em que, dadas as estratégias dos oponentes, cada jogador obtém do máximo retorno possível possível. Encontrar um equilíbrio -Nash, dado e um jogo, é completo.
Seguindo estritamente as definições, parece não haver uma razão específica para acreditar que as estratégias de um dado equilíbrio -Nash estejam próximas das estratégias de qualquer equilíbrio de Nash. No entanto, muitas vezes vemos que a literatura usa de maneira um tanto desleixada uma frase como "calcular aproximadamente um equilíbrio de Nash" quando significa dizer "calcular um equilíbrio aproximado de Nash".
Então, eu estou me perguntando quando o segundo implica o primeiro; isto é, para quais jogos podemos esperar que os equilíbrios Nash sejam "próximos" dos equilíbrios de Nash?
Mais formalmente, suponha que eu tenha um jogo com jogadores e uma sequência de perfis de estratégia .
Cada é um equilíbrio Flash, e a sequência converge para zero.ϵ i ϵ 1 , ϵ 2 , ϵ 3 , …
Minhas perguntas:
Quando (sob quais condições / premissas) todas as estratégias convergem? Ou seja, para cada jogador , necessariamente converge.s ( 1 ) j , s ( 2 ) j , s ( 3 ) j , …
Sob que condições adicionais o limite dessa sequência é realmente um equilíbrio de Nash do jogo? (Parece-me que nenhuma suposição adicional deve ser necessária; ou seja , se todas as estratégias convergirem, o limite deverá ser um NE.)
Quando um algoritmo para calcular os equilíbrios -ash implica necessariamente um algoritmo para aproximadamente as estratégias de computação de um equilíbrio de Nash? As condições acima são suficientes?
Muito obrigado!
Editar 19-03-2014
Depois de ler a referência na resposta de Rahul, parece mais razoável pensar em termos de distâncias entre distribuições do que em seqüências convergentes. Então, tentarei reformular as perguntas e também colocar algumas idéias recentes.
(Bem, isso depende muito do algoritmo para realmente ter uma resposta. Sem restrições, você poderia ter dois equilíbrios de Nash distintos e, em seguida, ao conectar cada vez menor no algoritmo, a distância entre sucessivas as saídas ainda podem ser grandes porque as saídas oscilam entre os equilíbrios.)l de 1
Suponha que seja um perfil de estratégia, ou seja, distribuição do produto sobre as estratégias dos jogadores. Para que jogos podemos dizer que é um equilíbrio -Nash implica para algum equilíbrio de Nash , onde como ? (Observe que o inverso será retido se os retornos forem limitados por )
Isso é realmente complicado porque, no cenário de complexidade, o que chamamos de "jogo" é na verdade uma sequência de jogos parametrizada por , o número de estratégias puras ("ações"). Então como , e as taxas relativas são importantes. Aqui está um contra-exemplo simples para mostrar que a resposta não é "todos os jogos". Suponha que consertemos uma sequência decrescente de . Em seguida, para cada , construa o jogo para dois jogadores em ações em que, se um jogador executar a primeira ação, eles receberão um pagamento de independentemente do que o outro jogador jogar; se um jogador joga a segunda ação, recebe um pagamento deindependentemente do que o outro jogador joga; e se um jogador executar qualquer outra ação, ele receberá um pagamento independentemente do que o outro jogador jogar.
Assim, cada jogo tem um equilíbrio (ambos executam a segunda ação) que está no máximo distante de seu único equilíbrio de Nash (ambos a primeira ação).
Então, duas questões interessantes:
- Para um jogo fixo e um fixo , seja para "suficientemente pequeno", a condição acima é válida (todos os -equilibria estão próximos dos equilíbrios de Nash).
- Talvez a mesma pergunta seja essencialmente, mas se a condição é válida se as diferenças nos ganhos são limitadas por uma constante como .
Mesma pergunta que (2), mas relacionada ao equilíbrio real calculado por algoritmos. Acho que provavelmente obteremos respostas algorítmicas / construtivas ou nenhuma, então a distinção não importa muito.