Edit page

Procura Adversária e Jogos

Até agora, abordámos apenas cenários em que um agente se encontra sozinho a tentar resolver um problema, desde Arad-Bucareste até colorir o mapa australiano. O próximo passo será procurar aprender abordagens que funcionem em sistemas multi-agente - tentar prever o impacto das ações de outros agentes, imprevisíveis, por forma a tentar fazer a melhor escolha possível do nosso lado.

Jogos

Por norma, vamos olhar para problemas completamente observáveis de dois jogadores, os zero-sum games: uma jogada que é boa para um agente será má para o outro - se tentarmos quantificar o impacto de uma jogada para cada um dos agentes, esta apresentará valores simétricos para cada um deles.

Caracterização de jogos zero-sum

A definição clássica nomeia os dois agentes como MIN e MAX, onde MAX joga sempre primeiro e ambos os agentes procuram sempre a melhor jogada que podem realizar a seguir. Idealmente, os agentes atuam sob a perspetiva de pontuação, por forma a conseguir quantificar (de forma mais ou menos precisa) o desempenho de cada um: no final de cada jogo, cada um dos agentes recebe bonificações ou penalizações consoante o seu desempenho durante o mesmo.

O jogo em si tem várias componentes-base:

  • Um estado inicial, S0S_0, que corresponde à configuração inicial do mesmo.
  • Uma função, player(s:state)\op{player}(s: state), que especifica o jogador que vai jogar no estado em questão.
  • Uma função, action(s:state)\op{action}(s: state), que retorna todas as jogadas possíveis para o estado em questão.
  • Uma função, result(s:state,a:action)\op{result}(s: state, a:action), que, tal como abordado em secções anteriores, corresponde ao modelo de transição do jogo, que define o estado resultante de realizar uma jogada aa sob um estado ss.
  • No lugar do goal_test\op{goal\_test}, abordado anteriormente, vamos ter uma função terminal_test\op{terminal\_test} (que funciona de forma praticamente igual): retorna true caso o jogo esteja num estado terminal, e false caso contrário.
  • Por fim, uma função utility(s:state,p:player)\op{utility}(s: state, p:player), que especifica a pontuação atribuída a um jogador pp caso o jogo termine num estado terminal ss.

Voltamos, aqui, a ter associada a noção de espaço de estados, que resulta numa árvore onde cada nó corresponde a um estado e os arcos correspondem a jogadas. A procura da melhor jogada funcionará, tal como referido em secções anteriores, através de travessias por essa mesma árvore (e, claro, tal como nessas secções, vamos ver formas de tornar esta procura mais eficiente).

Abaixo, encontra-se um exemplo do que corresponderia a dois níveis distintos da árvore, devidamente identificados com MIN e MAX:

Exemplo - Árvore de Procura, Jogo do Galo

Jogo do Galo

Note-se, claro, que o estado mais à esquerda é considerado estado terminal para o jogo do galo, estando devidamente etiquetado com o valor da respetiva função de utilidade para o jogador MAX, X. Idealmente, o jogador MIN, O, teria função de utilidade associada com valor simétrico (apesar de em alguns jogos, como o xadrez, tal não ser necessariamente o caso).

Escolhas Ótimas - Algoritmo Minimax

Um dos algoritmos clássicos de procura em jogos é o Minimax.

Considerando jogos com dois agentes, o funcionamento do algoritmo Minimax é relativamente simples: cada agente vai sempre escolher a jogada que maximiza o valor minimax, que corresponde ao melhor valor para a função de utilidade contra as melhores jogadas do adversário: assumimos, portanto, que o adversário escolhe sempre a melhor jogada possível (diferindo aqui de cenários reais, onde as pessoas nem sempre executam jogadas previsíveis). Este valor pode ser calculado através da seguinte função:

minimax(s)={utility(s,MAX)seterminal_test(s)maxaactions(s)minimax(result(s,a))seplayer(s)=MAXminaactions(s)minimax(result(s,a))seplayer(s)=MIN\op{minimax(s)} = \begin{cases} \op{utility(s, \textcolor{green}{MAX})} & \text{se} \op{terminal\_test(s)} \\ \max_{a \in \op{actions(s)}} \op{minimax(result(s, a))} & \text{se} \op{player(s)} = \op{\textcolor{green}{MAX}} \\ \min_{a \in \op{actions(s)}} \op{minimax(result(s, a))} & \text{se} \op{player(s)} = \op{\textcolor{red}{MIN}} \end{cases}

Colocando por palavras, temos que MIN vai sempre tentar escolher a jogada que minimiza as hipóteses de MAX ganhar. Assim sendo, de entre todas as jogadas que MIN idealmente fará, MAX vai tentar maximizar as suas próprias hipóteses de ganhar, escolhendo a jogada com maior valor minimax. O exemplo abaixo poderá ajudar a clarificar este conceito:

Minimax - Exemplo Inicial

O algoritmo faz, portanto, uma procura em profundidade (para obter os valores dos estados terminais e propagá-los para cima), acabando por ter de explorar toda a árvore de jogo na mesma - já vamos ver que é um pormenor desagradável da implementação naive do algoritmo, podendo modificá-lo por forma a melhor a sua eficiência. Tratando-se basicamente de uma DFSDFS, partilha também as suas complexidades temporal e espacial: a complexidade temporal é O(bd)O(b^d) e a espacial é linear, O(bd)O(bd) (podendo ainda ser melhorada para O(d)O(d), caso os sucessores sejam gerados um a um). É completo, claro, e, tal como referido acima, só garante otimalidade contra adversários ótimos: em cenários reais, haverá obviamente o fator de imprevisibilidade que retira a otimalidade ao algoritmo.

Generalização para nn jogadores

Podemos generalizar o funcionamento do algoritmo para nn agentes. Para tal, vamos guardar um vetor de valores Minimax, em vez de um valor só, e cada jogador vai, idealmente, escolher a jogada que mais o beneficia de entre todas as possíveis, mantendo, claro, guardados também os valores que cada jogada terá para os outros agentes: havendo uma quantidade arbitrária de jogadores, cada um deles acaba por não se preocupar tanto com "estragar o jogo ao outro" como com "fazer o melhor possível com o próprio jogo". As estratégias ótimas podem, naturalmente, traduzir-se em alianças informais entre vários jogadores.

Minimax - Exemplo Multi-Agente

Minimax - Exemplo Multi-Agente

Note-se que CC escolhe, no seu nó mais à esquerda, (1,2,6)(1, 2, 6), visto que, entre os seus filhos, é essa a jogada que maximiza XCX_C. Vamos aplicando lógicas semelhantes sucessivamente (para todos os nós da árvore), chegando eventualmente à conclusão que (1,2,6)(1, 2, 6) é a jogada ótima para AA, considerando, claro, que todos os outros agentes também jogam de forma ótima.

Procura com Cortes

Como podem ter notado com o exemplo para o Minimax de 2 agentes acima, existem situações em que não precisamos de olhar para todos os "filhos" de um nó para obter toda a informação que precisamos - por vezes, podemos inferir se a jogada que estamos a ver é relevante ou não mais cedo, conseguindo, assim, reduzir com segurança o número de estados que temos de analisar. Uma das formas de verificar isso mesmo é, claro, cortando ramos da árvore, e vamos abordar os cortes α-β\op{\alpha - \beta} para esse efeito.

Vamos ter, aqui, que a nossa DFSDFS vai manter um par de valores, α\op{\textcolor{green}{\alpha}} e β\op{\textcolor{red}{\beta}}, correspondendo, respetivamente, ao valor da melhor escolha encontrada até agora para MAX e ao valor da melhor escolha encontrada até agora para MIN.

Procuremos olhar primeiro para o exemplo abaixo:

Exemplo - Alpha-Beta Pruning

Alpha-Beta Pruning

Note-se que chegámos exatamente à mesma jogada ótima a que tínhamos chegado segundo o Minimax clássico - fizemo-lo, contudo, de forma mais eficiente, cortando ramos irrelevantes!

A abordagem seguindo cortes α\alpha e β\beta corresponde, na prática, a uma alteração simples ao pseudo-código original do algoritmo Minimax: agora, caso nós já saibamos (porque já vimos) que temos mais acima na árvore uma opção melhor do que aquela que estamos a analisar, então a escolha ótima nunca recairá sobre o nó onde nos encontramos, pelo que podemos simplesmente cortá-lo e avançar para o próximo.

Note-se que aplicar este tipo de cortes não afeta a completude nem a otimalidade do algoritmo: continua a ser completo, e a ser ótimo apenas considerando adversários ótimos. Mais, a sua eficiência tem uma range de melhoria, podendo ir desde ser completamente irrelevante até uma melhoria exponencial de O(bd)O(b^d) para O(bd2)O(b^{\frac{d}{2}})!

Cortes - Melhoria de Desempenho

A ordenação ótima de nós é a ordenada segundo os valores que queremos visitar primeiro, claro - no caso do MIN, de forma crescente, e decrescente no caso do MAX, por forma a poder cortar logo todos os outros nós. Note-se, contudo, que na prática só nos é completamente útil caso saibamos de antemão que está assim ordenada, já que caso contrário podemos ter na mesma de verificar todos os nós até ao fim. A imagem abaixo pode tornar esta ideia mais clara:

Alpha Beta - Ordenação Ótima

Caso consigamos sempre cortar o resto da sub-árvore assim que analisamos o primeiro nó (estamos, aí, na presença da ordenação ótima), vamos verificar que o algoritmo corre em tempo bd2b^{\frac{d}{2}}: podem encontrar uma prova mais completa da complexidade temporal do melhor caso dos cortes α\alpha-β\beta aqui. Podemos, com a ordenação ótima, atingir o dobro da profundidade na procura no mesmo período de tempo!

É natural que, sem saber de antemão a ordenação dos valores dos nós que temos em mãos, queiramos ainda assim escolher os nós por uma ordem ideal, ou vá, uma ordem que se aproxime tanto do ideal quanto possível. Mais ainda, podemos não querer ter de navegar até às folhas da árvore de procura para saber os valores Minimax dos nós mais acima, aceitando estimativas que sejam relativamente próximas do valor real. Aqui, entra uma ideia nova: a de usar uma tabela de transposições, que nos vai ajudar a combater nós diferentes a representar estados equivalentes.

O objetivo passará, então, por guardar cada estado com o respetivo valor Minimax numa hash table, a nossa tabela de transposições. Verificamos, antes de o tentar guardar, se ele já lá existe, claro: se já lá existir, escusamos de voltar a analisar tudo o que está para baixo dele, visto que já temos o respetivo valor Minimax. Conseguimos, através desta técnica, duplicar a profundidade de procura no mesmo intervalo de tempo. Temos, contudo, um catch: para espaços de estado enormes, vamos ter de manter uma quantidade igualmente enorme de entradas na tabela. Existem duas estratégias clássicas, propostas por Claude Shannon, para combater este problema, mas que na cadeira não são abordadas em detalhe (uma primeira que propõe olhar apenas para jogadas até uma certa profundidade na árvore, e uma segunda que propõe ignorar jogadas que "não pareçam promissoras").

Procura α\alpha-β\beta heurística

Existem, claro, outras maneiras de realizar procura com cortes α\alpha-β\beta sem ir necessariamente até às folhas da árvore de procura: podemos reutilizar a ideia de funções de avaliação que estimem a função de utilidade de um dado nó! Vamos procurar "cortar" a nossa árvore de procura a uma profundidade arbitrária, atribuir aos "novos nós-folha" os valores correspondentes à respetiva função de avaliação e de seguida propagar para cima tal como fazíamos anteriormente. Os nossos valores minimax serão, então, dados por:

h-minimax(s,d)={eval(s,MAX)seis-cutoff(s,d)maxaactions(s)h-minimax(result(s,a),d+1)seplayer(s)=MAXminaactions(s)h-minimax(result(s,a),d+1)seplayer(s)=MIN\op{h-minimax(s, d)} = \begin{cases} \op{eval(s, MAX)} & \text{se} \op{is-cutoff(s, d)} \\ \max_{a \in \op{actions(s)}} \op{h-minimax(result(s, a), d + 1)} & \text{se} \op{player(s)} = \op{MAX} \\ \min_{a \in \op{actions(s)}} \op{h-minimax(result(s, a), d + 1)} & \text{se} \op{player(s)} = \op{MIN} \end{cases}

É, contudo, relevante colocar o dedo na ferida: como é que vamos ter aqui boas heurísticas? Bem, em primeiro lugar é relevante notar que vamos ter sempre de ter, para nós terminais:

eval(s,p)=utility(s,p).\op{eval(s, p)} = \op{utility(s, p)}.

Mais ainda, uma função de avaliação deverá, claro, ter valores próximos dos reais, por forma a não levar o jogador a fazer jogadas descabidas. Deve ser simples e eficiente de calcular, já que caso contrário mais valia fazer apenas a procura até ao fim. Dado este último ponto, uma abordagem possível é tratar a função de avaliação como uma função matemática: uma soma linear de características da configuração atual do jogo (devidamente pesadas). Podemos pensar, no caso do jogo do galo, nas várias posições onde podemos colocar uma peça nossa e pesar cada jogada de acordo com o quão perto ficamos de vencer.

eval(s)=i=1nweight(i)featurei(s)\op{eval(s)} = \sum_{i=1}^n \op{weight(i)} \op{feature_i(s)}

Temos, contudo, que esta forma de olhar para a função de avaliação peca por considerar todas as features do jogo como independentes: considera, no xadrez, que ter dois bispos é apenas equivalente a duas vezes o valor de um bispo, quando na verdade ter dois bispos (principalmente em momentos mais avançados no jogo) tem uma grande importância contextual. Abordagens mais recentes têm, portanto, acabado por afastar-se desta noção linear da função de avaliação.

Utilizar a função de avaliação na procura com cortes

As alterações à procura α\alpha-β\beta são poucas e relativamente simples: pegando nas diferenças entre valores minimax\op{minimax} e valores h-minimax\op{h-minimax}, vamos usar aqui testes limite, que decidem se um estado é "final" caso esteja numa profundidade igual ou superior ao limite imposto, em vez dos testes terminais introduzidos inicialmente. Temos ainda, claro, que ao chegar ao limite vamos retornar o valor da função de avaliação, ao invés de retornar o valor da função de utilidade. Funciona, de resto, de forma praticamente semelhante.

Esta abordagem tem, contudo, falhas: por considerar apenas o estado atual, podemos estar a perder informação extremamente relevante sobre jogadas imediatamente posteriores às impostas pelo limite: devemos, portanto, aplicar a função de avaliação apenas a estados quiescentes, isto é, estados que estão em "repouso" - estados em que não há nenhuma jogada pendente que fosse alterar o valor da função de avaliação brutalmente. Podemos pensar, por exemplo, que um estado aquiescente (isto é, o contrário de quiescente) seria o estado precisamente anterior ao da captura de uma rainha por parte de um dos jogadores, e que um estado quiescente seria um estado em que não há ataques "obrigatórios"/que causem alterações demasiado grandes à função de avaliação a seguir. Quando estamos na presença de estados aquiescentes que se encontrem no limite, avançamos na árvore de procura por esse estado até encontrar um estado quiescente, parando aí e fazendo a propagação do valor da função de avaliação para cima - dizemos que estamos na presença de uma procura quiescente, nesta situação.

Para além do problema da aquiescência, alia-se ainda o problema do horizonte, segundo o qual jogadas atuais podem "atirar problemas para um futuro longínquo": eles continuam lá, nós é que vamos deixar de os ver por momentos. Esta falha pode levar a problemas graves: visto que, por norma, não vamos até ao fim da árvore de procura, o limite pode estar "para cá" desse horizonte, limitando a nossa perceção sobre o que será uma jogada boa e má. Este problema surge, geralmente, quando temos uma jogada que é "muito melhor que as outras": para o resolver, registamos a jogada em mãos como jogada singular, e aumentamos o limite da procura só para ela, por forma a tentar ver para lá do horizonte.

Exemplo - Problema do Horizonte (Xadrez)

Encontra-se abaixo o exemplo de uma situação que ilustra este problema: conseguimos, empiricamente, perceber, que o bispo preto está condenado a ser capturado pelo jogador branco. Contudo, uma jogada que a árvore de procura pode encontrar que é "momentaneamente melhor" é mover um dos seus peões por forma a fazer cheque ao rei. É, no entanto, um esforço inglório, já que o rei vai só capturar esse peão e não resolvemos o problema do bispo, pelo que perdemos um peão sem qualquer ganho.

Horizonte - Xadrez

Cortes progressivos

Para além de cortes α\alpha-β\beta e cortes-limite, temos ainda uma terceira forma de cortar a nossa árvore de procura: através de cortes progressivos. Ao contrário dos cortes α\alpha-β\beta, onde temos a garantia de que o que estamos a cortar é irrelevante para o valor da função de avaliação de um nó, aqui vamos procurar "prever" que assim é, sem qualquer garantia de tal ser o caso. Temos duas maneiras principais de os fazer:

  • Procura em Banda/Beam Search - consideramos, para cada nível, as nn melhores jogadas (segundo a função de avaliação associada). Não há garantias de que não estamos a cortar ramos que nos levariam à jogada ótima.
  • Corte Probabilístico/ProbCut - cortamos não só os ramos que estão garantidamente fora da "janela (α,β)(\alpha, \beta)", como também os que provavelmente estão: usamos a "experiência de procuras anteriores" para determinar a probabilidade de um dado valor a uma dada profundidade estar ou não fora da janela (α,β)(\alpha, \beta).

Jogos Estocásticos

Os jogos estocásticos são os que introduzem o elemento sorte: para além de haver a imprevisibilidade dos movimentos do adversário, existe também a possibilidade da ação que queremos fazer não corresponder à que de facto acontece. É como se no xadrez, para além de termos a dificuldade de fazer a jogada que nos aproxime mais da vitória, ainda tenhamos que lançar um dado para ver que conjunto de jogadas é que podemos fazer em cada ronda. Cada nó vai ter, assim, de estar associado a uma probabilidade, para além da própria "qualidade da jogada": vamos querer combinações que incluam jogadas prováveis e jogadas boas, por forma a tentar ter as melhores previsões possíveis (que nos levem a boas jogadas). A complexidade temporal destes problemas é O(bdnd)O(b^d n^d), onde nn corresponde ao número de lançamentos distintos de dados que realizamos. Conseguimos, portanto, atingir profundidades muito menores no mesmo intervalo de tempo.


Adicionamos que esta secção corresponde ao quinto capítulo do livro que acompanha a cadeira (Adversarial Search and Games).