Improving cooperation between human and computer players through plan recognition in the game pandemic
tesis de maestría
View/ Open
Date
2021-01-26Author
Sauma Chacón, Pablo
Metadata
Show full item recordAbstract
Los juegos cooperativos son un desafío importante en el ámbito de la investigación de la inteligencia artificial. El estudio de agentes computacionales, para la cooperación con jugadores humanos, ha tenido un interés creciente en el campo con propuestas de diferentes juegos que presentan una variedad de desafíos. Uno de estos es Pandemic, un juego cooperativo en el que los jugadores deben organizarse para salvar el mundo de cuatro enfermedades representadas con piezas en un tablero. Este juego presenta el desafío de perseguir objetivos múltiples, información incompleta y toma de decisiones, mientras los jugadores se desplazan por el tablero para descubrir la cura a las enfermedades y evitar perder el juego, ya sea al ser sobrepasados por las enfermedades o al quedarse sin acciones restantes. En esta tesis se presenta un agente planificador para el juego Pandemic y se describen dos experimentos que se desarrollan para evaluarlo. En el primer experimento, se evalúa el desempeño del agente al jugar consigo mismo, al variar el nivel de dificultad y la cantidad de jugadores en el juego. En el segundo experimento, se evalúa el desempeño del agente al jugar con jugadores humanos mientras se utilizan dos variantes del agente: una con un módulo de reconocimiento de planes y otra sin este. Este agente utiliza un horizonte limitado y una heurística específica del dominio al efectuar su planificación; además, realiza un procedimiento de muestreo para manejar la información incompleta del juego. Al utilizar estas técnicas, el agente logra ganar alrededor del 34% de los juegos consigo mismo, lo cual es un hito en este ámbito de investigación. El módulo de reconocimiento de planes le permite al agente analizar las acciones tomadas previamente por otro jugador y determinar cuál es su meta actual. Esta información es utilizada por el agente en su proceso de planificación, al incorporar los futuros movimientos potenciales del otro jugador para elaborar planes que les beneficien a ambos. Este experimento demuestra que los jugadores perciben de manera diferente al agente cuando se utiliza reconocimiento de planes, al hacer que los jugadores humanos lo entiendan con mayor facilidad. Finalmente, se discuten otras aplicaciones para los métodos presentados y para la investigación futura del agente desarrollado. Cooperative games are an important challenge in artificial intelligence research. The study of agents that cooperate with human players has been of increasing interest in the field, with different games proposed as providing a variety of challenges. One of these games is Pandemic, a cooperative game in which the players must cooperate to save the world from four diseases represented by game pieces on a board. This game presents the players with the challenge of pursuing multiple goals, hidden information and decision making while moving across the board to discover the cure of the diseases while avoiding losing the game: getting overwhelmed by the diseases or running out of actions.
In this thesis we present a planning agent for the game Pandemic and describe two experiments we performed to evaluate it. In the first experiment we evaluated the performance of the agent while playing with itself with varying difficulty setting and number of players in the games. In the second experiment we evaluated the agent's performance by making it play with human players, using two variants of the agent: with and without a plan recognition module. Our agent uses a limited horizon during planning with a domain-specific heuristic, and performs a sampling procedure to handle hidden information. Using these techniques our agent wins about 34% of the games when playing with itself as partner, which is a milestone in this research domain. The plan recognition module allows our agent to analyze the previous actions performed by the other player and determine what their current goal is. This information is used as part of its own planning algorithm to compute a plan that supports the other player, while incorporating the other player's potential future actions. Our experiment shows that players perceive our agent differently when it uses this plan recognition technique, making the agent easier to understand for the human players. Finally, we also discuss other applications of our techniques and future research for the developed agent.