前言
AAMAS 2015,作者的工作是組裏做game abstraction的基礎,基本每個新生都會看一看這位博士的畢業論文。這篇論文是其發表的關於這方面工作的論文,我主要關注其中game abstraction的算法。
執行均衡策略相比之前算法中Q-learning-like的協作準則是一種更好的協作方式,因爲即使協同工作,在某些狀態仍然可能有衝突。作者提出三種知識遷移方法加速基於博弈論的MARL算法,我主要關注model transfer-based game abstraction。
評價局部環境動態的改變
對於一個給定的馬爾科夫博弈 M=⟨N,S,{Ai}i=1n