【正文】
條從起點到終點的最優(yōu)或次優(yōu)的無碰撞路徑[10]。多機器人的路徑規(guī)劃算法主要基于多智能體系統(tǒng)(Multiagent systems, MAS)的研究。其主要原因有兩點[1]:目前多機器人路徑規(guī)劃算法魯棒性和可延展性(scalability)較差,不適用于實際系統(tǒng);柵格化地圖實驗?zāi)芎芎玫胤从乘惴ㄐЧR虼?,本文從基本的強化學(xué)習(xí)理論入手,逐步深入探討牽涉到的其他領(lǐng)域知識,不斷完善理論體系系統(tǒng),使得其能更好地解決智能倉儲的實際問題。本設(shè)計方案對這兩類方法進(jìn)行綜合考慮,提出了考慮多智能體協(xié)同工作的新算法,一定程度上緩解了現(xiàn)有倉儲機器人的不足之處。(3)基于協(xié)商的均衡動作集合求解,均衡點選取方法和局部信息的知識遷移。參考文獻(xiàn)目錄[1] L. Bu?oniu, R. Babu?ka and B. D. Schutter. A Comprehensive Survey of MultiAgent Reinforcement Learning. IEEE Transactions on System, Man, and Cybernetics, Part C: Applications and Reviews, 2008, 38(2): 156172.[2] J. Enright and P. R. Wurman. Optimization and Coordinated Autonomy in Mobile Fulfillment Systems. Automated Action Planning for Autonomous Mobile Robots, 2011, 3338.[3] L. Zhou, Y. Shi, J. Wang and Pei Yang. A Balanced Heuristic Mechanism for Multirobot Task Allocation of Intelligent Warehouses. Mathematical Problems in Engineering, 2014, Vol. 2014.[4] Y. Hu, Y. Gao and Bo An. Multiagent Reinforcement Learning With Unshared Value Functions. IEEE Transaction on Cybernetics, 2014, 45(4): 647662.[5] 高陽, 陳世福, 陸鑫. 強化學(xué)習(xí)研究綜述. 自動化學(xué)報, 2004, 30(1): 86100.[6] A. Now233。什么是奮斗?奮斗就是每天很難,可一年一年卻越來越容易