【正文】
ldi[3][19]曾在上文引述過,是一個由計算機驅(qū)動的聊天人頭,暫時用于聾啞兒童的課堂語言教學。Agent等于體系構(gòu)架(Architecture)和程序(Program)。 描述性定義Descriptive Definition描述性定義指出只要一個基于硬件或軟件的系統(tǒng)具有某些描述性特性,就可以被稱為Agent。Stan和Art考察大量Agent的概念,得出模糊卻內(nèi)涵豐富的結(jié)論[14]: 自主(Autonomous)Agent系統(tǒng)是環(huán)境的一部分,只在特定的(Situated)環(huán)境中感知環(huán)境并作用于環(huán)境,從而實現(xiàn)自身的日程,影響將來的感知。Marche和Anton的Jacob[4]項目在虛擬現(xiàn)實系統(tǒng)中構(gòu)建一個叫做Jacob的擬人(Human like)Agent,傳達給用戶操作指示。關(guān)鍵字:智能Agent,多Agent,虛擬環(huán)境,體系框架一 引言Introduction 隨著計算機硬件的不斷升級,用戶對系統(tǒng)環(huán)境的要求越高。在系統(tǒng)環(huán)境上,用戶希望在一個與現(xiàn)實世界相仿甚至難辨真假的平臺上工作;在交互控制上,用戶希望系統(tǒng)提供更強大更全面的輔助,適應用戶的操作。Jacob項目涉及虛擬現(xiàn)實模型的軟件工程、自然語言等交互模塊和融合Agent技術(shù),由于任務模塊和指令模塊的分離,Jacob Agent可以容易地移植到其它虛擬環(huán)境中。自主Agent和智能Agent應該是等價的??煞譃槿醵x和強定義[15]。Stuart和Peter提出最基本的骨架Agent程序:function SKELETONAGENT (percept) returns action static: memory, the agent’s memory of the world memory ← UPDATEMEMORY(memory,percept) action ← CHOOSEBESTACTION(memory) memory ← UPDATEMEMORY(memory, action) return action而根據(jù)程序設(shè)計的立足點不同,由簡到繁區(qū)分成:表格驅(qū)動(Tabledriven)Agent,簡單反射(Simple reflex)Agent,跟蹤內(nèi)部狀態(tài)的反射Agent (Reflex agent with internal state),基于目標的(Goalbased)Agent,基于效能的(Utilitybased)Agent。她的存在和功能完全依賴于計算機動畫控制,和文本—語言合成。擬人Agent Max[20]是在3D虛擬環(huán)境中的裝配專家,通過上肢活動和口述的相互協(xié)同向用戶展示裝配過程,圖33。圖 34圖 35基于特點的手勢動畫要求運動規(guī)劃和上肢控制。在InPrep狀態(tài),口語合成和手勢規(guī)劃模塊共同決定完成規(guī)劃(Planning)過程;規(guī)劃完成后,塊進入Pending狀態(tài),如果上一塊在Subsiding狀態(tài),調(diào)度器將切換到處在Lurking狀態(tài)的塊,接著進入InExec狀態(tài),最后,如果還有LMP活動,到Subsiding狀態(tài),否者Done,圖36。Max的感情和情緒分布在二維空間上(圖37),感情價(Valence)對應X軸,情緒價對應Y軸。感情、情緒、厭煩最終被映射到PAD空間,并歸類。d(t)是支配度。圖310公式34 集成和應用 Integration and Application最終,將情感系統(tǒng)集成到現(xiàn)有的Max中,設(shè)定相應的輸入輸出,圖311。 所以,將來會話Agent的發(fā)展應該至少有三個方向:(1) 更逼真的視覺效果,包括精細的肌肉變化、眼神的變化、毛發(fā)的飄動等,也許可以用骨架來控制肌肉變化;(2) 學習能力的增強,對新語句的融會和理解,這需要語言學和人工智能其它領(lǐng)域的支持;(3) 語言識別模塊更強大,聲音的采集處理,能夠應付各種各樣的意外因素。主要模塊有:感應系統(tǒng)和感知系統(tǒng),動作系統(tǒng),導航和運動系統(tǒng),短期記憶和心理黑板(Mental Blackboard)。圖42是C4腦的體系框圖,每一個部分都可以通過端口對黑板進行讀寫訪問。如果一個聲音信號直接傳遞給Sound感知子,而不再考慮Shape等感知子。預測偶爾出現(xiàn)的偏差,可以作為驚奇的基礎(chǔ)。運動節(jié)點是手工設(shè)置的,每個節(jié)點可以由副詞空間(Adverb Space)描述,如向左、筆直、向右地行走。視覺合成用八叉樹結(jié)合局部Z緩沖算法,判斷Agent的可見物體。 動畫層 Animation Layer動畫層用面片皮膚動畫(Mess Skinning Animation)實現(xiàn),激活骨骼(Skeleton)尾部的轉(zhuǎn)移矩陣完成動畫。 我想行為Agent發(fā)展的將來就是機器人,與人類一起生活工作在現(xiàn)實世界中,距完全實現(xiàn)這一天也許很遠,但在一定程度上獲得突破很值得期待。表51每個虛擬人都是改進的SAC Agent,有兩個子系統(tǒng):幾何引擎和AI引擎。 虛擬人必須先提交一個事件到調(diào)度器,等到接受這個事件才能執(zhí)行相應的命令。圖53 小結(jié) 相對單個Agent,多Agent替社會系統(tǒng)等群體結(jié)構(gòu)的研究打下了基礎(chǔ)。這將促進多通道、多方位的人機交流。 Westfield College, Knowledge Engineering Review, October 1994[16] Stuart Russell, Peter Norvig, Artificial Intelligence: A Modern Approach, 2nd ed., Prentice Hall, Upper Saddle River, NJ, 2003[17] Ian Paul Wright, Emotional Agent, School of Computer Science, Cognitive Science Research Centre, University of Birmingham, A thesis submitted to the Faculty of Science of the University of Birmingham for the degree of DOCTOR OF PHILOSOPHY[18] *Yukiko I. Nakano, ** Masashi Okamoto, **Daisuke Kawahara, **Qing Li, **Toyoaki Nishida, Converting Text into Agent Animations: Assigning Gestures to Text, *Japan Science and Technology Agency, **The University of Tokyo[19] Dominic W. Massaro, Michael M. Cohen, Jonas Beskow, Sharon Daniel, and Ronald A. Cole, Developing and Evaluating Conversational Agents Perceptual Science Laboratory University of California[20] Stefan Kopp, Ipke Wachsmuth, Modelbased Animation of Coverbal Gesture, Artificial Intelligence Group Faculty of Technology, University of Bielefeld[21] Christian Becker, Stefan Kopp, and Ipke Wachsmuth, Simulating the emotion dynamics of a multimodal conversational agent, Artificial Intelligence Group Faculty of Technology, University of Bielefeld[22] Multimodal Dialogs with a Conversational Agent[23] Jonas Beskow, ANIMATION OF TALKING AGENTS, Centre for Speech Technology KTH, 1997[24] Norman Badler, Jan Allbeck, Liwei Zhao, Meeran Byun, Representing and Parameterizing Agent Behaviors, Center for Human Modeling and Simulation, Computer and Information Science, University of Pennsylvania[25] Vinoba Vinayagamoorthy, Mel Slater, Anthony Steed, Emotional personification of humanoids in Immersive Virtual