【文章內容簡介】
離散的隨機過程 x,熵 H(x)的定義為。 式中 P(x)為 x的概率密度函數(shù) , E[]為期望值 。 ( ) ( ) l n ( )H x P x P x?? ?( ) 對于連續(xù)的隨機過程 x,熵 H(x)的定義為。 ( ) ( ) l n ( ) [ l n ( ) ]H x P x P x d x E P x? ? ? ??( ) 從熵的表達式可知,熵是隨機變量自信息 的數(shù)學期望 。 熵越大,期望值越大。熵越大表明不確定性越大。選擇對數(shù)度量信息的方便之處是兩個信息相加的總信息量等于每個信息單獨存在時各自信息量之和。 在薩里迪斯的遞階智能控制系統(tǒng)中,對各級采用熵作為測度。組織級用熵衡量所需知識;協(xié)調級用上測量協(xié)調的不確定性;執(zhí)行機用上表示系統(tǒng)的執(zhí)行代價。每一級的熵相加成為總熵,用于表示控制作用的總代價。設計和建立控制系統(tǒng)的原則就是總熵最小。 分級遞階智能控制的基本原理 智能機器中的高層功能模仿人的行為 ,是基于知識系統(tǒng) 的 。 控制系統(tǒng)的規(guī)劃 、 決策 、 學習 、 數(shù)據(jù)存取和任務協(xié)調等 功能 , 都可看作是知識的處理與管理 。 另一方面 , 控制系統(tǒng) 的問題可用熵作為控制度量來重新闡述 , 以便綜合高層中與 機器有關的各種硬件活動 。 因此 , 在機器人控制的例子中 , 視覺協(xié)調 、 運動控制 、 路徑規(guī)劃和力覺傳感等可集成為適當 的函數(shù) 。 因此 , 可把知識流看作這種系統(tǒng)的關鍵變量 。 一臺 知識機器內的知識流分別代表下列幾個方面作用: 1)數(shù)據(jù)處理與管理; 2) 由 CPU執(zhí)行的規(guī)劃與決策; 3) 通過外圍設備獲取外界信息和數(shù)據(jù); 4) 定義軟件的形式語言。 為了介紹 IPDI,首先介紹一下相關概念。 定義 機器知識 (Machine Knowledge, K) 消除智能機器指定任務的不確定性所需要的結 構信息。知識是一個由機器自然增長的累積量。 定義 機器知識流量 (Rate of Machine Knowledge, R) 通過智能機器的知識流,即機器知識的流率。 對事件或活動的數(shù)據(jù)庫 (DB)進行操作以產(chǎn)生知識 流的動作或規(guī)劃的集合,即分析和組織數(shù)據(jù),并 把數(shù)據(jù)變換為知識。 定義 機器智能 (Machine Intelligence, MI) 定義 機器不精確性 (Machine Imprecision) 執(zhí)行智能機器任務的不確定性。 定義 機器精確性 (Machine Precision) 機器不精確性的補。 ? 由于概率論是處理不確定性的經(jīng)典理論,所以可用事件發(fā)生的概率去描述和計算推理的不確定性測度。知識流、機器智能、數(shù)據(jù)庫之間的概率關系如下: ( , ) ( )P M I D B P R?( / ) ( ) ( )P M I D B P D B P R?? MI 和 DB 的聯(lián)合概率產(chǎn)生知識流的概率為 ? 由概率論的基本理論可推出 ? 兩端取對數(shù) l n ( / ) l n ( ) l n ( )P M I D B P D B P R??? 該公式表示出了知識流、機器智能與知識數(shù)據(jù)庫之間的簡單概率關系。 ? 若 MI和 DB無關,則 ? 由上式可看出,期望 R不變,若增大 DB的熵,就要減小 MI的熵。反之,若減小 DB的熵,就要增大 MI的熵。這就是 IPDI原則。 ( / ) ( ) ( )H M I D B H D B H R??? 對該公式兩端取數(shù)學期望,可得熵方程 ( ) ( ) ( )H M I H D B H R??? 綜上所述, 分級遞階智能控制原理為 : ? 系統(tǒng)按照自上而下精度漸增、智能漸減的原則