【正文】
the design, but also to equipment control personnel determined on the basis of the projected cold load time control systems, methods and early detection system failures. This is particularly important in The Holding Cold AirConditioning system, because every night how much ice is store will directly affect the efficiency of the entire system on the second day, and airconditioning systems is one of the important ways to improve economic efficiency. Therefore, the main issue here is how to solve the precise forecast. The forecast system was used artificial neural work (Ann) BP algorithms. Achieve two main pieces of functionality. First, the next day outside of the environmental parameters and airconditioning load forecast。它已經(jīng)成為智能控制空調(diào)的核心組成部分,對于節(jié)約能源消耗起著非常重大的影響。缺少嚴(yán)格制定的操作策略往往會產(chǎn)生這樣的情況:或者預(yù)留了過多的冷量從而在峰電時(shí)段結(jié)束時(shí)仍有較多的剩余冷量,或者過早地將冷量完全釋放而不得不在峰電時(shí)段多 使用冷機(jī)。 制定操作策略的依據(jù)是逐時(shí)負(fù)荷,所以,逐時(shí)負(fù)荷的預(yù)測對冰蓄冷空調(diào)降低運(yùn)行成本有著重要的意義。目前預(yù)測逐時(shí)負(fù)荷的方法大多離不開系統(tǒng)運(yùn)行的歷史數(shù)據(jù)。要使逐時(shí)負(fù)荷的預(yù)測功能變得切實(shí) 可行,這一方面有待于可以不借助歷史數(shù)據(jù)庫的預(yù)測方法,同時(shí)也有待于更簡便可行的維護(hù)和建立歷史數(shù)據(jù)庫的手段。因此,精確的預(yù)測是系統(tǒng)要達(dá)到的首要目的。同時(shí),由于天氣等情況的影響,又使負(fù)荷變化出現(xiàn)差異。 系統(tǒng)負(fù)荷的預(yù)測實(shí)現(xiàn)方式可 以分為統(tǒng)計(jì)技術(shù)、專家系統(tǒng)法和神經(jīng)網(wǎng)絡(luò)法等三種。時(shí)間系列模型的缺點(diǎn)在于不能充分利用對負(fù)荷性能有很大影響的氣候信息和其他因素,導(dǎo)致了預(yù)測的不準(zhǔn)確和數(shù)據(jù)的不穩(wěn)定。而且為了獲得比較精確的預(yù)測結(jié)果需要大量的計(jì)算,這一方法不能處理氣候變量和與負(fù)荷之間的非平衡暫態(tài)關(guān)系。但是,把 專家知識和經(jīng)驗(yàn)等準(zhǔn)確地轉(zhuǎn)化為一系列規(guī)則是非常不容易的。對于抽取和逼近這種非線性函數(shù),神經(jīng)網(wǎng)絡(luò)是一種合適的方法。它不依靠專家經(jīng)驗(yàn),只利用觀察到的數(shù)據(jù),可以從訓(xùn)練過程中通過學(xué)習(xí)來抽取和逼近隱含的輸入 /輸出非線性關(guān)系。 人工神經(jīng)網(wǎng)絡(luò)概述 神經(jīng)網(wǎng)絡(luò)、模糊邏輯和進(jìn)化計(jì)算是人工智能目前最新的理論基 礎(chǔ);在國際上受到人們的高度關(guān)注 i 也是現(xiàn)在各國學(xué)者熱衷于研究的前沿課題。不少學(xué)者不約而同地認(rèn)為:未來不久的前沿核心技術(shù)將是模物邏輯和神經(jīng)網(wǎng)絡(luò)結(jié)合的新技術(shù) —— 神經(jīng)模糊技術(shù)。并且,企圖從這種微觀過程來模仿人的智能,探索人的智慧形成、表現(xiàn)形式。同時(shí),期望在這個(gè)宏觀過程中掘挖人的智能形態(tài),以及模擬人的智能作用。模糊數(shù)學(xué)為模糊邏輯的研究和開發(fā)提供了數(shù)學(xué)基礎(chǔ)。模糊控制是模糊邏輯應(yīng)用最多最廣泛的一個(gè)領(lǐng)域。把模糊控制看成是一種智能控制是十分恰當(dāng)?shù)?。這就需要尋找相應(yīng)的補(bǔ)救辦法。 神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)中,一般分為有教師和無教師學(xué)習(xí)兩種。在主要神經(jīng)網(wǎng)絡(luò)如 BP 網(wǎng)絡(luò), Hopfield 網(wǎng)絡(luò),ART 網(wǎng)絡(luò)和 Kohonen 網(wǎng)絡(luò)中; BP 網(wǎng)絡(luò)和 Hopfield 網(wǎng)絡(luò)是需要教師信號才能進(jìn)行學(xué)習(xí)的;而 ART 網(wǎng)絡(luò)和 Kohonen 網(wǎng)絡(luò) 則無需教師信號就可以學(xué)習(xí)。 ?感知器的學(xué)習(xí)結(jié)構(gòu) 感知器的學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)最典型的學(xué)習(xí)。 一個(gè)有教師的學(xué)習(xí)系統(tǒng)可以用圖 1211 表示。 華東交通大學(xué)畢業(yè)設(shè)計(jì) 3 圖 1211 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng)框圖 輸入部接收外來的輸入樣本 X,由訓(xùn)練部進(jìn)行網(wǎng)絡(luò)的權(quán)系數(shù) W 調(diào)整,然后由輸出部輸出結(jié)果。 學(xué)習(xí)機(jī)構(gòu)可用圖 1212 所示的結(jié)構(gòu)表示。輸入樣本信號 Xi 可以取離散值“ 0”或“ 1”。即權(quán)值調(diào)整機(jī)構(gòu)根據(jù)誤差 e 去對學(xué)習(xí)系統(tǒng)的權(quán)系數(shù)進(jìn)行修改,修改方向應(yīng)使誤差 e 變小,不斷進(jìn)行下去,使到誤差 e 為零,這時(shí)實(shí)際輸出值 u 和期望輸出值 Y(t)完全一樣,則學(xué)習(xí)過程結(jié)束。則這華東交通大學(xué)畢業(yè)設(shè)計(jì) 4 i=1 時(shí)才會使輸出與期望一致。原因在于神經(jīng)網(wǎng)絡(luò)的權(quán)系數(shù) W 有很多分量 W1, W2,? Wn;也即是一個(gè)多參數(shù)修改系統(tǒng)。目前,提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速度,減少學(xué)習(xí)重復(fù)次數(shù)是十分重要的研究課題,也是實(shí)時(shí)控制中的關(guān)鍵問題。感知器如圖1213 所示。并記為 Wl(0), W2(0),?, Wn(0),同時(shí)有 Wn+1(0)= — θ 。 Wn+1(t)為 t 時(shí)刻時(shí)的閥值。 期望輸出值 d 在樣本的類屬不同時(shí)取值不同。期望輸出 d 也即是教師信號。 e當(dāng)實(shí)際輸出和期望值 d 相同時(shí)有: Wi (t+1)= Wi (t) ⑥ 轉(zhuǎn)到第 2 點(diǎn),一直執(zhí)行到一切樣本均穩(wěn)定為止。在神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)程中,學(xué)習(xí)算法的研究有著十分重要的地位。華東交通大學(xué)畢業(yè)設(shè)計(jì) 5 所以,有時(shí)人們并不去祈求對模型和算法進(jìn)行嚴(yán)格的定義或區(qū)分。不過,有時(shí)人們也稱算法為模型。其中以在 1986 年 Rumelhart 等提出的誤差反向傳播法,即 BP(error BackPropagation)法影響最為廣泛。 ? BP 算法的原理 BP 算法是用于前饋多層網(wǎng)絡(luò)的學(xué)習(xí)算法,前饋多 層網(wǎng)絡(luò)的結(jié)構(gòu)一般如圖 1221 所示。中間層有單層或多層,由于它們和外界沒有直接的聯(lián)系,故也稱為隱層。隱層雖然和外界不連接.但是,它們的狀態(tài)則影響輸入輸出之間的關(guān)系。 設(shè)有一個(gè) m 層的神經(jīng)網(wǎng)絡(luò),并在輸入層加有樣本 X;設(shè)第 k 層的 i 神經(jīng)元的輸入總和表示為 Uik,輸出 Xik;從第 k— 1 層的第 j 個(gè)神經(jīng)元到第 k 層的第 i 個(gè)神經(jīng)元的權(quán)系數(shù)為Wij 各個(gè)神經(jīng)元的激發(fā)函數(shù)為 f,則各個(gè)變量的關(guān)系可用下面有關(guān)數(shù)學(xué)式表示: Xik=f(Uik) (11) Uik=∑ j Wij Xjk1 (12) ?反向傳播算法分二步進(jìn)行,即正向傳播和反向傳播。 ① 正向傳播 輸入的樣本從輸入層經(jīng)過隱單元一層一層進(jìn)行處理,通過所有的隱層之后,則傳向輸出層;在逐層處理的過程中,每一層神經(jīng)元的狀態(tài)只對下一層神經(jīng)元的狀態(tài)產(chǎn)生影響。 ② 反向傳播 Z x 華東交通大學(xué)畢業(yè)設(shè)計(jì) 6 2 反向傳播時(shí),把誤差信號按原來正向傳播的通路反向傳回,并對每個(gè)隱層的各個(gè)神 經(jīng)元的權(quán)系數(shù)進(jìn)行修改,以望誤差信號趨向最小。這種算法采用非線性規(guī)劃中的最速下降方法,按誤差函數(shù)的負(fù)梯度方向修改權(quán)系數(shù)。取期望輸出和實(shí)際輸出之差的平方和為誤差函數(shù),則有: e=*∑ j (XimYi) (13) 其中: Yi 是輸出單元的期望值;它也在這里用作教師信號; Xim 是實(shí)際輸 出;因?yàn)榈趍 層是輸出層。 ae/aWij (15) 其中:η為學(xué) 習(xí)速率,即步長。下面求 ae/aWij;有 ae/aWij= (aek /auik) Xjk1 (18) 從而有 ΔWij=η (ae/auik) dik從上面可知, dik實(shí)際仍末給出明顯的算法公式,下面求 dik的計(jì)算公式。 (aXik/auik) (112) 從式 (12)可知在式 (112)中,有 aXik/auik= f ’ (uik) (113) 為了方便進(jìn)行求導(dǎo),取 f 為連續(xù)函數(shù)。當(dāng)取 f 為非對稱 Sigmoid 函數(shù)時(shí),有: f ’ (uik)=1/(1+exp(uik)) 則有: f39。(Uik)(1f(Uik)) =Xik(1Xik) (114) 再考慮式 (1— 12)中的偏微分項(xiàng) ae/ aXik,有兩種情況需考慮的:如果 k= m,則是輸出層,這時(shí)有 Yi 是輸出期望值,它是常數(shù)。 (aUik+1/aXik) (117) 從式 (1— 10)中,可知有: ae/aUik+1 = dik+1 (118) 從式 (1— 2)中,可知有: aUik+1/aXik=a(∑ WijXik)/aXik=Wij|i=j (119) 故而有 : ae/aXik=∑ j Wij ∑ j Wij把 Xim和期望輸出 Yi 進(jìn)行比較.如果兩者不等,則產(chǎn)生誤差信號 e,接著則按下面公式反向傳播修改權(quán)系數(shù): ΔWij=η Xjk1Uik=∑ j Wij Xik1 (122) 其中 dim = Xim (1 Xim)(Xim Yi), dik = Xik(1 Xik)∑ j Wij dik+1 上面公式中,求取本層 dik時(shí),要用到高一層的 dik+1;可見,誤差函數(shù)的求取是從輸出層開始,到輸入層的反向傳播過程。 通過多個(gè)樣本的反復(fù)訓(xùn)練,同時(shí)向誤差漸漸減小的方向?qū)?quán)系數(shù)進(jìn)行修正,以達(dá)最終消除誤差。為了加快收斂速度,一般考慮上一次的權(quán)系數(shù),并以它作為本次修正的依據(jù)之一,故而有修正公式: ΔWij(t+1) = η Xjk1 +aΔWij(t) (123) 其中:η為學(xué)習(xí)速率,即步長,η= 0. 1— 0. 4 左右,ɑ為權(quán)系數(shù)修正常數(shù),取 0. 7— 0. 9左右。對于沒有隱層的神經(jīng)網(wǎng)絡(luò),可取 ΔWij=η (YiXj)這顯然是一種十分簡單的情況,式 (1— 24)也稱為簡單 Delta 法則。簡單 Delta 法則式 (1— 24)只在理論推導(dǎo)上有用。這種結(jié)構(gòu)本身所帶來的并行性特性是其他系統(tǒng)模型所可望不可及的。因此,大多數(shù)神經(jīng)網(wǎng)絡(luò)系統(tǒng)還是用華東交通大學(xué)畢業(yè)設(shè)計(jì) 8 計(jì)算機(jī)來仿真實(shí)現(xiàn),事實(shí)上是使用串行來代替并行的。它們具有無可以擬的信號處理速度,為人類信息科學(xué)的進(jìn)步開辟新的途徑。但是,神經(jīng)網(wǎng)絡(luò)通過設(shè)計(jì),或通過學(xué)習(xí)得到的知識是以各個(gè)神經(jīng)元的連接權(quán)的值來表現(xiàn)的。這一點(diǎn)對于習(xí)慣于對自己設(shè)計(jì)的系統(tǒng)了如指掌的人來說,不是一件好事。因?yàn)殄e(cuò)誤也是分布的,不會集中體現(xiàn)在某一個(gè)地方,也就不會造成突出的影響。另外,環(huán)境噪聲也可以理解為樣本的變形,同樣可以有很好的魯棒性。即使與實(shí)例學(xué)習(xí)方法相比較也有本質(zhì)上的差別。而大多數(shù)神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)是從隨機(jī)初始值開始的,理論上初始值不影響最終結(jié)果。因此,也有人稱神經(jīng)網(wǎng)絡(luò)是一個(gè)黑盒子。如果輸出不能有任何一點(diǎn)偏差,那就很難有什么魯棒性。 ② 學(xué)習(xí)問題 目前沒有很完善的學(xué)習(xí)方法,經(jīng)驗(yàn)參數(shù)太多。但是,算法理論上的完備性,并不等于很好的實(shí)用性,同時(shí)算法本身的參數(shù)設(shè)定、學(xué)習(xí)收斂速度等問題還有待解決。是一門面向?qū)ο蟮某绦蛟O(shè)計(jì)語言。它自誕生以來,經(jīng)過開發(fā)和擴(kuò)充已成一種完全成熟的編程語言。 ISO 標(biāo)準(zhǔn)于 1997 年 11 月 4 日經(jīng)投票正式通過。 C++模板是近幾年來對此語言的一種擴(kuò)展,模板是根據(jù)類型參數(shù)來產(chǎn)生函數(shù)和類的機(jī)制,有時(shí)也稱模板為 “ 參數(shù)化的類型 ” 。標(biāo)準(zhǔn)模板庫 (Standard Tempalte Library, STL )和微軟的活動模板庫 (Active Tempalte Library, ATL )都基于這個(gè) C++語言擴(kuò)展。 C++標(biāo)準(zhǔn)庫對于 Visual C++是相當(dāng)新的,實(shí)際上微軟只是在發(fā)布 Visual C++ 時(shí)去除了一些 “bug” 。應(yīng)該說, C/C++包含了相對少的關(guān)鍵字,而且很多最有用的函數(shù)都來源于庫, C++標(biāo)準(zhǔn)庫實(shí)現(xiàn)容器和算法的部分就是 STL。 1994 年 7 月, ANSI/ISO C++標(biāo)準(zhǔn)委員會投票決定接受STL 為 C++標(biāo)準(zhǔn)庫的一部分,這個(gè)建議是根據(jù) Alex Stepanov、 Meng Lee 和 David Musser這三人的編程和軟件庫研究提出的。 C++對面向?qū)ο蟪绦蛟O(shè)計(jì)方法的支持 ? C++支持?jǐn)?shù)據(jù)封裝