freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于支持向量機的風(fēng)電功率預(yù)測-資料下載頁

2025-01-18 16:30本頁面
  

【正文】 天同一時刻的輸出功率雖然有很大的變化,但相鄰的幾天也會服從一定的坡度的干擾;3)波形不斷在一天內(nèi)服從一定的規(guī)律變化,還在在每天的同一時刻也服從一定的波形變化。為了強化訓(xùn)練算法的準確性,我們不采用傳統(tǒng)的先訓(xùn)練再預(yù)測的方法,而是一邊訓(xùn)練,一邊預(yù)測,這樣的好處是,可以利用訓(xùn)練的記憶效應(yīng),及時得到某一時刻的預(yù)測值。這樣做,既能夠抓住功率隨時間光滑變化的過程,又能強化訓(xùn)練數(shù)據(jù)對同一時刻的功率的識別能力。 為了便于分析和理解,先從簡單的模型入手,同時考慮數(shù)據(jù)的有效性(我們認為離預(yù)測時間點越遠的數(shù)據(jù)越?jīng)]有訓(xùn)練價值),同時考慮到預(yù)測系統(tǒng)能夠兼容超短期負荷預(yù)測,把4個小時看作一個整體,即采用15TO1的滾動預(yù)測方案。 歸一化處理 把有量綱的表達式,經(jīng)過變換,化為無量綱的表達式的過程稱為歸一化。由于風(fēng)電功率比較分散、跨度很大,不利于預(yù)測,所以用歸一化方法對其進行處理,以使數(shù)據(jù)的跨度縮小,便于預(yù)測。MATLAB提供的歸一化函數(shù)有:premnmx、mapminmax、postmnmx等[20]。 進行編程實現(xiàn)歸一化 ,了解到到RBF核函數(shù)的局部優(yōu)化特性比較好。而本文的短期風(fēng)電功率預(yù)測是以局部歷史數(shù)據(jù)為基礎(chǔ),這些數(shù)據(jù)也只是在一定的范圍內(nèi)波動。同時,短期預(yù)測需要較好的跟蹤相近數(shù)據(jù)的變化,得出相鄰幾個小時內(nèi)的預(yù)測值。因此RBF更適合用于短期風(fēng)電功率預(yù)測的研究。前面已經(jīng)講過核函數(shù)的表達式,在此不再贅述。 參數(shù)C決定了模型的復(fù)雜度和大于可允許誤差的擬合偏差的程度,是為了折衷結(jié)構(gòu)風(fēng)險和樣本誤差。較大的C值,允許的誤差就會比較小,反之亦然。C值過大過小會使系統(tǒng)出現(xiàn)過學(xué)習(xí)和欠學(xué)習(xí),進而使系統(tǒng)的泛化性能變差[[] [J].人民長江,,42(13)]。一般C的取值范圍是[0,5000]。 核參數(shù)與輸入樣本的空間范圍和寬度有關(guān),他可以精確的定義高斯空間的結(jié)構(gòu),決定了結(jié)果的復(fù)雜性。樣本輸入空間越大,的取值也就越大,反之亦然。過大或過小也會使系統(tǒng)性能變差。一般的取值范圍為[,100]。 由于本次的訓(xùn)練數(shù)據(jù)所允許的誤差范圍是25%,允許誤差偏大,C的取值就會偏小,另外由于我們選擇的訓(xùn)練樣本是15TO1的訓(xùn)練方式,且訓(xùn)練樣本的變化比較適中,樣本空間偏小,那么的取值也相對比較適中。根據(jù)經(jīng)驗我們對PA機組:C的取值范圍為[5:100],的取值范圍為[,5]。對P58:C的取值范圍是[50,1000],的取值范圍為[5,50]。 SVM工具箱,我們知道LSSVM是標準SVM的改進,這樣就可以解決線性和非線性kkt系統(tǒng)的問題了。目前LS SVMlab工具箱用戶指南包含了大量MATALAB中LS SVM算法的實現(xiàn),其中涉及分類,回歸,時間序列預(yù)測和無監(jiān)督學(xué)習(xí)。所有的功能都已經(jīng)用Matlab從R2008a,R2008b,R2009a測試。 本文的SVM風(fēng)電功率預(yù)測調(diào)用了LSSVM工具箱(可以通過LSSVMlab主頁:,安裝到工作目錄里)中的一些子函數(shù)。通過訓(xùn)練函數(shù)trainlssvm對樣本進行訓(xùn)練,trainlssvm函數(shù)進行預(yù)測。具體程序詳見附件。 SVM模型仿真與結(jié)果分析、單機組功率和總功率預(yù)測值的比較、和BP神經(jīng)網(wǎng)絡(luò)的比較這三個方面來進行仿真分析。 參數(shù)選擇在上一節(jié)中已經(jīng)分析了懲罰系數(shù)C和核寬度的取值范圍。由于本次要的有單機組功率和總機組功率的參數(shù)選擇。所以進行兩次測試即可。調(diào)用MATLAB中的linspace函數(shù),把C和的的取值范圍都均分為20份。即: 為了便于分析,這次只對其合格率的多少進行了探究。通過建立網(wǎng)格圖,用地貌圖來反應(yīng)它的變化趨勢,通過預(yù)測的合格率來選擇合適的訓(xùn)練參數(shù)。其合格率分布如圖43,44所示): 圖43 PA機組在不同參數(shù)下合格率的分布 圖44 P58在不同參數(shù)下合格率的分布其中,圖43橫坐標核寬度的[1,20]表示=linspace(,5,20)??v坐標C的[1,20]表示C=linspace(5,100,20)。從圖中可以看出,最佳的參數(shù)值是:(5)=,C(10)=50處的合格率最大。圖44橫坐標sig的[1,20]表示=linspace(5,50,20)。縱坐標C的[1,20]表示C=linspace(50,1000,20)??梢钥闯鲈谧鴺耍?,16)這點的合格率最大,即在(8)=22,C(16)=800合格率最大。從圖中可以看出,總機組P58的懲罰系數(shù)C和核寬度的取值要比PA機組的大,說明總機組的預(yù)測誤差要比單機組的小,而且計算難度也大于單機組PA。 PA和P58的預(yù)測結(jié)果,已經(jīng)得到了懲罰系數(shù)C和核寬度的較優(yōu)取值,即對于PA機組:C=50,=。P58:C=800,=22?,F(xiàn)在,用最優(yōu)參數(shù)進行仿真,并比較它們的準確率(r1)、合格率(r2)和平均相對誤差(MAPE)。仿真預(yù)測結(jié)果如下所示(預(yù)測結(jié)果保留在附件里面): 圖45 PA機組在5月30日的預(yù)測情況 圖46 P58總機組在5月30日的預(yù)測情況 圖47 PA和P58的相對誤差分布 PA和P58的準確率(r1)、合格率(r2)和平均相對誤差(MAPE)如下表所示 表41 PA和P58預(yù)測結(jié)果對比發(fā)電機組準確率r1(%)合格率r2(%)平均相對誤差(%)PAP58 通過預(yù)測結(jié)果的比較,發(fā)現(xiàn)用前一天的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),預(yù)測的準確率和合格率都能達到要求。且機組的綜合預(yù)測精度大于個體的預(yù)測精度。同時,隨著時刻的推移預(yù)測精度會有降低的趨勢,顯示出滾動預(yù)測并不是十分滿意。 SVM和BP神經(jīng)網(wǎng)絡(luò)預(yù)測精度的比較在引言中,了解到現(xiàn)在在風(fēng)電功率預(yù)測中運用最廣泛的人工智能算法是人工神經(jīng)網(wǎng)絡(luò)(ANN)和支持向量機(SVM)。在人工神經(jīng)網(wǎng)絡(luò)中,80%以上都會用到BP神經(jīng)網(wǎng)絡(luò)。BP感知器神經(jīng)網(wǎng)絡(luò)是一種具有三層和三層以上神經(jīng)元的神經(jīng)網(wǎng)絡(luò),包括輸入層,中間層和輸出層[[] [D].南京:南京信息工程大學(xué),2011]。每一層的神經(jīng)元只接受來自前一層神經(jīng)元的輸入,后面的層對前面的層沒有信號反饋。其由輸入層、中間層、輸出層組成的階層型神經(jīng)網(wǎng)絡(luò),中間層可擴展為多層。相鄰層之間各神經(jīng)元進行全連接,而每層各神經(jīng)元之間無連接,網(wǎng)絡(luò)按有教師示教的方式進行學(xué)習(xí),當(dāng)一對學(xué)習(xí)模式提供給網(wǎng)絡(luò)后,各神經(jīng)元獲得網(wǎng)絡(luò)的輸入響應(yīng)產(chǎn)生連接權(quán)值(Weight)。然后按減小希望輸出與實際輸出誤差的方向,從輸出層經(jīng)各中間層逐層修正各連接權(quán),回到輸入層。此過程反復(fù)交替進行,直至網(wǎng)絡(luò)的全局誤差趨向給定的極小值,即完成學(xué)習(xí)的過程。如下圖所示: 圖49 三次網(wǎng)絡(luò)拓補圖 這里不過多介紹BP神經(jīng)網(wǎng)絡(luò)的原理,重在分析其與SVM在風(fēng)電功率預(yù)測上的精度問題。這里,訓(xùn)練所采用的方法和SVM相同,建立三層神經(jīng)網(wǎng)絡(luò)。數(shù)據(jù)元的個數(shù)依次為15131。如下圖所示: 圖48 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 在MATLAB中調(diào)用BP神經(jīng)網(wǎng)絡(luò)工具箱,用負梯度訓(xùn)練函數(shù)traingdx訓(xùn)練網(wǎng)絡(luò),通過設(shè)置訓(xùn)練默認參數(shù)和編程(程序見附件2),可得BP和SVM的對比結(jié)果,如下圖所示: 圖410 BP和SVM預(yù)測的比較 由上圖可以看出,BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)在訓(xùn)練學(xué)習(xí)算法中確實跟蹤學(xué)習(xí)性能良,但在訓(xùn)練的過程中,與SVM相比,會更容易陷入局部最大和局部最小值。且隨著學(xué)習(xí)時間的增長,學(xué)習(xí)效率也在不斷下降。下表是它們預(yù)測精確度的比較: 表42 SVM和BP預(yù)測結(jié)果比較訓(xùn)練類型準確率r1(%)合格率r2(%)平均相對誤差(%)訓(xùn)練時間(s)SVMBP從表中可以看出,無論是訓(xùn)練時間還是訓(xùn)練準確度,SVM都比BP高,說明SVM的非線性映射能力比BP強。 基于改進的SVM組合預(yù)測模型 作為智能算法家族的一員,SVM雖然在一定程度上有效的克服了傳統(tǒng)算法的很多缺陷,但它也不可避免的面臨參數(shù)的選擇問題。在SVM的設(shè)計中,選擇合適的核函數(shù)和核參數(shù),因為核函數(shù)和核參數(shù)是映射到高維空間,進行點運算的關(guān)鍵。而懲罰參數(shù)C和核參數(shù)才是影響訓(xùn)練仿真結(jié)果的源頭。對此,很多學(xué)者都是根據(jù)以往經(jīng)驗通過再三調(diào)試程序以獲得最優(yōu)參數(shù)。但此舉耗時費力,難以保證模型收斂到局部最小[[] 唐煒,張莉,陳濤. 遺傳優(yōu)化支持向量機的傳感器動態(tài)建模[J]. 自動化儀表,2011,32( 3) : 2123.]。 現(xiàn)在也有很多學(xué)者通過各種辦法,進行參數(shù)的優(yōu)化。王強強[2]和莊新妍[[] [J].計算機仿真,2012,29(3) 附件%用傳統(tǒng)的LSSVM對某一天的風(fēng)力發(fā)電功率的預(yù)測%把LSSVMlabv工具包裝在工作目錄下面%這個程序同時適用于P58的預(yù)測tic。%開始記時load PA。 %x=PA(20,:)。 xtest=PA(21,:)。%歸一化MAX=max(x)。MIN=min(x)。x=(xMIN)./(MAXMIN)。%%構(gòu)造輸入輸出矩陣p=15。%從數(shù)據(jù)中可以看到風(fēng)電功率基本是四個小時一個周期。x=x39。Y_svm=x(p+1:end)。for i=1:p X_svm(:,i)=x(i:endp+i1)。end%%用LSSVM模型進行訓(xùn)練gam = 10000。sig2 = 2。%type = 39。function estimation39。 [alpha,b]=trainlssvm({X_svm,Y_svm,type,gam,sig2,39。RBF_kernel39。,39。preprocess39。})。 % % 用LSSVM模型進行預(yù)測,構(gòu)造預(yù)測向量step_to_predict=96。%預(yù)測5月30日96個時刻的風(fēng)電負荷temp_matrix=x(endp+1:end)39。%% 滾動預(yù)測5月31日的風(fēng)電負荷ytest=[]。for i=1:1:step_to_predict Xt=temp_matrix。%先用前一天15個數(shù)據(jù)作為輸入 Yt = simlssvm({X_svm,Y_svm,type,gam,sig2,39。RBF_kernel39。,39。preprocess39。},{alpha,b},Xt)。 ytest=[ytest Yt]。 temp_matrix=[temp_matrix(1,2:end) Yt]。endytest。%預(yù)測功率輸出值svm_multi=(ytest.*(MAXMIN))+MIN。r1=1sqrt(sum(((xtestsvm_multi)/850).^2)/96) %計算預(yù)測的準確率%計算合格率for i=1:96 if (1(xtest(i)svm_multi(i))/850) B(i)=1。 else B(i)=0。 endendr2=sum(B)/96toc% %神經(jīng)網(wǎng)絡(luò)模型在預(yù)測模型中的應(yīng)用% % 第一步:輸入原始數(shù)據(jù) PA。x=PA(20,:)。 xtest=PA(21,:)。time=15。%從數(shù)據(jù)中可以看到風(fēng)電功率基本是四個小時一個周期。x=x39。T=x(time+1:96)。for i=1:time P(:,i)=x(i:96time+i1)。end P=P39。T=T39。 [Pn,minp,maxp,Tn,mint,maxt]=premnmx(P,T)。 net=newff(minmax(Pn),[15,13,1],{39。tansig39。,39。tansig39。,39。purelin39。},39。traingdx39。) % 創(chuàng)建一個新的前向神經(jīng)網(wǎng)絡(luò) % %第二步:BP網(wǎng)絡(luò)訓(xùn)練,inputWeights={1,1}。 % 當(dāng)前輸入層權(quán)值和閥值inputbias={1}。 layerWeights={2,1}。% 當(dāng)前網(wǎng)絡(luò)層權(quán)值和閥值layerbias={2}。=30。 % 設(shè)置訓(xùn)練參數(shù) =。 =。 =6000。 [net,tr]=traingdx(net,Pn,Tn)。 % 調(diào)用 TRAINGDX 算法訓(xùn)練 BP 網(wǎng)絡(luò) % %利用新數(shù)據(jù)對BP神經(jīng)網(wǎng)絡(luò)進行預(yù)測x=x39。p1=[x(82:96),xtest]。p2=p1(1:15)。for i=2:96 %得到訓(xùn)練樣本 p2=[p2。p1(i:i+14)]。endpnew=p239。 %輸入新的數(shù)據(jù)pnewn=tra
點擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1