freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于支持向量機的風電功率預測(參考版)

2025-01-21 16:30本頁面
  

【正文】 endpnew=p239。for i=2:96 %得到訓練樣本 p2=[p2。p1=[x(82:96),xtest]。 [net,tr]=traingdx(net,Pn,Tn)。 =。=30。 layerWeights={2,1}。) % 創(chuàng)建一個新的前向神經(jīng)網(wǎng)絡 % %第二步:BP網(wǎng)絡訓練,inputWeights={1,1}。},39。,39。,39。 net=newff(minmax(Pn),[15,13,1],{39。T=T39。for i=1:time P(:,i)=x(i:96time+i1)。x=x39。time=15。x=PA(20,:)。 else B(i)=0。%預測功率輸出值svm_multi=(ytest.*(MAXMIN))+MIN。 temp_matrix=[temp_matrix(1,2:end) Yt]。},{alpha,b},Xt)。,39。%先用前一天15個數(shù)據(jù)作為輸入 Yt = simlssvm({X_svm,Y_svm,type,gam,sig2,39。%% 滾動預測5月31日的風電負荷ytest=[]。 % % 用LSSVM模型進行預測,構(gòu)造預測向量step_to_predict=96。preprocess39。RBF_kernel39。function estimation39。sig2 = 2。for i=1:p X_svm(:,i)=x(i:endp+i1)。x=x39。%%構(gòu)造輸入輸出矩陣p=15。MIN=min(x)。 xtest=PA(21,:)。%開始記時load PA。 現(xiàn)在也有很多學者通過各種辦法,進行參數(shù)的優(yōu)化。對此,很多學者都是根據(jù)以往經(jīng)驗通過再三調(diào)試程序以獲得最優(yōu)參數(shù)。在SVM的設計中,選擇合適的核函數(shù)和核參數(shù),因為核函數(shù)和核參數(shù)是映射到高維空間,進行點運算的關(guān)鍵。下表是它們預測精確度的比較: 表42 SVM和BP預測結(jié)果比較訓練類型準確率r1(%)合格率r2(%)平均相對誤差(%)訓練時間(s)SVMBP從表中可以看出,無論是訓練時間還是訓練準確度,SVM都比BP高,說明SVM的非線性映射能力比BP強。如下圖所示: 圖48 神經(jīng)網(wǎng)絡結(jié)構(gòu) 在MATLAB中調(diào)用BP神經(jīng)網(wǎng)絡工具箱,用負梯度訓練函數(shù)traingdx訓練網(wǎng)絡,通過設置訓練默認參數(shù)和編程(程序見附件2),可得BP和SVM的對比結(jié)果,如下圖所示: 圖410 BP和SVM預測的比較 由上圖可以看出,BP神經(jīng)網(wǎng)絡網(wǎng)絡在訓練學習算法中確實跟蹤學習性能良,但在訓練的過程中,與SVM相比,會更容易陷入局部最大和局部最小值。這里,訓練所采用的方法和SVM相同,建立三層神經(jīng)網(wǎng)絡。此過程反復交替進行,直至網(wǎng)絡的全局誤差趨向給定的極小值,即完成學習的過程。相鄰層之間各神經(jīng)元進行全連接,而每層各神經(jīng)元之間無連接,網(wǎng)絡按有教師示教的方式進行學習,當一對學習模式提供給網(wǎng)絡后,各神經(jīng)元獲得網(wǎng)絡的輸入響應產(chǎn)生連接權(quán)值(Weight)。每一層的神經(jīng)元只接受來自前一層神經(jīng)元的輸入,后面的層對前面的層沒有信號反饋。在人工神經(jīng)網(wǎng)絡中,80%以上都會用到BP神經(jīng)網(wǎng)絡。同時,隨著時刻的推移預測精度會有降低的趨勢,顯示出滾動預測并不是十分滿意。仿真預測結(jié)果如下所示(預測結(jié)果保留在附件里面): 圖45 PA機組在5月30日的預測情況 圖46 P58總機組在5月30日的預測情況 圖47 PA和P58的相對誤差分布 PA和P58的準確率(r1)、合格率(r2)和平均相對誤差(MAPE)如下表所示 表41 PA和P58預測結(jié)果對比發(fā)電機組準確率r1(%)合格率r2(%)平均相對誤差(%)PAP58 通過預測結(jié)果的比較,發(fā)現(xiàn)用前一天的數(shù)據(jù)作為訓練數(shù)據(jù),預測的準確率和合格率都能達到要求。P58:C=800,=22。從圖中可以看出,總機組P58的懲罰系數(shù)C和核寬度的取值要比PA機組的大,說明總機組的預測誤差要比單機組的小,而且計算難度也大于單機組PA??v坐標C的[1,20]表示C=linspace(50,1000,20)。從圖中可以看出,最佳的參數(shù)值是:(5)=,C(10)=50處的合格率最大。其合格率分布如圖43,44所示): 圖43 PA機組在不同參數(shù)下合格率的分布 圖44 P58在不同參數(shù)下合格率的分布其中,圖43橫坐標核寬度的[1,20]表示=linspace(,5,20)。即: 為了便于分析,這次只對其合格率的多少進行了探究。所以進行兩次測試即可。 參數(shù)選擇在上一節(jié)中已經(jīng)分析了懲罰系數(shù)C和核寬度的取值范圍。具體程序詳見附件。 本文的SVM風電功率預測調(diào)用了LSSVM工具箱(可以通過LSSVMlab主頁:,安裝到工作目錄里)中的一些子函數(shù)。目前LS SVMlab工具箱用戶指南包含了大量MATALAB中LS SVM算法的實現(xiàn),其中涉及分類,回歸,時間序列預測和無監(jiān)督學習。對P58:C的取值范圍是[50,1000],的取值范圍為[5,50]。 由于本次的訓練數(shù)據(jù)所允許的誤差范圍是25%,允許誤差偏大,C的取值就會偏小,另外由于我們選擇的訓練樣本是15TO1的訓練方式,且訓練樣本的變化比較適中,樣本空間偏小,那么的取值也相對比較適中。過大或過小也會使系統(tǒng)性能變差。 核參數(shù)與輸入樣本的空間范圍和寬度有關(guān),他可以精確的定義高斯空間的結(jié)構(gòu),決定了結(jié)果的復雜性。C值過大過小會使系統(tǒng)出現(xiàn)過學習和欠學習,進而使系統(tǒng)的泛化性能變差[[] [J].人民長江,,42(13)]。 參數(shù)C決定了模型的復雜度和大于可允許誤差的擬合偏差的程度,是為了折衷結(jié)構(gòu)風險和樣本誤差。因此RBF更適合用于短期風電功率預測的研究。而本文的短期風電功率預測是以局部歷史數(shù)據(jù)為基礎,這些數(shù)據(jù)也只是在一定的范圍內(nèi)波動。MATLAB提供的歸一化函數(shù)有:premnmx、mapminmax、postmnmx等[20]。 歸一化處理 把有量綱的表達式,經(jīng)過變換,化為無量綱的表達式的過程稱為歸一化。這樣做,既能夠抓住功率隨時間光滑變化的過程,又能強化訓練數(shù)據(jù)對同一時刻的功率的識別能力。通過調(diào)用MATLAB的surf函數(shù)可得: 圖42 歷史風電功率概貌 從圖中不難發(fā)現(xiàn),每天的風電功率起伏不定,變換多端, 但我們還是可以獲取的幾點信息是:1)每天的數(shù)據(jù)雖然有波動,但相鄰的點都會平滑過渡;2)每天同一時刻的輸出功率雖然有很大的變化,但相鄰的幾天也會服從一定的坡度的干擾;3)波形不斷在一天內(nèi)服從一定的規(guī)律變化,還在在每天的同一時刻也服從一定的波形變化。前者所選擇訓練樣本雖然整體考慮了,但沒有強化某一時刻的訓練效果,后者選擇樣本有限,不足以訓練出最優(yōu)的參數(shù)。雖然方法不同,但因為都是學習算法,往往在進行訓練的選取的樣本是相同的。神經(jīng)網(wǎng)絡是按照減少網(wǎng)絡輸出與實際輸出樣本之間誤差的方向,從輸出層反向經(jīng)過各隱含層回到輸入層,從而逐步修正各連接權(quán)值,利用負梯度下降的原理[[] [M].北京:北京航空航天大學出版社,2011]。 建立SVM模型支持向量機在回歸預測中的理論基礎我們前面已經(jīng)講過。即: (1)觀測數(shù)據(jù)真實可靠 (2)短期內(nèi)不存在大的自然災害,例如地震、海嘯以及臺風等等 (3)預測期間風電機組分布不變,發(fā)電機組性能不隨時間發(fā)生變化在數(shù)據(jù)選取和模型假設工作完成后,我們分別建立支持向量機,基于小波的支持向量機和遺傳優(yōu)化支持向量機三個模型對PA和P58在5月30日這一天的功率進行預測。預測模型所需要的數(shù)據(jù)可以從前22天的風電功率的歷史數(shù)據(jù)里面選擇。機組個出了機組的額定輸出功率為850KW,同時,記錄了2006年5月10日到2006年6月6日這段時間內(nèi)該風電場中指定的4臺風電機組(A、B、C、D)輸出功率數(shù)據(jù)(分別記為PA,PB,PC,PD)及全場58臺機組總輸出功率數(shù)據(jù)(記為P58),這些數(shù)據(jù)是以15分鐘為分辨率記錄一次,每天共有96個時刻點?,F(xiàn)在我們就通過某風電場的實時功率數(shù)據(jù)來檢驗SVM的預測模型,并與BP神經(jīng)網(wǎng)絡比較,總結(jié)SVM在預測中的優(yōu)缺點。風電功率預測的方法有很多,但由于風具有波動性、間歇性、低能量密度等特點,因而風電功率也是波動的,大部分基于特征經(jīng)驗和規(guī)律序列的預測方法往往難以達到《辦法》中的要求。這是下一章建立預測模型的基礎。支持向量機包括線性可分,線性不可分以及非線性可分。因此,我們普遍使用LSSVM處理實際工程中的模式識別,分類和預測等問題。對于非常大的規(guī)模問題和在線學習,一個固定大小的LSSVM方法被提出,它基于Nystrom在原始空間中支持向量的積極選擇和估計的近似值。健全性、稀疏性、權(quán)重可以被應用到LSSVM上,并具有三個層次的推理貝葉斯框架已經(jīng)制定。最小二乘支持向量機與正規(guī)化網(wǎng)絡和高斯過程密切相關(guān),但更加重視和利用原始對偶的規(guī)范條款解釋。這些方法中,凸優(yōu)化問題,解決了一個典型的二次規(guī)劃問題。因此我們普遍使用模型。是SVM用于回歸的兩種經(jīng)典的類型。通過前面的非線性可分支持向量機的學習我們知道,常用的核函數(shù)有三種。 。和分類算法的原理一樣,回歸算法也是通過最小化一個凸函數(shù),并且它的解是稀疏的[13]。目前,主要用于分類問題處理方面的核函數(shù)有: (1)多項式函數(shù)核函數(shù) () (2)高斯徑向基核函數(shù)(RBF) () (3)多層感知器(MLP)核函數(shù) () SVM的方法在回歸問題的應用中也達到不錯的效果。 圖36非線性映射示意圖 求解非線性可分支持向量機和線性不可分最優(yōu)分類面的方法唯一的不同點是要在求解非線性可分支持向量機的最優(yōu)分類面時引入一個核函數(shù)K。然后在高維特征空間中求得最優(yōu)分類面。 這樣,通過引入Lagrange乘子,可以建立如下Lagrange函數(shù): ()依據(jù)KarushKuhnTucker(KKT)定理,最優(yōu)解應滿足: () 所構(gòu)造的最優(yōu)分類面的問題可轉(zhuǎn)化為下面的二次規(guī)劃對偶問題: ()上面所討論的線性可分和線性不可分的對偶問題只與在訓練支持向量機過程中所找出的支持向量和測試樣本之間的內(nèi)積運算有關(guān)。在這樣線性不可分的情況下所構(gòu)建的最優(yōu)分類面,就有兩個目標: (1)使2/的分類間隔盡可能的大。即使問題是線性可分的,也會因為各種原因,使訓練樣本中含有不可分的樣本點,存在如圖35所示的情況。 () 若支持向量的系數(shù)ai*為最優(yōu)解,則 () 對于任意給定的測試樣本x,選取不為零的支持向量系數(shù)ai*,代入式()中求得b*,再將所得到的ai*、b*、訓練樣本xi、訓練結(jié)果yi及測試樣本x帶入式()的最優(yōu)分類函數(shù)中即可判斷測試樣本x的所屬類別。為了求出最優(yōu)解求解w*和b*,我們通過引入引入Lagrange乘子,使問題變成凸二次規(guī)劃的形式,然后利用凸二次規(guī)劃的對偶理論,將求解最優(yōu)分類面的原始問題轉(zhuǎn)換到對偶空間(Lagrange乘子空間)中對對偶問題求解。 將式()中兩式合并,可得yi((w?x)+b)≥1,因此,在線性可分情況下構(gòu)造的最優(yōu)分類面,就轉(zhuǎn)化為下面的二次規(guī)劃問題: () 式()被稱為求解最優(yōu)分類面的原始問題。依據(jù)上面所的分析,2/為線性可分情況下的最大分類間隔。因而,對整個訓練樣本的分類等價于對支持向量的分類[13][14][15]。如果把此推廣到高維空間,這類最優(yōu)分割線也被叫做最大分割超平面。如上所述,對于每一個給定的法方向w,都會有兩條分類邊界線H1和H1,使H1和H1之間的距離最大的那個法方向w就是我們要選擇的。以上就是在法方向w給定的情況下構(gòu)造分類直線的方法。(w?
點擊復制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1