【正文】
)。,39。,39。,39。% line(data(index2,1),data(index2,2),39。g39。color39。*39。marker39。% % Find the data points with highest grade of membership in cluster 2% index2 = find(U(2,:) == maxU)。% maxU = max(U)。)。% plot(data(:,1), data(:,2),39。附錄B 系統(tǒng)聚類法所得的聚類中心生成的隸屬度矩陣 U = Columns 1 through 11 Columns 12 through 22 Columns 23 through 33 Columns 34 through 44 Columns 45 through 48 附錄C 改進(jìn)的模糊C均值法的源程序function [center, U, obj_f] = fcm(data, cluster_n, options)%FCM Data set clustering using fuzzy cmeans clustering.%% [CENTER, U, OBJ_FCN] = FCM(DATA, N_CLUSTER) finds N_CLUSTER number of% clusters in the data set DATA. DATA is size MbyN, where M is the number of% data points and N is the number of coordinates for each data point. The% coordinates for each cluster center are returned in the rows of the matrix% CENTER. The membership function matrix U contains the grade of membership of% each DATA point in each cluster. The values 0 and 1 indicate no membership% and full membership respectively. Grades between 0 and 1 indicate that the% data point has partial membership in a cluster. At each iteration, an% objective function is minimized to find the best location for the clusters% and its values are returned in OBJ_FCN.%% [CENTER, ...] = FCM(DATA,N_CLUSTER,OPTIONS) specifies a vector of options% for the clustering process:% OPTIONS(1): exponent for the matrix U (default: )% OPTIONS(2): maximum number of iterations (default: 100)% OPTIONS(3): minimum amount of improvement (default: 1e5)% OPTIONS(4): info display during iteration (default: 1)% The clustering process stops when the maximum number of iterations% is reached, or when the objective function improvement between two% consecutive iterations is less than the minimum amount of improvement% specified. Use NaN to select the default value.%% Example% data = rand(100,2)。)。Z=linkage(Y,39。參考文獻(xiàn)[1] [M].國(guó)防科技大學(xué)出版社,2001.[2] [M].北京大學(xué)出版社,2005.[3] [M].華南理工大學(xué)出版社,2005.[4] [D].華北電力大學(xué)博士學(xué)位論文,1997.[5] [D]. 華北電力大學(xué)博士文,2003.[6] [J].,28(1): 6468[7] [J].,23(19):1216.[8] [D]. .[9] .[10] 賀仁睦,魏孝銘,[J].中國(guó)電機(jī)工程學(xué)報(bào),1996(3):151154. [13] 李力,朱守真,[J].,Aug,1999:610,19.[14] 陳柔伊,張堯,武至剛,陳澤懷 17卷.[15] 王天行,[M].成都::199~214.[16] 吳元奇,:.[17] 王成山,曹旌,,2005.[18] 徐南榮,宋文忠,:東南大學(xué)出版社,1991.[19] 鞠平,馬大強(qiáng)。(3) 對(duì)改進(jìn)算法和未改進(jìn)算法的聚類結(jié)果進(jìn)行了比較,結(jié)果表明,兩項(xiàng)指標(biāo)均有改善,改進(jìn)后的模糊C均值法較改進(jìn)以前有了一定的優(yōu)勢(shì)。:(1) 查閱有關(guān)文獻(xiàn),總結(jié)了近年來(lái)負(fù)荷建模的研究現(xiàn)狀,幾種常用的聚類算法;深入學(xué)習(xí)了模糊C均值聚類算法,掌握了其基本理論和算法特點(diǎn);了解了MATLAB軟件及其工具箱。,采用實(shí)用化負(fù)荷建模思想,認(rèn)識(shí)到屬于同一類的負(fù)荷具有相對(duì)穩(wěn)定的性質(zhì)和共同的特點(diǎn),引入聚類分析法對(duì)同一地域不同地點(diǎn)電站的負(fù)荷統(tǒng)計(jì)數(shù)據(jù)進(jìn)行聚類分析。這個(gè)過(guò)程考慮了負(fù)荷時(shí)變性特性,為綜合測(cè)辨法應(yīng)用于實(shí)用化負(fù)荷建模工作開(kāi)辟了一條嶄新的途徑。⑥負(fù)荷聚類為沒(méi)有安裝布測(cè)點(diǎn)的變電站建立實(shí)用模型提供了有效途徑,從而克服了廣域電力系統(tǒng)為變電站均安裝負(fù)荷測(cè)辨裝置的不可行性,所帶來(lái)的負(fù)荷模型建立的種種困難。聚類數(shù)即負(fù)荷裝置布測(cè)點(diǎn)的個(gè)數(shù)。⑤聚類中心矩陣表征了每一類所含變電站的綜合靜態(tài)負(fù)荷特性。另一方面,改進(jìn)FCM方法的聚類精度和計(jì)算速度可以通過(guò)綜合采用多種聚類算法的復(fù)合型聚類方法予以提高。因此,得到改進(jìn)的模糊C均值聚類結(jié)果是真實(shí)有效的。③對(duì)聚類矩陣與變電站負(fù)荷構(gòu)成數(shù)據(jù)進(jìn)行比較,基于改進(jìn)的模糊C聚類結(jié)果是有效和合理的。②分析表31和33,未改進(jìn)模糊C均值的聚類把和分為一類,掩蓋了采掘業(yè)所占比重相對(duì)較大地特點(diǎn),比較粗糙;改進(jìn)的模糊C均值法聚類把單獨(dú)列為一類,是把該類變電站的特殊性體現(xiàn)出來(lái)。下面用具體數(shù)據(jù)對(duì)兩者的結(jié)果比較分析:①由改進(jìn)的模糊C均值聚類得到的分類結(jié)果C可知;類變電站以市政生活用電為主,約占50%,重工業(yè)與輕工業(yè)比例相當(dāng),約占15%;類變電站以重工業(yè)與農(nóng)業(yè)為主,且兩者比例相當(dāng),約占35%;類變電站以重工業(yè)為主,約占40%,農(nóng)業(yè)與市政生活比例相當(dāng),約占15%;類變電站以農(nóng)業(yè)為主,約占50%,重工業(yè)與市政生活比例相當(dāng),約占15%;類變電站以重工業(yè)為主,但采掘業(yè)的比例相對(duì)較大,所以單獨(dú)化為一類;類變電站以市政生活用電、重工業(yè)與三產(chǎn)業(yè)為主,分別為35%,20%,20%;類變電站以重工業(yè)為主,占到55%以上,市政生活用電只占15%左右。(1) 類間距離改進(jìn)的模糊C均值法類間距離矩陣如下:未改進(jìn)的模糊C均值法類間距離矩陣如下:取矩陣中的每個(gè)元素的平均值作比較,較大者則認(rèn)為聚類效果比較好,反之亦然。1。在本設(shè)計(jì)中對(duì)該工具函數(shù)進(jìn)行改動(dòng),即去掉其自動(dòng)生成隸屬度的部分,首先輸入由系統(tǒng)聚類法獲得的初始聚類中心形成的初始隸屬度矩陣。 未改進(jìn)的模糊C均值法在實(shí)例中的應(yīng)用利用未改進(jìn)的模糊C均值法所得的聚類結(jié)果如表31所示:(其中表示第i類,表示第j個(gè)變電站)下同。使模糊C均值法對(duì)初始聚類中心的敏感度大大下降,從而增加模糊C均值法的聚類效果。 最終改進(jìn)方案的選定通過(guò)上述對(duì)聚類中心選取方法的比較,以及聯(lián)系負(fù)荷統(tǒng)計(jì)數(shù)據(jù)聚類的實(shí)際,本文選擇用戶自定義的方法選擇初始聚類中心。而且保證了候選初始聚類中心,相距較遠(yuǎn)。選舉個(gè)數(shù)較多的前C個(gè)模式作為初始聚類中心。在N個(gè)模式中,找到p個(gè)相距較遠(yuǎn)的模式。具體做法是首先計(jì)算最大最小模式之間的距離d。因?yàn)椤肮铝Ⅻc(diǎn)”很容易當(dāng)選初始聚類中心,這顯然是不合適的。具體地講,就是在模式特征矢量集中以最大距離原則選取新的聚類中心,以最小距離原則進(jìn)行模式歸類,如此求取C個(gè)初始聚類中心。缺點(diǎn)是計(jì)算量較大,比較費(fèi)時(shí)。此方法從策略上力求C個(gè)初始聚類中心相距較遠(yuǎn),并且在選取每個(gè)聚類中心時(shí),采用密度的方法使其具有代表性。(5) 求以每個(gè)特征點(diǎn)為球心、某一正數(shù)為半徑的球形域中特征點(diǎn)個(gè)數(shù),這個(gè)數(shù)稱為該點(diǎn)的密度。而且如果數(shù)據(jù)集中數(shù)據(jù)個(gè)數(shù)N如果比較小,時(shí)間的花費(fèi)尚可以忽略,但是隨著N值的變大,時(shí)間的花費(fèi)將很快地增加??梢钥吹竭@種聚類初始化方法基本上避免了數(shù)據(jù)集陷入局部極小點(diǎn)。(4) 將模式隨機(jī)地分成C類,計(jì)算每類中心,以其作為初始類心??梢赃x擇那些分離性較好的,周圍數(shù)據(jù)分布密度比較大地那些點(diǎn)作為初始類心。憑經(jīng)驗(yàn)選擇初始類心的方法,情形和(2)很相似。缺點(diǎn)是對(duì)于每個(gè)數(shù)據(jù)集,用戶均需做相應(yīng)的修改,比較麻煩,普遍適用性降低。用戶憑借對(duì)數(shù)據(jù)集的了解,可以在C個(gè)類別中各指定一個(gè)數(shù)據(jù)作為初始聚類中心。(2) 用戶指定。正如前面討論的那樣,容易陷入局部極小點(diǎn)。下面我們逐一進(jìn)行討論:(1) 隨機(jī)方式確定。為了克服這一嚴(yán)重不足之處,擬對(duì)該算法進(jìn)行改進(jìn),改進(jìn)的方向是克服其對(duì)初值的敏感性,即正確的選取初始聚類中心。 程序流程圖程序流程如圖1所示:變電站的負(fù)荷構(gòu)成矩陣標(biāo)準(zhǔn)化判斷是否滿足誤差要求計(jì)算聚類中心矩陣計(jì)算隸屬度參數(shù)矩陣初始化聚類參數(shù)給定變電站聚類數(shù)C迭代次數(shù)m和誤差e輸入聚類變電站的負(fù)荷構(gòu)成矩陣U