【正文】
論又提供了行業(yè)間差異這一事實(shí)。五、 局限性及改進(jìn)措施本文所研究的財(cái)務(wù)危機(jī)預(yù)警的方法需要大量各類數(shù)據(jù),而實(shí)際數(shù)據(jù)的不平衡性導(dǎo)致了分類效果的局限性。如果有充分?jǐn)?shù)據(jù),分類效果則會(huì)更佳。本文沒有考慮數(shù)據(jù)缺失下的分類技術(shù),實(shí)際上隨機(jī)森林可以處理數(shù)據(jù)缺失問題。如果考慮缺失數(shù)據(jù)的上市公司財(cái)務(wù)數(shù)據(jù),那么少數(shù)類樣本數(shù)量將會(huì)進(jìn)一步增加,有助于提高被ST公司的財(cái)務(wù)信息,從而得到更理想的結(jié)果。六、 結(jié)論在第一部分,本文提出了上市公司財(cái)務(wù)危機(jī)預(yù)警的重要性,并認(rèn)為中國上市公司是否被ST是財(cái)務(wù)危機(jī)的標(biāo)志。同時(shí),本文系統(tǒng)性的歸納了國內(nèi)外學(xué)者的研究方法和財(cái)務(wù)指標(biāo)的選取,為我們的研究工作提供了依據(jù)。考慮到不同財(cái)務(wù)指標(biāo)的解釋能力,借助于杜邦分析系統(tǒng)的思路,我們將指標(biāo)分為一級(jí)指標(biāo)和二級(jí)指標(biāo),二種指標(biāo)同時(shí)納入隨機(jī)森林模型。在第二部分,本文介紹了隨機(jī)森林算法及其基本思路,并指出隨機(jī)森林算法可以對(duì)上市公司未來的財(cái)務(wù)情況作出有效分類。本文又提出:數(shù)據(jù)可以分為兩類,那么也有兩類分類誤差:將未來被ST的公司分類成運(yùn)營正常的公司;將運(yùn)營正常的公司分類成未來被ST的公司。由于數(shù)據(jù)的不平衡性,我們對(duì)少數(shù)類數(shù)據(jù)使用復(fù)制簡單隨機(jī)抽樣下的樣本集合的方法,得到了300*7:30的訓(xùn)練集合數(shù)據(jù),并使用隨機(jī)森林算法得出了模型的設(shè)定參數(shù)(分類樹節(jié)點(diǎn)選取的變量數(shù)等)與分類精度的關(guān)系,并得出了最優(yōu)參數(shù)設(shè)定。結(jié)論顯示:隨機(jī)森林算法的精度比前人研究得出的結(jié)論要高,實(shí)際解釋能力也強(qiáng)。其次,本文又通過一定的技術(shù)手段對(duì)指標(biāo)重要性進(jìn)行了分析。結(jié)論顯示:應(yīng)收賬款周運(yùn)轉(zhuǎn)率、beta系數(shù)等對(duì)分類貢獻(xiàn)較大;市凈率等對(duì)分類貢獻(xiàn)較小。本文又通過分別對(duì)第一類、第二類指標(biāo)建立隨機(jī)森林模型的方法對(duì)之前我們的指標(biāo)分析提供了有效性的反饋,并驗(yàn)證了之前對(duì)指標(biāo)分析和選擇的正確性。在靈敏度分析中,本文考慮了如何選取兩類誤差的重要性程度,即各自權(quán)重。根據(jù)我們的分析,這是由利益相關(guān)者主觀風(fēng)險(xiǎn)厭惡\喜好程度決定的。但是無論RAR(衡量風(fēng)險(xiǎn)厭惡\喜好的變量)如何變化,利益相關(guān)者接受的分類誤差都位于兩類誤差之間。其次,我們提出了不平衡數(shù)據(jù)的分類“困境”。本文研究發(fā)現(xiàn)訓(xùn)練集合樣本量固定的條件下,兩種分類誤差存在此消彼長的趨勢(shì),此為模型固有的缺陷,即在數(shù)據(jù)有限性的條件下,無法獲得更高的精度。但是,通過對(duì)抽樣比率、樣本總量的選擇,可以以適當(dāng)增加多數(shù)類(未來正常運(yùn)營的公司)分類誤差為代價(jià)增加少數(shù)類(未來被ST的公司)分類精度。我們對(duì)重復(fù)抽樣(復(fù)制少數(shù)類樣本的方法)和不重復(fù)抽樣(多數(shù)類不放回抽樣)進(jìn)行了比較分析,發(fā)現(xiàn)對(duì)某一分類數(shù)據(jù)重復(fù)抽樣、不重復(fù)抽樣的方法都能提高分類精度。但是不重復(fù)抽樣的效果更好。經(jīng)過分析,我們認(rèn)為:重復(fù)抽樣雖然能強(qiáng)化少數(shù)類數(shù)據(jù)的信息,但是沒有提供或創(chuàng)造新的少數(shù)類信息,而不重復(fù)抽樣在本質(zhì)上提供了更多的分類信息,更能提高分類的精度。 本文第三部分是第二部分的進(jìn)一步討論,將行業(yè)因素納入分類考慮。鑒于行業(yè)的差異性,在第二部分中無差別的將不同行業(yè)的兩類數(shù)據(jù)納入考慮是值得改進(jìn)的。根據(jù)國際標(biāo)準(zhǔn),通過人為的選擇,我們將所有行業(yè)大致分為具有不同運(yùn)營特點(diǎn)的五類。在相同的抽樣比、樣本量下,我們發(fā)現(xiàn):劃分行業(yè)以后對(duì)不同行業(yè)分別使用隨機(jī)森林算法,得出的分類精度要優(yōu)于不劃分行業(yè)的隨機(jī)森林算法。這個(gè)結(jié)果說明:行業(yè)特點(diǎn)在公司財(cái)務(wù)危機(jī)分析中的確需要考慮;行業(yè)分類有助于強(qiáng)調(diào)“行業(yè)差異性”這一信息;隨機(jī)森林算法在某一行業(yè)公司數(shù)據(jù)中更加有效地挖掘公司財(cái)務(wù)水平。參考文獻(xiàn)[1] 陳靜. 上市公司財(cái)務(wù)惡化預(yù)測的實(shí)證分析[J]. 《會(huì)計(jì)研究》,1999年第4期[2] 劉艷麗. 隨機(jī)森林綜述. 南開大學(xué)碩士論文[3] 周兵,張軍. 上市公司財(cái)務(wù)狀況惡化的預(yù)警模型分析[J].《 華東經(jīng)濟(jì)管理》,2002年第16期[4] 章之旺. 上市公司財(cái)務(wù)困境成本的定量分析[J]. 《財(cái)經(jīng)理論與實(shí)踐(雙月刊)》,2004年第15期[5] 馬景義,謝邦昌. 用于分類的隨機(jī)森林和Bagging分類樹比較. 統(tǒng)計(jì)與信息論壇,第25卷第10期[6] 王克敏,姬美光. 公司ST 成因與預(yù)警研究基于財(cái)務(wù)與非財(cái)務(wù)指標(biāo)的比較分析[7] 陳曉,陳治鴻. 中國上市公司財(cái)務(wù)困境預(yù)測[J]. 《中國會(huì)計(jì)與財(cái)務(wù)研究》,2000 年第3 期[8] 張玲. 財(cái)務(wù)危機(jī)預(yù)警分析判別模型[J]. 《數(shù)量經(jīng)濟(jì)技術(shù)經(jīng)濟(jì)研究》,2000年第3期[9] 姜國華,王漢生. 財(cái)務(wù)報(bào)表分析與上市公司ST預(yù)測的研究,《審計(jì)研究》,2004 年6 期[10] 吳世農(nóng)、盧賢義:我國上市公司財(cái)務(wù)困境的預(yù)測模型研究,《經(jīng)濟(jì)研究》,2001 第6 期[11] Altman, ., 1968, Financial Ratios, Discriminant Analysis and Prediction ofCorporate Bankruptcy, Journal of Finance 9,589609.[12] Beaver, W. H., 1966, Financial Ratios as Predictors of Failure, Journal ofAccounting Research 4, 71102.[13] Ohlson, ., 1980, Financial Ratios and the Probabilistic Prediction ofBankruptcy, Journal of Accounting Research 19,109131.[14] Fitzpatrick, ., 1932, A Comparison of Ratios of Successful Industrial[15] Enterprises with Those of Failed Firms, Certified Public Accountant 2,589605,656662.[16] Breiman L. Bagging Preditors [J]. Machine Learning, 1996,24(2).[17] Dietterich T. An Experimental Comparison of Three Methods for Constructing Ensembles of Decision Trees:Bagging,[18] Boosting and Randomization [J]. Machine Learning, 2000,40(2).[19] Ho T K. The Random Subspace Method for Constructing Decision Forests [J]. Pattern Analysis and Machine Intelligence, 1998,20(8).[20] Amit Y, Geman D. Shape Quantization and Recognition with Randomized Trees[J].Neural Computation, 1997,9(7).[21] Breiman L. Random Forests[J]. Machine Learning, 2001,45(1).22