freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

167第6章多重共線性-閱讀頁

2024-10-19 18:59本頁面
  

【正文】 是指根據(jù)經(jīng)濟(jì)理論及實際的統(tǒng)計資料所獲得的解釋變量之間的關(guān)系。 如果根據(jù)“事前信息”已經(jīng)知道 大約是 的 1/10,即 利用這一信息,可將模型轉(zhuǎn)化為 若是令 則有 該模型已無多重共線性。 iiiii uPPXY ????? ?4321 ?????ii PPiiiii uPPXY ???? ? )(321 ???tttt uYYC ???? ? 1321 ???tttt uYbYbbC ???? ?321tYtY?tY 1?tY1???? ttt YYY(3) 綜合使用時序數(shù)據(jù)與橫截面數(shù)據(jù) 可以看出,最終還是通過減少模型中解釋變量個數(shù)的方式來消除多重共線性的影響,但并不是直接剔除有重要影響的解釋變量。 得 2?1? Frisch綜合分析法 基本原理: 從所有解釋變量中間先選擇影響最為顯著的變量建立模型,然后再將模型之外的變量逐個引入模型;每引入一個變量,就對模型中的所有變量進(jìn)行一次顯著性檢驗,并從中剔除不顯著的變量;逐步引入 — 剔除 — 引入,直到模型之外所有變量均不顯著時為止。 在此基礎(chǔ)上 , 再逐一引入其它解釋變量 , 重新作回歸 ,逐步擴(kuò)大模型的規(guī)模 , 直至從綜合情況看出現(xiàn)最好的模型估計形式 。(說明該解釋變量是一個獨立解釋變量) ( 2)如果新解釋變量 不能改善擬合優(yōu)度 ,同時 對其它參數(shù)無明顯影響 ,則可 舍棄 該變量。此時需按照前述的檢驗方法,考察變量間線性相關(guān)的形式和程度,并進(jìn)行經(jīng)濟(jì)意義的判斷,在共線性程度最高的兩個變量中,舍去對被解釋變量影響較小、經(jīng)濟(jì)意義相對次要的一個,保留影響較大、經(jīng)濟(jì)意義相對重要的一個。 則 用 代替 代入最小二乘估計的公式, 使得≈0的可能性比 ≈0的可能性更小。故嶺回歸估計量為: 其中 稱為“嶺回歸參數(shù)”,一般 , 當(dāng)時 , 就是普通最小二乘估計。 UX βY ??? ? YXXXβ ??? ? 1?XX?IXX λ??? ? ? ? YXIXXβ ???? ? 1? ??? 10 ?? ???? XX? 5. 嶺回歸法 ( Ridge Regression) XX? ≈0 12 )(])?)(?E [ ( ?????? XXββββ ?會增大 IXX ??? XX?XX?0??( 1) 從 式容易看出 , 在嶺回歸參數(shù)與 Y無關(guān)的情形下 , 是最小二乘估計的一個線性變換 , 也是理論值 Y的線性函數(shù) . ( 2)估計量的數(shù)學(xué)期望為: ? ?? ? ? ? ? ?? ?? ? ? ?? ? I βIXXββIIXXIXXX βXIXXYXIXXβ1111??????????????????????????????EE 5. 嶺回歸估計量的性質(zhì) 嶺回歸估計量 不再是 的無偏估計, )(??β βYXIXXβ ???? ? 1)()(? ??)(??β?( 3)由于 的方差為 5. 嶺回歸嶺回歸估計量的性質(zhì) )(??β 112 )()()](?[ ?? ?????? IXXXXIXXβ ????Va r而 的方差為 β? 12 )()?( ??? XXβ ?Va r可以證明, )](?[ ?βV a r)?(βVar比 要小 而且 越大, 越小,但是 的偏誤同時也增大,所以只能尋找一個 ,使 即可 。但該方法為我們 尋求參數(shù)估計的最小方差性提供了新的思路。該方法是首先對原模型的解釋變量與被解釋變量進(jìn)行標(biāo)準(zhǔn)化處理: ?得到下列模型: ?用 OLS法估計該模型,得到參數(shù)與隨機(jī)誤差項方差的估計值 和 。 ?常用的方法還有嶺跡法、逐步搜索的方法等 ?*2 ()kkikikkiXXXXX????*2 ()iiiYYYYY????* * * * * * * *1 1 2 2i i i k k i iY X X X? ? ? ?? ? ? ? ?? , ? , , ?* * *? ? ?1 2 ? k ??2????kjjk12*2)?(?)1(??????( 1)前進(jìn)法 ?前進(jìn)法的思想是變量由少到多 ,每次增加一個 ,直至沒有可引入的變量為止 。直至所有未被引入方程的自變量的 F值均小于 時為止。 )3,1(2 ?? nFF j ?jX)1,1( ?? pnF ??( 2) 后退法 ?后退法與前進(jìn)法相反 ,首先用全部 m個變量建立一個回歸方程 ,然后在這 m個變量中選擇一個最不重要的變量 ,將它從方程中剔除 ,即 把回歸系數(shù)檢驗的 F值最小者對應(yīng)的自變量剔除。這時 ,得到的回歸方程就是最終確定的方程 。 因為某個自變量開始可能是顯著的 ,但當(dāng)引入其他自變量后它變得并不顯著了 ,卻又沒有機(jī)會將其剔除 ,即一旦引入 ,就是 “ 終身制 ” 的;這種只考慮引入 ,而沒有考慮剔除的做法顯然是不全面的 。 前進(jìn)法和后退法述評 ?后退法的明顯不足是 ,一開始把全部自變量引入回歸方程 ,這樣計算量很大 。 ?如果涉及的自變量 是完全獨立的 (或不相關(guān) ),那么在 取時 ,前進(jìn)法與后退法所建的回歸方程是相同的。 具體做法是將變量一個一個引入 ,當(dāng)每引入一個自變量后 ,對己選人的變量要進(jìn)行逐個檢驗 ,當(dāng)原引入的變量由于后面變量的引入而變得不再顯著時 ,要將其剔除 。 ?這個過程反復(fù)進(jìn)行 ,直到既無顯著的自變量選入回歸方程 ,也無不顯著自變量從回歸方程中剔除為止 。 ?在逐步回歸法中需要注意的一個問題是引入自變量和剔除自變量的顯著性水平 值是不相同的 ,要求引入自變量的顯著性水平 小于剔除自變量的顯著性水平 ,否則 可 能 產(chǎn) 生 “ 死 循 環(huán) ” 。 ?逐步回歸的計算參閱 《 應(yīng)用回歸分析 》 ?進(jìn)? 出?出進(jìn) ?? ?進(jìn)? 出?*七、分部回歸與多重共線性 分部回歸法 (Partitioned Regression) 對于模型 Y X? ?? ??????? 2211 XXY在滿足解釋變量與隨機(jī)誤差項不相關(guān)的情況下,可以寫出關(guān)于參數(shù)估計量的方程組: ???????????????????????????212212211121??xxxxxxxxYXYX將解釋變量分為兩部分,對應(yīng)的參數(shù)也分為兩部分: 如果存在 )?()(?)()(?22111122111111111????????????????XYXXXXXXXYXXX0XX ?? 21則有 YXXX11111 )(? ???? ?同樣有 YXXX21222 )(? ???? ?這就是僅以 X2作為解釋變量時的參數(shù)估計
點擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1