最小二乘法OLS和線性回歸.ppt

上傳人:za****8 文檔編號:14777696 上傳時間:2020-07-30 格式:PPT 頁數:90 大小:696.50KB
收藏 版權申訴 舉報 下載
最小二乘法OLS和線性回歸.ppt_第1頁
第1頁 / 共90頁
最小二乘法OLS和線性回歸.ppt_第2頁
第2頁 / 共90頁
最小二乘法OLS和線性回歸.ppt_第3頁
第3頁 / 共90頁

下載文檔到電腦,查找使用更方便

14.9 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《最小二乘法OLS和線性回歸.ppt》由會員分享,可在線閱讀,更多相關《最小二乘法OLS和線性回歸.ppt(90頁珍藏版)》請在裝配圖網上搜索。

1、1,第二章 最小二乘法(OLS)和線性回歸模型,2,本章要點,最小二乘法的基本原理和計算方法 經典線性回歸模型的基本假定 BLUE統(tǒng)計量的性質 t檢驗和置信區(qū)間檢驗的原理及步驟 多變量模型的回歸系數的F檢驗 預測的類型及評判預測的標準 好模型具有的特征,3,第一節(jié) 最小二乘法的基本屬性,一、有關回歸的基本介紹 金融、經濟變量之間的關系,大體上可以分為兩種: (1)函數關系:Y=f(X1,X2,.,XP),其中Y的值是由Xi(i=1,2.p)所唯一確定的。 (2)相關關系: Y=f(X1,X2,.,XP) ,這里Y的值不能由Xi(i=1,2.p)精確的唯一確定。,,,,4,圖2-1

2、 貨幣供應量和GDP散點圖,5,圖2-1表示的是我國貨幣供應量M2(y)與經過季節(jié)調整的GDP(x)之間的關系(數據為1995年第一季度到2004年第二季度的季度數據)。,6,但有時候我們想知道當x變化一單位時,y平均變化多少,可以看到,由于圖中所有的點都相對的集中在圖中直線周圍,因此我們可以以這條直線大致代表x與y之間的關系。如果我們能夠確定這條直線,我們就可以用直線的斜率來表示當x變化一單位時y的變化程度,由圖中的點確定線的過程就是回歸。,7,對于變量間的相關關系,我們可以根據大量的統(tǒng)計資料,找出它們在數量變化方面的規(guī)律(即“平均”的規(guī)律),這種統(tǒng)計規(guī)律所揭示的關系就是回歸關系(regre

3、ssive relationship),所表示的數學方程就是回歸方程(regression equation)或回歸模型(regression model)。,8,圖2-1中的直線可表示為 (2.1),,,根據上式,在確定、的情況下,給定一個x值,我們就能夠得到一個確定的y值,然而根據式(2.1)得到的y值與實際的y值存在一個誤差(即圖2-1中點到直線的距離)。,9,如果我們以表示誤差,則方程(2.1)變?yōu)椋?,,即:,,其中t(=1,2,3,..,T)表示觀測數。,(2.2),,(2.3),式(2.3)即為一個簡單的雙變量回歸模型(因其僅具有兩個變量x, y)的基本

4、形式。,10,其中yt被稱作因變量 (dependent variable)、 被解釋變量 (explained variable)、 結果變量 (effect variable);,xt被稱作自變量 (independent variable)、解釋變量 (explanatory variable)、 原因變量 (causal variable),11,、為參數(parameters),或稱回歸系數(regression coefficients); t通常被稱為隨機誤差項(stochastic error term),或隨機擾動項(random disturbance term),簡

5、稱誤差項, 在回歸模型中它是不確定的,服從隨機分布(相應的,yt也是不確定的,服從隨機分布)。,12,為什么將t 包含在模型中? (1)有些變量是觀測不到的或者是無法度量的,又或者影響因變量yt的因素太多; (2)在yt的度量過程中會發(fā)生偏誤,這些偏誤在模型中是表示不出來的; (3)外界隨機因素對yt的影響也很難模型化,比如:恐怖事件、自然災害、設備故障等。,13,二、參數的最小二乘估計 (一) 方法介紹 本章所介紹的是普通最小二乘法(ordinary least squares,簡記OLS); 最小二乘法的基本原則是:最優(yōu)擬合直線應該使各點到直線的距離的和最小,也可表述為距離的平方和最小。

6、假定根據這一原理得到的、估計值為 、 ,則直線可表示為 。,14,直線上的yt值,記為 ,稱為擬合值(fitted value),實際值與擬合值的差,記為 ,稱為殘差(residual) ,可以看作是隨機誤差項 的估計值。 根據OLS的基本原則,使直線與各散點的距離的平方和最小,實際上是使殘差平方和(residual sum of squares, 簡記RSS) 最小,即最小化:,,,,,,,RSS= = (2.4),15,根據最小化的一階條件,將式2.4分別對、求偏導,并令其為零,即可求得結果如下 :,,,(2.5),(2.6),16,(二)一些基本概念 1

7、.總體(the population)和樣本(the sample) 總體是指待研究變量的所有數據集合,可以是有限的,也可以是無限的;而樣本是總體的一個子集。 2、總體回歸方程(the population regression function,簡記PRF),樣本回歸方程(the sample regression function,簡記SRF)。,17,總體回歸方程(PRF)表示變量之間的真實關系,有時也被稱為數據生成過程(DGP),PRF中的、值是真實值,方程為:,,+,,(2. 7),樣本回歸方程(SRF)是根據所選樣本估算的變量之間的關系函數,方程為:,注意:SRF中沒有誤差項,根據

8、這一方程得到的是總體因變量的期望值,(2.8),18,于是方程(2.7)可以寫為: (2.9) 總體y值被分解為兩部分:模型擬合值( )和殘差項( )。,,,19,3.線性關系 對線性的第一種解釋是指:y是x的線性函數,比如,y= 。 對線性的第二種解釋是指:y是參數的一個線性函數,它可以不是變量x的線性函數。 比如,y= 就是一個線性回歸模型, 但 則不是。 在本課程中,線性回歸一詞總是對指參數為線性的一種回歸(即參數只以一次方出現),對解釋變量x則可以是或不是線性的。,,,,20,有些模型看起來不是線性回歸,但經過一些基本代數變換可以轉

9、換成線性回歸模型。例如,,,(2.10),可以進行如下變換:,,(2.11),令 、 、 ,則方程 (2. 11)變?yōu)椋?(2.12),可以看到,模型2.12即為一線性模型。,21,4.估計量(estimator)和估計值(estimate) 估計量是指計算系數的方程;而估計值是指估計出來的系數的數值。,22,三、最小二乘估計量的性質和分布 (一) 經典線性回歸模型的基本假設 (1) ,即殘差具有零均值; (2)var <,即殘差具有常數方差,且對于所有x值是有限的; (3)cov ,即殘差項之間在統(tǒng)計意義上是相互獨立的; (4)cov ,即殘差項與變量

10、x無關; (5)tN ,即殘差項服從正態(tài)分布,23,(二)最小二乘估計量的性質 如果滿足假設(1)(4),由最小二乘法得到的估計量 、 具有一些特性,它們是最優(yōu)線性無偏估計量(Best Linear Unbiased Estimators,簡記BLUE)。,,,,,,24,估計量(estimator):意味著 、 是包含著真實、值的估計量; 線性(linear):意味著 、 與隨機變量y之間是線性函數關系; 無偏(unbiased):意味著平均而言,實際得到的 、 值與其真實值是一致的; 最優(yōu)(best):意味著在所有線性無偏估計量里,OLS估計量 具有最小方差。,,,,,,25,(

11、三) OLS估計量的方差、標準差和其概率分布 1.OLS估計量的方差、標準差。 給定假設(1)(4),估計量的標準差計算方程如下 :,,,其中, 是殘差的估計標準差。,(2.21),(2.22),26,參數估計量的標準差具有如下的性質: (1)樣本容量T越大,參數估計值的標準差越??; (2) 和 都取決于s2。 s2是殘差的方差估計量。 s2越大,殘差的分布就越分散,這樣模型的不確定性也就越大。如果s2很大,這意味著估計直線不能很好地擬合散點;,,,27,(3)參數估計值的方差與 成反比。 其值越小,散點越集中,這樣就越難準確地估計擬合直線;相反,如果 越大,散點越分

12、散,這樣就可以容易地估計出擬合直線,并且可信度也大得多。 比較圖22就可以清楚地看到這點。,,,28,圖22 直線擬合和散點集中度的關系,29,(4) 項只影響截距的標準差,不影響斜率的標準差。理由是: 衡量的是散點與y軸的距離。 越大,散點離y軸越遠,就越難準確地估計出擬合直線與y軸的交點(即截距);反之,則相反。,,,,30,2OLS估計量的概率分布 給定假設條件(5),即 ,則 也服從正態(tài)分布 系數估計量也是服從正態(tài)分布的:,,,,,(2.30),,,(2.31),31,需要注意的是:如果殘差不服從正態(tài)分布,即假設(5)不成立,但只要CLRM的其他假設條件還成立,且樣本容量足

13、夠大,則通常認為系數估計量還是服從正態(tài)分布的。,其標準正態(tài)分布為:,(2.32),(2.33),32,但是,總體回歸方程中的系數的真實標準差是得不到的,只能得到樣本的系數標準差( 、 )。用樣本的標準差去替代總體標準差會產生不確定性,并且,,,、 將不再服從正態(tài)分布,而服從自由度為T-2的t分布,其中T為樣本容量,,,,即:, (2.34),,(2.35),33,3.正態(tài)分布和t分布的關系,圖2-3 正態(tài)分布和t分布形狀比較,,34,從圖形上來看,t分布的尾比較厚,均值處的最大值小于正態(tài)分布。 隨著t分布自由度的增大,其對應臨界值顯著減小,當自由度趨向于無窮時,t分布就服從標準

14、正態(tài)分布了。 所以正態(tài)分布可以看作是t分布的一個特例。,35,第二節(jié) 一元線性回歸模型的統(tǒng)計檢驗,一、擬合優(yōu)度(goodness of fit statistics)檢驗 擬合優(yōu)度可用R2 表示:模型所要解釋的 是y相對于其均值的波動性,即 (總平方和,the total sum of squares, 簡記TSS),這一平方和可以分成兩部分:,,,36,= + (2.36),,,,是被模型所解釋的部分,稱為回歸平方和(the explained sum of squares,簡記ESS); 是不能被模型所解釋的殘差平方和(RSS),即 =,,,,,37

15、,TSS、ESS、RSS的關系以下圖來表示更加直觀一些:,圖24 TSS、ESS、RSS的關系,38,擬合優(yōu)度 因為 TSS=ESS+RSS 所以 R2 (2.39),,,(2.37),(2.38),,,,,R2越大,說明回歸線擬合程度越好;R2越小,說明回歸線擬合程度越差。由上可知,通過考察R2的大小,我們就能粗略地看出回歸線的優(yōu)劣。,39,但是,R2作為擬合優(yōu)度的一個衡量標準也存在一些問題: (1)如果模型被重新組合,被解釋變量發(fā)生了變化,那么R2也將隨之改變,因此具有不同被解釋變量的模型之間是無法來比較R2的大小的。,40,(2)增加了一個解釋變量以后, R2只會增大

16、而不會減小,除非增加的那個解釋變量之前的系數為零,但在通常情況下該系數是不為零的,因此只要增加解釋變量, R2就會不斷的增大,這樣我們就無法判斷出這些解釋變量是否應該包含在模型中。 (3)R2的值經常會很高,達到0.9或更高,所以我們無法判斷模型之間到底孰優(yōu)孰劣。,41,為了解決上面第二個問題,我們通常用調整過的R2來代替未調整過的R2 。對R2進行調整主要是考慮到在引進一個解釋變量時,會失去相應的自由度。調整過的R2用 來表示,公式為: 其中T為樣本容量 ,K為自變量個數,,,(2.40),42,二、假設檢驗 假設檢驗的基本任務是根據樣本所提供的信息,對未知總體分布某些方面的假設做

17、出合理解釋 假設檢驗的程序是,先根據實際問題的要求提出一個論斷,稱為零假設(null hypothesis)或原假設,記為H0(一般并列的有一個備擇假設(alternative hypothesis),記為H1 ) 然后根據樣本的有關信息,對H0的真?zhèn)芜M行判斷,做出拒絕H0或不能拒絕H0的決策。,43,假設檢驗的基本思想是概率性質的反證法。 概率性質的反證法的根據是小概率事件原理。該原理認為“小概率事件在一次實驗中幾乎是不可能發(fā)生的”。在原假設H0下構造一個事件(即檢驗統(tǒng)計量),這個事件在“原假設H0是正確的”的條件下是一個小概率事件,如果該事件發(fā)生了,說明“原假設H0是正確的”是錯誤的,因為

18、不應該出現的小概率事件出現了,應該拒絕原假設H0 。,44,假設檢驗有兩種方法: 置信區(qū)間檢驗法(confidence interval approach)和顯著性檢驗法(test of significance approach)。 顯著性檢驗法中最常用的是t檢驗和F檢驗,前者是對單個變量系數的顯著性檢驗,后者是對多個變量系數的聯合顯著性檢驗。,45,(一)t檢驗 下面我們具體介紹對方程(2.3)的系數進行t檢驗的主要步驟。 (1)用OLS方法回歸方程(2.3),得到的估計值 及其標準差 。 (2)假定我們建立的零假設是: ,備則假設是 (這是一個雙側檢驗)。,,,,,46,

19、則我們建立的統(tǒng)計量 服從自由度為T-2的t分布。,,(3)選擇一個顯著性水平(通常是5%),我們就可以在t分布中確定拒絕區(qū)域和非拒絕區(qū)域,如圖2-5。如果選擇顯著性水平為5%,則表明有5%的分布將落在拒絕區(qū)域,47,圖2-5 雙側檢驗拒絕區(qū)域和非拒絕區(qū)域分布,48,(4)選定顯著性水平后,我們就可以根據t分布表求得自由度為T-2的臨界值,當檢驗統(tǒng)計值的絕對值大于臨界值時,它就落在拒絕區(qū)域,因此我們拒絕的原假設,而接受備則假設。反之則相反。 可以看到,t檢驗的基本原理是如果參數的假設值與估計值差別很大,就會導致小概率事件的發(fā)生,從而導致我們拒絕參數的假設值。,49,(二)置信區(qū)間法 仍

20、以方程2.3的系數為例,置信區(qū)間法的基本思想是建立圍繞估計值 的一定的限制范圍,推斷總體參數是否在一定的置信度下落在此區(qū)間范圍內。,置信區(qū)間檢驗的主要步驟(所建立的零假設同 t檢驗)。,,50,(1)用OLS法回歸方程(2.3),得到的估計值 及其標準差 。 (2)選擇一個顯著性水平(通常為5%),這相當于選擇95%的置信度。查t分布表,獲得自由度為T-2的臨界值 。 (3)所建立的置信區(qū)間為( , ) (2.41),,,,,,,,51,(4)如果零假設值 落在置信區(qū)間外,我們就拒絕 的原假設;反之,則不能拒絕。 需要注意的是,置信區(qū)間檢驗都是雙側檢驗,盡管在

21、理論上建立單側檢驗也是可行的。,,,52,(三)t檢驗與置信區(qū)間檢驗的關系,在顯著性檢驗法下,當 的絕對值小于臨界值時,即: (2.42) 時,我們不能拒絕原假設。 對式(2.41)變形,我們可以得到: (2.43) 可以看到,式(2.43)恰好是置信區(qū)間法的置信區(qū)間式(2.41),因此,實際上t檢驗法與置信區(qū)間法提供的結果是完全一樣的。,,,,,,,,53,(四)第一類錯誤和第二類錯誤,如果有一個零假設在5的顯著性水平下被拒絕了,有可能這個拒絕是不正確的,這種錯誤被稱為第一類錯誤,它發(fā)生的概率為5。 另

22、外一種情況是,我們得到95的一個置信區(qū)間,落在這個區(qū)間的零假設我們都不能拒絕,當我們接受一個零假設的時候也可能犯錯誤,因為回歸系數的真實值可能是該區(qū)間內的另外一個值,這一錯誤被稱為第二類錯誤。 在選擇顯著性水平時人們面臨抉擇:降低犯第一類錯誤的概率就會增加犯第二類錯誤的概率。,54,(五)P值 P值是計量經濟結果對應的精確的顯著性水平。 P值度量的是犯第一類錯誤的概率,即拒絕正確的零假設的概率。P值越大,錯誤地拒絕零假設的可能性就越大;p值越小,拒絕零假設時就越放心?,F在許多統(tǒng)計軟件都能計算各種統(tǒng)計量的p值,如Eviews、Stata等。,55,第三節(jié) 多變量線性回歸模型的統(tǒng)計檢驗,一、多變量

23、模型的簡單介紹 考察下面這個方程: t=1,2,3.T (2.44) 對y產生影響的解釋變量共有k-1(x2t,x3t,xkt)個,系數(12..k)分別衡量了解釋變量對因變量y的邊際影響的程度。,,56,方程(2.44)的矩陣形式為 這里:y是T1矩陣,X是Tk矩陣,是k1矩陣,u是T1矩陣,,(2.46),57,在多變量回歸中殘差向量為:,,(2.47),殘差平方和為:,,(2.48),58,可以得到多變量回歸系數的估計表達式,,(2.49),同樣我們可以得到多變量回歸模型殘差的樣本方差,,(2.50),參數的協(xié)方差矩陣

24、 (2.51),59,二、擬合優(yōu)度檢驗 在多變量模型中,我們想知道解釋變量一起對因變量y變動的解釋程度。我們將度量這個信息的量稱為多元判定系數R2。 在多變量模型中,下面這個等式也成立: TSS=ESS+RSS (2.52) 其中,TSS為總離差平方和;ESS為回歸平方和;RSS為殘差平方和。,60,與雙變量模型類似,定義如下: 即,R2是回歸平方和與總離差平方和的比值;與雙變量模型唯一不同的是,ESS值與多個解釋變量有關。 R2的值在0與1之間,越接近于1,說明估計的回歸直線擬合得越好。,,,(2.53),61,可以證明: (2.54) 因此,

25、 (2.55),,,62,三、假設檢驗 (一)、t檢驗 在多元回歸模型中,t統(tǒng)計量為:,,,,,(2.56),均服從自由度為(n-k)的t分布。下面的檢驗過程跟雙變量線性回歸模型的檢驗過程一樣。,63,(二)、F檢驗 F檢驗的第一個用途是對所有的回歸系數全為0的零假設的檢驗。第二個用途是用來檢驗有關部分回歸系數的聯合檢驗,就方法而言,兩種用途是完全沒有差別的,下面我們將以第二個用途為例,對F檢驗進行介紹。,64,為了解聯合檢驗是如何進行的,考慮如下多元回歸模型:,,(2.57),這個模型稱為無約束回歸模型(unrestricted regression),因為關于回歸系數

26、沒有任何限制。,65,假設我們想檢驗其中q個回歸系數是否同時為零,為此改寫公式(2.57),將所有變量分為兩組,第一組包含k-q個變量(包括常項),第二組包含q個變量:,,(2.58),66,如果假定所有后q個系數都為零,即建立零假設: ,則修正的模型將變?yōu)橛屑s束回歸模型(restricted regression)(零系數條件):,,,(2.59),67,關于上述零假設的檢驗很簡單。若從模型中去掉這q個變量,對有約束回歸方程(2.59)進行估計的話,得到的誤差平方和 肯定會比相應的無約束回歸方程的誤差平方和 大。如果零假設正確,去掉這q個變量對方程的解釋能力影響不大。當然,零假

27、設的檢驗依賴于限制條件的數目,即被設定為零的系數個數,以及無約束回歸模型的自由度。,,,68,檢驗的統(tǒng)計量為:,(2.60),在這里,分子是誤差平方和的增加與零假設所隱含的參數限制條件的個數之比;分母是模型的誤差平方和與無條件模型的自由度之比。如果零假設為真,式(2.60)中的統(tǒng)計量將服從分子自由度為q,分母自由度為N-K的F分布。,69,對回歸系數的子集的F檢驗與對整個回歸方程的F檢驗做法一樣。選定顯著性水平,比如1或5,然后將檢驗統(tǒng)計量的值與F分布的臨界值進行比較。如果統(tǒng)計量的值大于臨界值,我們拒絕零假設,認為這組變量在統(tǒng)計上是顯著的。一般的原則是,必須對兩個方程分別進行估計,以便正確地運

28、用這種F檢驗。,70,F檢驗與R2有密切的聯系?;叵? ,則 , (2.61) 兩個統(tǒng)計量具有相同的因變量,因此 將上面的兩個方程代入(2.60),檢驗的統(tǒng)計量可以寫成:,,,,,,(2.62),71,第四節(jié) 預測,一、預測的概念和類型 (一)預測的概念 金融計量學中,所謂預測就是根據金融經濟變量的過去和現在的發(fā)展規(guī)律,借助計量模型對其未來的發(fā)展趨勢和狀況進行描述、分析,形成科學的假設和判斷。,72,(二)預測原理 條件期望(conditional expectations),在t期Y的t+1期的條件期望值記作 ,它表示的是在所有已知的t期的信息的條件下

29、,Y在t+1期的期望值。 假定在t期,我們要對因變量Y的下一期(即t+1期)值進行預測,則記作 。,,,73,在t期對Y的下一期的所有預測值中,Y的條件期望值是最優(yōu)的(即具有最小方差),因此,我們有:,,(2.65),74,(三)預測的類型: (1)無條件預測和有條件預測 所謂無條件預測,是指預測模型中所有的解釋變量的值都是已知的,在此條件下所進行的預測。 所謂有條件預測,是指預測模型中某些解釋變量的值是未知的,因此想要對被解釋變量進行預測,必須首先預測解釋變量的值。,75,(2)樣本內(in-sample)預測和樣本外(out-of-sample)預測 所謂樣本內預測是指用全部觀測值來估計

30、模型,然后用估計得到的模型對其中的一部分觀測值進行預測。 樣本外預測是指將全部觀測值分為兩部分,一部分用來估計模型,然后用估計得到的模型對另一部分數據進行預測。,76,(3)事前預測和事后模擬 顧名思義,事后模擬就是我們已經獲得要預測的值的實際值,進行預測是為了評價預測模型的好壞。 事前預測是我們在不知道因變量真實值的情況下對其的預測。,77,(4)一步向前(one-step-ahead)預測和多步向前(multi-step-ahead)預測 所謂一步向前預測,是指僅對下一期的變量值進行預測,例如在t期對t+1期的值進行預測,在t+1期對t+2期的值進行的預測等。 多步向前預測則不僅是對下一期

31、的值進行預測,也對更下期值進行預測,例如在t期對t+1期、t+2期、t+r期的值進行預測。,78,二、預測的評價標準 、平均預測誤差平方和(mean squared error,簡記MSE)平均預測誤差絕對值(mean absolute error,簡記MAE)。 變量的MSE定義為: MSE= (2.66) 其中 的預測值, 實際值,T時段數,,79,變量的MAE定義如下: MAE= ,變量的定義同前 (2.67) 可以看到,MSE和MAE度量的是誤差的絕對大小,只能通過與該變量平均值的比較來判斷誤差的大小,誤差越大,說明模型的預測效果越不理想。,

32、,80,2、Theil不相等系數 其定義為: (2.68) 注意,U的分子就是MSE的平方根,而分母使得U總在0與1之間。如果U=0,則對所有的t, 完全擬合;如果U=1,則模型的預測能力最差。因此,Theil不等系數度量的是誤差的相對大小。,,,81,Theil不等系數可以分解成如下有用的形式: 其中 分別是序列 和 的平均值和標準差, 是它們的相關系數,即:,,(2.69),,,,,,82,定義不相等比例如下:,,(2.70),,,(2.71),(2.72),83,偏誤比例 表示系統(tǒng)誤差,因為它度量的是模擬序列與實際序列之間的偏離程度。 方差比例

33、表示的是模型中的變量重復其實際變化程度的能力。 協(xié)方差比例 度量的是非系統(tǒng)誤差,即反映的是考慮了與平均值的離差之后剩下的誤差。 理想的不相等比例的分布是 。,,,,,比例 分別稱為U的偏誤比例,方差比例,協(xié)方差比例。它們是將模型誤差按特征來源分解的有效方法( )。,84,第五節(jié):模型選擇,一、“好”模型具有的特性 1、節(jié)省性(parsimony) 一個好的模型應在相對精確反應現實的基礎上盡可能的簡單。 2、可識別性(identifiability) 對于給定的一組數據,估計的參數要有唯一確定值。,85,3、高擬合性(goodness of fit) 回歸

34、分析的基本思想是用模型中包含的變量來解釋被解釋變量的變化,因此解釋能力的高低就成為衡量模型好壞的重要的標準。 4、理論一致性(theoretical consistency) 即使模型的擬合性很高,但是如果模型中某一變量系數的估計值符號與經濟理論不符,那么這個模型就是失敗的。,86,5、預測能力(predictive power) 著名經濟學家弗里德曼(M.Friedman)認為:“對假設(模型)的真實性唯一有效的檢驗就是將預測值與經驗值相比較”。因此一個好的模型必須有對未來的較強的預測能力。,87,二、用于預測的模型的選擇 因為R2將隨著模型解釋變量的增多而不斷增加,按照此標準我們將不會得到

35、最佳的預測模型。 因此必須對由于解釋變量增多而造成自由度丟失施加一個懲罰項,其中的一個標準就是:,,88,對自由度丟失懲罰更為嚴格的標準: Akaike的信息準則(Akaike information criterion,簡記為AIC)和Schwarz的信息準則(Schwarz information criterion,簡記為SC),,,89,其中 是方程隨機誤差項方差的估計值,k是解釋變量的個數,T是樣本容量。 可以看到,AIC和SC 的懲罰項 、 比 更為嚴厲,而且相對來說SC標準對自由度的懲罰比AIC更為嚴厲。無論是AIC標準還是SC標準,從預測的角度來看,度量值越低,模型的預測會更好。,,,,,90,本章小節(jié),本章內容在計量經濟學中是最基礎也是最重要的部分。在這一章中,我們首先介紹了最小二乘法及其估計量的性質和分布。在此基礎上我們對一元線性回歸模型的統(tǒng)計檢驗進行了詳細討論,接著將模型擴展,討論了多元線性回歸模型。在用模型進行預測時,主要有兩種情況:即有條件預測和無條件預測。最后一小節(jié)我們簡單介紹了模型的選擇。,

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
5. 裝配圖網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關資源

更多
正為您匹配相似的精品文檔
關于我們 - 網站聲明 - 網站地圖 - 資源地圖 - 友情鏈接 - 網站客服 - 聯系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網版權所有   聯系電話:18123376007

備案號:ICP2024067431-1 川公網安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對上載內容本身不做任何修改或編輯。若文檔所含內容侵犯了您的版權或隱私,請立即通知裝配圖網,我們立即給予刪除!