中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案

上傳人:小** 文檔編號:49533035 上傳時間:2022-01-18 格式:DOC 頁數(shù):5 大?。?26.50KB
收藏 版權(quán)申訴 舉報 下載
中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案_第1頁
第1頁 / 共5頁
中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案_第2頁
第2頁 / 共5頁
中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案_第3頁
第3頁 / 共5頁

下載文檔到電腦,查找使用更方便

15 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案》由會員分享,可在線閱讀,更多相關(guān)《中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案(5頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、中國科學(xué)院大學(xué) 20139310班 中國科學(xué)院大學(xué)2012年《機器學(xué)習(xí)》試卷及其答案 任課教師:卿來云 一、基礎(chǔ)題(共36分) 1、 請描述極大似然估計 MLE和最大后驗估計 MAP之間的區(qū)別。請解釋為什么 MLE比MAP 更容易過擬合。(10分) MLE :取似然函數(shù)最大時的參數(shù)值為該參數(shù)的估計值, ymie=argmax[p(x|y)] ; MAP :取后驗 函數(shù)(似然與先驗之積)最大時的參數(shù)值為該參數(shù)的估計值, ymap=argmax[p(x|y)p(y)]。因為 MLE只考慮訓(xùn)練數(shù)據(jù)擬合程度沒有考慮先驗知識,把錯誤點也加入模型中,導(dǎo)致過擬合。 2、 在年度百花獎評獎

2、揭曉之前, 一位教授問80個電影系的學(xué)生,誰將分別獲得8個獎項(如 最佳導(dǎo)演、最佳男女主角等)。評獎結(jié)果揭曉后,該教授計算每個學(xué)生的猜中率,同時也計 算了所有80個學(xué)生投票的結(jié)果。他發(fā)現(xiàn)所有人投票結(jié)果幾乎比任何一個學(xué)生的結(jié)果正確率 都高。這種提高是偶然的嗎?請解釋原因。( 10分) 設(shè)x為第i個學(xué)生的猜中率(要么 0要么1) x~Ber( 0 ),E(x)= 0 ,V(x)= 0 (1- 0 ) mean(x)~N( 0 , 0 (1- 0 )/N),E(mean(x))= 0 ,V(mean(x))= 0 (1- 0 )/N

3、隨機變量,y為待預(yù)測的二值變量。 A c y 0 1 0 4 ] 4 1 a 0 9 9 g I 1 1 1 t J 1 0 0 1 i a 6 1 ⑻ 對一個新的輸入 A=0, B=0, C=1 ,樸素貝葉斯分類器將會怎樣預(yù)測 y?( 10分) y~Ber( 0 ) p(y=0)=3/7,p(y=1)=4/7 p(y=0|A=0B=0C=1) x p(y=0)*p(A=0|y=0)*p(B=0|y=0)*p(C=1|y=0)=3/7*2/3*1/3*1/3=2/63 p(y=1|A=0B=0C=1) x p(y=

4、1)*p(A=0|y=1)*p(B=0|y=1)*p(C=1|y=1)=4/7*1/4*2/4*2/4=1/28 ,因此 屬于y=1類 (b)假設(shè)你知道在給定類別的情況下 A、B、C是獨立的隨機變量,那么其他分類器(如Logstic 回歸、SVM分類器等)會比樸素貝葉斯分類器表現(xiàn)更好嗎?為什么?(注意:與上面給的 數(shù)據(jù)集沒有關(guān)系。)(6分) 不會。因為已知獨立同分布的前提下 NBC只用3個參數(shù),不用NBC貝U需要23-1=7個參數(shù)。 若不獨立,則其他基于數(shù)據(jù)本身的判別式分類器效果較好。 二、回歸問題。(共 24分) 現(xiàn)有N個訓(xùn)練樣本的數(shù)據(jù)集 D={(xi,yi)},其中xi,yi

5、為實數(shù)。 1. 我們首先用線性回歸擬合數(shù)據(jù)。 為了測試我們的線性回歸模型, 我們隨機選擇一些樣本 作為訓(xùn)練樣本,剩余樣本作為測試樣本?,F(xiàn)在我們慢慢增加訓(xùn)練樣本的數(shù)目, 那么隨著訓(xùn)練 樣本數(shù)目的增加,平均訓(xùn)練誤差和平均測試誤差將會如何變化?為什么?( 6分) 平均訓(xùn)練誤差:A、增加 B、減小 平均測試誤差:A、增加 B、減小 因為當(dāng)訓(xùn)練樣本增多時,模型參數(shù)發(fā)生改變以擬合新增的樣本, 因而使得模型原先的擬合程 度下降,平均訓(xùn)練誤差增加;而訓(xùn)練樣本增多,模型越接近真實的分布,因而使得平均測試 誤差減小。 2. 給定如下圖(a)所示數(shù)據(jù)。粗略看來這些數(shù)據(jù)不適合用線性回歸模型表示。因此我們

6、采 用如下模型斗?岡卜即7 其中八耳QJ)。假設(shè)我們采用極大似然估計 w,請給出log 似然函數(shù)并給出 w的估計。(8分) 4 - A f 嚴(yán)八.... V *7 ¥4 k ij| nd g p(yi|w,xi)~N(exp(wxi),1) L(w)=logp(y|w,x)=-0.5* 工(yi-exp(wx)) 令 g(w)=工[(yi-exp(wxi))*exp(wxi)*xi]=0 求得 w 3. 給定如下圖(b)所示的數(shù)據(jù)。從圖中我們可以看出該數(shù)據(jù)集有一些噪聲,請設(shè)計一個對 噪聲魯棒的線性回歸模型,并簡要分析該模型為什么能對噪聲魯棒。( 10分) 如圖離群點較多

7、(heavy tail),使用魯棒線性回歸模型: y=wTx+ & ~Laplace(vifx,b) 因為當(dāng) y 服從拉式分布時 L( 0 )=logp(D|X,w,b)=工 logLap(yi|Txi,b)=-N*log(2b)- 才剛血,其 損失為殘差絕對值和,對離群點不敏感; 而當(dāng)y服從正態(tài)分布時, L( 0 )=logp(D|X,w,b)= 工 logN(yi|w>-(N/2)*log(2 2)-冕(yi-Jxi)2/2 % 其損失為殘差平方和, 放大了誤差,對離群點敏感。因此使用 Laplace(或Student)線性回歸模型能對噪聲魯棒。 三、SVM分類。(第1~5題各

8、4分,第6題5分,共25分) 下圖為采用不同核函數(shù)或不同的松弛因子得到的 SVM決策邊界。但粗心的實驗者忘記記錄 每個圖形對應(yīng)的模型和參數(shù)了。請你幫忙給下面每個模型標(biāo)出正確的圖形。 Ihf-eix * A 1 ■ * ■ ■ ? A ■ '■ 1 ■ >■ i '■ -i * *、、 ■■ ? 墓沖上旦巧?cip -|i-r| |* 答:1.c 2.b 3.d 4.a 5.e 6、考慮帶松弛因子的線性 SVM分類器: it-7.也〉;Wf 兇 Yr WJ" F面有一些關(guān)于某些變量隨參數(shù) C的增

9、大而變化的表述。如果表述總是成立,標(biāo)示 如果表述總是不成立,標(biāo)示 否”;如果表述的正確性取決于 C增大的具體情況,標(biāo)示 是”; 不一 (1) w0不會增大(不一定) ⑵||w||增大(不一定) (3) ||w||不會減小 (是) (4) 會有更多的訓(xùn)練樣本被分錯 (否) ⑸間隔(Margin)不會增大(是) 四、一個初學(xué)機器學(xué)習(xí)的朋友對房價進(jìn)行預(yù)測。 他在一個N=1000個房價數(shù)據(jù)的數(shù)據(jù)集上匹 配了一個有533個參數(shù)的模型,該模型能解釋數(shù)據(jù)集上 99%的變化。 1、請問該模型能很好地預(yù)測來年的房價嗎?簡單解釋原因。( 5分) 2、如果上述模型不能很好預(yù)測新的房價, 請你設(shè)計一個合適的模型,給出模型的參數(shù)估計, 并解釋你的模型為什么是合理的。( 10分) 答:1?不能。因為模型參數(shù)過多太復(fù)雜,訓(xùn)練集上擬合太好,把錯誤點也考慮進(jìn)來,因此發(fā) 生了過擬合,預(yù)測誤差較大。 2.對之進(jìn)行 L1正則,即Lasso回歸。y~N(wTx,知w~Lap(0,t) L( 0 )=C-工(yl-w) 2/2 2-工 |wi|/b NLL=RSS+入 ||w|| 通過調(diào)節(jié)L1正則系數(shù)入大小避免模型過擬合,而且估計w參數(shù)的同時進(jìn)行了特征選擇, 得系數(shù)w盡可能多的為0,簡化了模型。 第5頁共4頁

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!