《機(jī)器學(xué)習(xí)》教學(xué)大綱

上傳人:Sc****h 文檔編號(hào):126538723 上傳時(shí)間:2022-07-28 格式:DOC 頁(yè)數(shù):2 大小:38.01KB
收藏 版權(quán)申訴 舉報(bào) 下載
《機(jī)器學(xué)習(xí)》教學(xué)大綱_第1頁(yè)
第1頁(yè) / 共2頁(yè)
《機(jī)器學(xué)習(xí)》教學(xué)大綱_第2頁(yè)
第2頁(yè) / 共2頁(yè)

最后一頁(yè)預(yù)覽完了!喜歡就下載吧,查找使用更方便

16 積分

下載資源

資源描述:

《《機(jī)器學(xué)習(xí)》教學(xué)大綱》由會(huì)員分享,可在線閱讀,更多相關(guān)《《機(jī)器學(xué)習(xí)》教學(xué)大綱(2頁(yè)珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。

1、《機(jī)器學(xué)習(xí)》教學(xué)大綱 課程主要內(nèi)容框架:各章節(jié)的主要內(nèi)容、目的與要求 1. 決策論與信息論基礎(chǔ)(2學(xué)時(shí)):了解并掌握統(tǒng)計(jì)決策理論和信息論的基礎(chǔ)知識(shí)。 a) 損失函數(shù)、錯(cuò)分率的最小化、期望損失的最小化等 b) 相對(duì)熵、互信息 2. 概率分布(4學(xué)時(shí)):熟悉常見(jiàn)的分布,熟練掌握最大似然估計(jì)方法,學(xué)會(huì)利用無(wú)信息先驗(yàn)和共軛先驗(yàn)簡(jiǎn)化計(jì)算,了解一些常用的非參數(shù)方法。 a) 高斯分布、混合高斯分布、Dirichlet分布、 beta分布等 b) 指數(shù)分布族:最大似然估計(jì)、充分統(tǒng)計(jì)量、共軛先驗(yàn)、無(wú)信息先驗(yàn)等 c) 非參數(shù)方法:核密度估計(jì)、近鄰法 3. 回歸的線性模型(4學(xué)時(shí)):掌握線性回歸的

2、一般方法,學(xué)會(huì)使用R中有關(guān)回歸的程序包,并能將之用于解決實(shí)際問(wèn)題。 a) 線性基函數(shù)模型 b) 貝葉斯線性回歸 c) 貝葉斯模型比較 4. 分類的線性模型(4學(xué)時(shí)):對(duì)分類問(wèn)題有一個(gè)全面的了解,掌握一些常用的分類方法。 a) 判別函數(shù):二分類和多分類的Fisher線性判別 b) 概率生成模型:連續(xù)輸入、離散特征 5. 神經(jīng)網(wǎng)絡(luò)(4學(xué)時(shí)):熟練掌握經(jīng)典神經(jīng)網(wǎng)絡(luò)模型的建模和實(shí)現(xiàn),了解貝葉斯神經(jīng)網(wǎng)絡(luò)的基本算法,學(xué)會(huì)使用FBM(flexible Bayesian Modeling)軟件。 a) 前饋網(wǎng)絡(luò)函數(shù) b) 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練:參數(shù)的最優(yōu)化、梯度下降最優(yōu)化等 c) 錯(cuò)誤的后傳播

3、 d) 貝葉斯神經(jīng)網(wǎng)絡(luò):后驗(yàn)參數(shù)分布、超參數(shù)最優(yōu)化、應(yīng)用 6. 核方法(4學(xué)時(shí)):了解核方法的最新進(jìn)展,熟練掌握核函數(shù)參數(shù)估計(jì)的常用方法。 a) 對(duì)偶表示 b) 構(gòu)造核函數(shù) c) 徑向基函數(shù)網(wǎng)絡(luò):Nadaraya-Watson模型 d) 高斯過(guò)程:高斯過(guò)程模型用于回歸和分類、Laplace逼近、與神經(jīng)網(wǎng)絡(luò)的聯(lián)系 7. 支持向量機(jī)(4學(xué)時(shí)):掌握支持向量機(jī)的基本原理,面對(duì)各自研究領(lǐng)域中的具體問(wèn)題學(xué)會(huì)使用支持向量機(jī),粗略了解統(tǒng)計(jì)學(xué)習(xí)理論。 a) 最大邊緣分類器:歷史回顧 b) 用于多分類和回歸的支持向量機(jī):幾何背景、各種變種 c) 統(tǒng)計(jì)學(xué)習(xí)理論簡(jiǎn)介:Vapnik等人的工作 8.

4、 圖模型(4學(xué)時(shí)):從建模到算法實(shí)現(xiàn)。 a) 貝葉斯網(wǎng)絡(luò) b) Markov隨機(jī)場(chǎng):條件獨(dú)立、因子分解 c) 圖模型中的推斷 9. 混合模型和期望最大化(Expectation Maximization,EM)算法(4學(xué)時(shí)):掌握EM算法的基本理論,學(xué)會(huì)使用EM算法。 a) 高斯混合模型的參數(shù)估計(jì):最大似然估計(jì)、EM算法 b) EM一般算法及其應(yīng)用:貝葉斯線性回歸 10. 隨機(jī)模擬技術(shù)(6學(xué)時(shí)):了解并掌握一些經(jīng)典的Monte Carlo方法,學(xué)會(huì)使用JAGS(Just Another Gibbs Sampler)軟件。 a) 拒絕采樣和重要性采樣 b) Markov cha

5、in Monte Carlo(MCMC)方法:Metropolis-Hastings算法 c) Gibbs采樣 11. 隱Markov模型和條件隨機(jī)場(chǎng)模型(4學(xué)時(shí)):掌握隱Markov模型的幾個(gè)經(jīng)典算法,學(xué)會(huì)利用隱Markov模型和條件隨機(jī)場(chǎng)模型解決具體問(wèn)題,如自然語(yǔ)言處理中的詞性標(biāo)注、蛋白質(zhì)結(jié)構(gòu)的分析和預(yù)測(cè)等。 a) 隱Markov模型:向前-向后算法、Viterbi算法、Baum-Welch算法等 b) 條件隨機(jī)場(chǎng)及其應(yīng)用 12. 模型的組合(4學(xué)時(shí)):學(xué)會(huì)在已有模型的基礎(chǔ)上構(gòu)造新模型進(jìn)一步改進(jìn)效果。 a) 貝葉斯模型均衡 b) 助推法:指數(shù)錯(cuò)誤的最小化、助推法的錯(cuò)誤函數(shù)

6、c) 基于樹(shù)的模型 d) 條件混合模型:線性回歸模型的混合、logistic模型的混合等 主要參考文獻(xiàn) 1. Bishop, C. M. (2006) Pattern Recognition and Machine Learning, Spring Science + Business Media, LLC 2. Mitchell, T. M. (1997) Machine Learning, The McGraw-Hill Companies, Inc. 教學(xué)方式 采用多媒體教學(xué)和傳統(tǒng)教學(xué)相結(jié)合的方式,在理論介紹上做到簡(jiǎn)潔直觀,在實(shí)驗(yàn)展示上做到生動(dòng)活潑。通過(guò)理論學(xué)習(xí),學(xué)生將掌握統(tǒng)計(jì)機(jī)器學(xué)習(xí)的經(jīng)典理論,了解當(dāng)前最新的進(jìn)展,并學(xué)會(huì)針對(duì)各自學(xué)科的具體問(wèn)題建模和設(shè)計(jì)算法。 掌握統(tǒng)計(jì)計(jì)算語(yǔ)言R及各種常用的機(jī)器學(xué)習(xí)工具包,最終實(shí)現(xiàn)算法、完成實(shí)驗(yàn)結(jié)果分析。考慮到統(tǒng)計(jì)機(jī)器學(xué)習(xí)的特點(diǎn),在教學(xué)上始終貫徹理論聯(lián)系實(shí)踐的宗旨,培養(yǎng)學(xué)生的動(dòng)手能力,以解決具體問(wèn)題為驅(qū)動(dòng),在學(xué)中用、在用中學(xué)。 考試方式 最后成績(jī)的評(píng)定采用: 1. 平時(shí)成績(jī)(作業(yè))30% 2. 期中考試(筆試)30% 3. 期末考試(筆試)40% 2

展開(kāi)閱讀全文
溫馨提示:
1: 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號(hào):ICP2024067431號(hào)-1 川公網(wǎng)安備51140202000466號(hào)


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺(tái),本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請(qǐng)立即通知裝配圖網(wǎng),我們立即給予刪除!