《電子金融課件:16b 機器學習 簡介》由會員分享,可在線閱讀,更多相關(guān)《電子金融課件:16b 機器學習 簡介(14頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1、機器學習簡介機器學習簡介什么是機器學習什么是機器學習 卡內(nèi)基梅隆大學教授Tom Mitchell定義了什么是機器學習:一個程序能夠從經(jīng)驗E中學習,解決任務(wù)T,達到性能度量值P,當且僅當,經(jīng)過經(jīng)驗E后,經(jīng)過P評價,程序在處理任務(wù)T時的性能有所提升 例子:西洋棋程序,通過編程讓程序跟自己下了幾萬盤棋,通過學習那種布局會贏那種布局會輸,一段時間之后,該西洋棋程序就知道什么是好的布局什么是壞的布局 對于上述的西洋棋程序而言,經(jīng)驗E就是程序自己進行的上萬次的自我學習,任務(wù)T就是下棋這個過程,性能度量值P就是比賽的最后會贏的概率。 電子郵件系統(tǒng)中的垃圾郵件標注的案例,加入我們將一份該系統(tǒng)并沒標注為垃圾郵件
2、的郵件手動變主衛(wèi)垃圾郵件,基于我們標注的垃圾郵件,該垃圾郵件識別系統(tǒng)將更好的學習如何過濾垃圾郵件。什么是機器學習什么是機器學習 機器學習學習的對象又是什么呢?數(shù)據(jù)。 他從數(shù)據(jù)出發(fā),提取數(shù)據(jù)特征,發(fā)現(xiàn)數(shù)據(jù)中的知識,然后又回到對數(shù)據(jù)的分析預(yù)測中去。 為此,在機器學習的假設(shè)中有很重重的一個假設(shè),那就是假設(shè)同類數(shù)據(jù)的數(shù)據(jù)有一定的統(tǒng)計特性。這樣機器學習通過考慮學習什么樣的模型以及如何學習的問題,使得模型能讀數(shù)據(jù)進行準確的預(yù)測與分析。機器學習分類機器學習分類機器學習分類機器學習分類 基于數(shù)據(jù)構(gòu)架模型從而對數(shù)據(jù)進行分析預(yù)測的機器學習由監(jiān)督學習(supervised learning)非監(jiān)督學習(unsupe
3、rvised learning)半監(jiān)督學習(semi-supervised learning)強化學習(reinforcement learning)監(jiān)督學習監(jiān)督學習 1、可以由訓練資料中學到或建立一個模式,并依此模式推測新的實例。訓練資料是由輸入物件(通常是向量)和預(yù)期輸出所組成。函數(shù)的輸出可以是一個連續(xù)的值(稱為回歸分析),或是預(yù)測一個分類標簽(稱作分類)。 2、一個監(jiān)督式學習的任務(wù)在觀察完一些訓練范例(輸入和預(yù)期輸出)后,去預(yù)測這個函數(shù)對任何可能出現(xiàn)的輸入的值的輸出。要達到此目的,學習者必須以合理(見歸納偏向)的方式從現(xiàn)有的資料中一般化到非觀察到的情況。在人類和動物感知中,則通常被稱為概
4、念學習。 3、監(jiān)督式學習有兩種形態(tài)的模型。最一般的,監(jiān)督式學習產(chǎn)生一個全域模型,會將輸入物件對應(yīng)到預(yù)期輸出。而另一種,則是將這種對應(yīng)實作在一個區(qū)域模型。(如案例推論及最近鄰居法)。 目前最廣泛被使用的分類器有人工神經(jīng)網(wǎng)絡(luò)、支持向量機、最近鄰居法、高斯混合模型、樸素貝葉斯方法、決策樹和徑向基函數(shù)分類。監(jiān)督學習監(jiān)督學習無監(jiān)督學習無監(jiān)督學習 1、無監(jiān)督式學習(Unsupervised Learning)其目的是去對原始資料進行分類,以便了解資料內(nèi)部結(jié)構(gòu)。有別于監(jiān)督式學習網(wǎng)絡(luò),無監(jiān)督式學習網(wǎng)絡(luò)在學習時并不知道其分類結(jié)果是否正確,亦即沒有受到監(jiān)督式增強(告訴它何種學習是正確的)。其特點是僅對此種網(wǎng)絡(luò)提供
5、輸入范例,而它會自動從這些范例中找出其潛在類別規(guī)則。當學習完畢并經(jīng)測試后,也可以將之應(yīng)用到新的案例上。 2、無監(jiān)督學習里典型的例子就是聚類了。聚類的目的在于把相似的東西聚在一起,而我們并不關(guān)心這一類是什么。因此,一個聚類算法通常只需要知道如何計算相似度就可以開始工作了。無監(jiān)督學習無監(jiān)督學習強化強化學習學習 強化學習是從動物學習、參數(shù)擾動自適應(yīng)控制等理論發(fā)展而來,其基本原理基本原理是:如果Agent的某個行為策略導致環(huán)境正的獎賞(強化信號),那么Agent以后產(chǎn)生這個行為策略的趨勢便會加強。Agent的目標是在每個離散狀態(tài)發(fā)現(xiàn)最優(yōu)策略以使期望的折扣獎賞和最大。 強化學習把學習看作試探評價過程,A
6、gent選擇一個動作用于環(huán)境,環(huán)境接受該動作后狀態(tài)發(fā)生變化,同時產(chǎn)生一個強化信號(獎或懲)反饋給Agent,Agent根據(jù)強化信號和環(huán)境當前狀態(tài)再選擇下一個動作,選擇的原則是使受到正強化(獎)的概率增大。選擇的動作不僅影響立即強化值,而且影響環(huán)境下一時刻的狀態(tài)及最終的強化值。 強化學習不同于連接主義學習中的監(jiān)督學習,主要表現(xiàn)在教師信號上,強化學習中由環(huán)境提供的強化信號是Agent對所產(chǎn)生動作的好壞作一種評價(通常為標量信號),而不是告訴Agent如何去產(chǎn)生正確的動作。由于外部環(huán)境提供了很少的信息,Agent必須靠自身的經(jīng)歷進行學習。通過這種方式,Agent在行動一一評價的環(huán)境中獲得知識,改進行
7、動方案以適應(yīng)環(huán)境。 強化學習系統(tǒng)學習的目標是動態(tài)地調(diào)整參數(shù),以達到強化信號最大。若已知r/A梯度信息,則可直接可以使用監(jiān)督學習算法。因為強化信號r與Agent產(chǎn)生的動作A沒有明確的函數(shù)形式描述,所以梯度信息r/A無法得到。因此,在強化學習系統(tǒng)中,需要某種隨機單元,使用這種隨機單元,Agent在可能動作空間中進行搜索并發(fā)現(xiàn)正確的動作。半半監(jiān)督學習監(jiān)督學習學習資料學習資料一些學習資料一些學習資料 周志華2016 CNCC講話http:/ 李宏毅machine learning課程http:/speech.ee.ntu.edu.tw/tlkagk/courses_ML17_2.htmlhttps:/