四種不同類別的機(jī)器學(xué)習(xí)概述
我們可以根據(jù)算法執(zhí)行學(xué)習(xí)的方式將它們分為以下不同類別:
- 有監(jiān)督學(xué)習(xí)
- 無監(jiān)督學(xué)習(xí)
- 半監(jiān)督學(xué)習(xí)
- 強(qiáng)化學(xué)習(xí)
01 有監(jiān)督學(xué)習(xí)
有監(jiān)督學(xué)習(xí)是目前商業(yè)過程中最常見的機(jī)器學(xué)習(xí)形式。這些算法試圖找到映射輸入和輸出的函數(shù)的一個(gè)很好的近似。
為此,顧名思義,我們需要自己為算法提供輸入值和輸出值,并且嘗試找到一個(gè)能夠使預(yù)測(cè)值和實(shí)際輸出值之間誤差最小的函數(shù)。
學(xué)習(xí)階段稱為訓(xùn)練(training)。模型經(jīng)過訓(xùn)練后,可以針對(duì)未見過的數(shù)據(jù)預(yù)測(cè)輸出。此階段通常被視為評(píng)分或預(yù)測(cè),如圖1-1所示。
▲圖 1-1
02 無監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)適用于未標(biāo)記的數(shù)據(jù),因此我們不需要實(shí)際的輸出值,僅需要輸入。它嘗試在數(shù)據(jù)中查找模式并根據(jù)這些共同屬性做出反應(yīng),將輸入劃分為多個(gè)不同聚類(如圖1-2所示)。
▲圖 1-2
通常,無監(jiān)督學(xué)習(xí)通常與有監(jiān)督學(xué)習(xí)結(jié)合使用,以減少輸入空間并將數(shù)據(jù)中的信號(hào)集中在較少數(shù)量的變量上,但無監(jiān)督學(xué)習(xí)還有其他目標(biāo)。從這個(gè)角度來看,當(dāng)標(biāo)記數(shù)據(jù)很昂貴或不太可靠時(shí),無監(jiān)督學(xué)習(xí)比有監(jiān)督學(xué)習(xí)更適用。
常見的無監(jiān)督學(xué)習(xí)技術(shù)有聚類(clustering)和主成分分析(Principal Component Analysis,PCA)、獨(dú)立成分分析(Independent Component Analysis,ICA),以及一些神經(jīng)網(wǎng)絡(luò),例如生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)和自編碼器(Autoencoder,AE)。
03 半監(jiān)督學(xué)習(xí)
半監(jiān)督學(xué)習(xí)是介于有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)之間的一種技術(shù)。它可以說不屬于機(jī)器學(xué)習(xí)中一個(gè)單獨(dú)的類別,而只是有監(jiān)督學(xué)習(xí)的一種泛化,但在這將其單獨(dú)列出是有用的。
其目的是通過將一些有標(biāo)記的數(shù)據(jù)擴(kuò)展到類似的未標(biāo)記數(shù)據(jù),從而降低收集標(biāo)記數(shù)據(jù)的成本。我們把一些生成模型分類為半監(jiān)督學(xué)習(xí)。
半監(jiān)督學(xué)習(xí)可以分為直推學(xué)習(xí)和歸納學(xué)習(xí)。直推學(xué)習(xí)適用于推斷未標(biāo)記數(shù)據(jù)的標(biāo)簽,歸納學(xué)習(xí)適用于推斷從輸入到輸出的正確映射。
我們可以看到此過程與我們?cè)趯W(xué)校學(xué)習(xí)的大多數(shù)過程相似。老師向?qū)W生展示一些例子,并讓學(xué)生回家完成作業(yè)。為了完成這些作業(yè),他們需要進(jìn)行泛化。
04 強(qiáng)化學(xué)習(xí)
強(qiáng)化學(xué)習(xí)(RL)是我們目前所見的最獨(dú)特的類別。這個(gè)概念非常有趣:該算法試圖找出一個(gè)策略來最大化獎(jiǎng)勵(lì)總和。
該策略由使用它在環(huán)境中執(zhí)行動(dòng)作的智能體來學(xué)習(xí)。然后,環(huán)境返回反饋,智能體使用該反饋來改進(jìn)其策略。反饋是對(duì)所執(zhí)行動(dòng)作的獎(jiǎng)勵(lì),可以是正數(shù)、空值或負(fù)數(shù),如圖1-3所示。
▲圖 1-3