2021年機(jī)器學(xué)習(xí)的下一步是什么?
2020年啊!從全球醫(yī)療保健問(wèn)題到技術(shù)采用和再利用方式的革命,已經(jīng)過(guò)去了一年。
每年年底,停下來(lái)思考一下機(jī)器學(xué)習(xí)(ML)的趨勢(shì)總是很有趣的,這種趨勢(shì)已經(jīng)出現(xiàn)了驚人的增長(zhǎng),尤其是在工具,資源和信息可訪(fǎng)問(wèn)性方面。
作為PerceptiLabs視覺(jué)建模工具的開(kāi)發(fā)人員,我們將始終關(guān)注這些趨勢(shì),并詢(xún)問(wèn)下一步將如何發(fā)展,因?yàn)槲覀儗⒗^續(xù)增強(qiáng)工具的功能。這樣做意味著調(diào)查水晶球或黑匣子(取決于選擇的工具),以了解ML的未來(lái)前景。在最近進(jìn)行了這項(xiàng)練習(xí)之后,以下是我們對(duì)2021年ML的三大預(yù)測(cè)(倒計(jì)時(shí))。
尖端模型的可用性
排名第三的是可用的尖端模型的增長(zhǎng)。隨著ML的廣泛采用,我們看到了開(kāi)放訪(fǎng)問(wèn)模型的平行趨勢(shì)。一個(gè)促成因素是大型ML公司正在不斷提高模型性能的標(biāo)準(zhǔn)。他們之所以能夠做到這一點(diǎn),是因?yàn)樗麄儞碛旋嫶蠖娴臄?shù)據(jù)集,可以在專(zhuān)門(mén)的ML從業(yè)人員團(tuán)隊(duì)的支持下訓(xùn)練模型。
許多中小型公司和組織希望利用這些高性能模型,但可能無(wú)法從頭開(kāi)始構(gòu)建它們。因此,許多人正在轉(zhuǎn)向遷移學(xué)習(xí),以便他們可以在經(jīng)過(guò)大量培訓(xùn)的這些模型的基礎(chǔ)上,甚至重新利用這些模型。相反,許多確實(shí)有資源開(kāi)發(fā)此類(lèi)模型的大型企業(yè)已經(jīng)意識(shí)到,他們?nèi)匀豢梢詮耐獠繉?duì)其模型所做的貢獻(xiàn)中受益。
學(xué)生,業(yè)余愛(ài)好者和其他嘗試ML的團(tuán)體也使用開(kāi)源和公共模型,其中一些人使用或貢獻(xiàn)于這些模型來(lái)促進(jìn)他們的職業(yè)發(fā)展。
更好的ML支持工具
在2021年的頂級(jí)ML預(yù)測(cè)中排名第二的是為ML實(shí)踐者提供的更全面的工具支持。
僅僅生成一個(gè)可以做出相當(dāng)不錯(cuò)的預(yù)測(cè)的ML模型已不再足夠。當(dāng)今的機(jī)器學(xué)習(xí)從業(yè)者要求模型具有可解釋性,需要理解為什么要進(jìn)行預(yù)測(cè),也就是說(shuō),如果愿意,可以進(jìn)入眾所周知的黑匣子,然后決定是否應(yīng)將模型投入生產(chǎn)。這在企業(yè)中經(jīng)常要根據(jù)社會(huì)因素(包括道德,社會(huì)公正和公平)對(duì)預(yù)測(cè)進(jìn)行仔細(xì)檢查的情況下尤其重要。
模型卡的使用已成為模型開(kāi)發(fā)的強(qiáng)大工具,我們希望它們?cè)?021年變得更加普遍。從本質(zhì)上講,這些卡(實(shí)際上更像是設(shè)計(jì)文檔)正式描述了模型的各個(gè)方面。它們的內(nèi)容可以包括:
- 詳細(xì)概述:概述了模型的用途。
- 規(guī)格:層/神經(jīng)網(wǎng)絡(luò),輸入和輸出的類(lèi)型。
- 后勤:作者,日期,其他文檔的鏈接,如何引用模型,許可證。
- 預(yù)期用途:適用用途,領(lǐng)域限制等。
- 限制和注意事項(xiàng):速度/準(zhǔn)確性約束,道德和隱私問(wèn)題,潛在的偏見(jiàn)等。
- 培訓(xùn):數(shù)據(jù)源,測(cè)試環(huán)境和設(shè)備等。
- 目標(biāo)和實(shí)際績(jī)效指標(biāo):諸如預(yù)期與實(shí)際準(zhǔn)確性之類(lèi)的指標(biāo)。
有關(guān)模型卡的一些很好的示例,請(qǐng)從MediaPipe中查看此收藏集。
另一個(gè)關(guān)鍵工具是可視化。在設(shè)計(jì),培訓(xùn)甚至審計(jì)過(guò)程中可視化模型的能力本身就是非常寶貴的。這就是PerceptiLabs的亮點(diǎn),因?yàn)樗鼮門(mén)ensorFlow提供了GUI和可視化API。
這些方面補(bǔ)充了模型卡,因?yàn)閳F(tuán)隊(duì)成員可以根據(jù)模型卡上指定的內(nèi)容不斷評(píng)估模型。有關(guān)其他信息,請(qǐng)查看TensorFlow概述以及PerceptiLabs如何使其更容易。
在PerceptiLabs,我們還在尋求超越具有支持解釋功能的可視化功能。不久,我們將添加新的庫(kù),這些庫(kù)不僅使您可以查看正在使用的數(shù)據(jù),還可以洞悉該數(shù)據(jù)的哪一部分(例如,圖像的某些部分,CSV數(shù)據(jù)的某些列等)。具有最大的影響預(yù)測(cè)。
邊緣機(jī)器學(xué)習(xí)
最后,在您一直等待的時(shí)刻,我們對(duì)2021年的ML預(yù)測(cè)(鼓聲):邊緣機(jī)器學(xué)習(xí)。
我們看到邊緣推理的趨勢(shì)正在增長(zhǎng),我們預(yù)計(jì)該細(xì)分市場(chǎng)將在2021年大幅增長(zhǎng)。這有很多因素,包括物聯(lián)網(wǎng)的增長(zhǎng)以及對(duì)遠(yuǎn)程工作設(shè)備的更多依賴(lài)。但是,要對(duì)此趨勢(shì)有所了解,最好將邊緣推理與"面向云的ML"進(jìn)行比較和對(duì)比,后者在面向企業(yè)的設(shè)備和消費(fèi)類(lèi)設(shè)備(例如Google Mini)中都可以找到。
支持云的ML可能會(huì)讓人聯(lián)想到可以訪(fǎng)問(wèn)互聯(lián)網(wǎng)的微型設(shè)備的圖像,這些設(shè)備會(huì)收集數(shù)據(jù),將數(shù)據(jù)發(fā)送到云以進(jìn)行推斷,并且在某些情況下會(huì)在設(shè)備上接收數(shù)據(jù)(例如執(zhí)行某些操作)。這樣的部署對(duì)于許多情況(例如,對(duì)于檢測(cè)欺詐的銀行而言)是必要的,并且非常適合于可能不需要較長(zhǎng)延遲的情況,需要第三方云托管的情況等。也就是說(shuō),5G的增長(zhǎng)可能會(huì)使延遲成為過(guò)去。
但是,邊緣設(shè)備正在迅速獲得在邊緣執(zhí)行推理所需的處理能力。以Google的Coral為例,它具有板載張量處理單元(TPU),并且可以處理眾多IoT用例(例如,分析圖像和語(yǔ)音)。通過(guò)將此類(lèi)技術(shù)封裝在一個(gè)小巧的外形中,現(xiàn)在就可以進(jìn)行推理,而無(wú)需Internet連接和云后端。此設(shè)置還通過(guò)將所有收集的數(shù)據(jù)保留在設(shè)備上來(lái)增加安全性,這一方面在設(shè)備上得到了進(jìn)一步增強(qiáng)。
從技術(shù)角度來(lái)看,此類(lèi)部署通常需要更小的ML模型,這些模型可以快速轉(zhuǎn)移并適合有限的嵌入式設(shè)備存儲(chǔ)。一種流行的解決方案是在模型中使用量化(降低數(shù)值精度)來(lái)減小模型的大小。當(dāng)然,確定正確的量化數(shù)量必須與不可避免的準(zhǔn)確性降低保持平衡。有關(guān)更多信息,請(qǐng)查看我們的珊瑚手語(yǔ)教程,該教程演示在PerceptiLabs中的模型導(dǎo)出過(guò)程中使用全整數(shù)量化以將權(quán)重從32位浮點(diǎn)數(shù)減少到8位定點(diǎn)值,以及如何將模型加載到Coral開(kāi)發(fā)板上。
結(jié)論
2020年是唱片業(yè)的一年,但將被銘記為即使是最艱巨的挑戰(zhàn)也要克服的時(shí)代。我們希望認(rèn)為這不僅適用于全球性事件,而且還適用于ML工具,資源和信息的演變和民主化。
雖然我們的主題是2020年,但我們今年的主要預(yù)測(cè)之一是MLOps的增長(zhǎng)。MLOps可以按照MLOps:僅適用于機(jī)器學(xué)習(xí)的"運(yùn)維"中所述的不同級(jí)別采用。
總體而言,這是值得反思的一年,我們期待看到我們對(duì)ML的預(yù)測(cè)在新的一年中得以實(shí)現(xiàn)。


























