人工智能如何真正獲得成功
人工智能如今得到了更廣泛深入的應(yīng)用,尤其是人工智能技術(shù)在自動(dòng)駕駛汽車方面的應(yīng)用,而采用人工智能編寫代碼、設(shè)計(jì)谷歌芯片平面圖等也可以表明人們對(duì)人工智能的信任程度。
考慮到有些關(guān)于人工智能的宣傳通常只是炒作,人們很容易忘記許多企業(yè)在人工智能方面取得了真正的成功。在這里并不談?wù)撎厮估緦?duì)于人工智能的“全自動(dòng)駕駛”的持續(xù)營(yíng)銷。正如行業(yè)分析師Benedict Evans所指出的那樣,“自動(dòng)駕駛實(shí)際上并不是真正的完全自動(dòng)駕駛。”
最近的一項(xiàng)調(diào)查表明,要讓人工智能發(fā)揮作用,企業(yè)將需要充足資金和良好的數(shù)據(jù)。假設(shè)這些因素都到位,可以了解人工智能在改善人們的生活方面取得進(jìn)展的一些領(lǐng)域,在這些行業(yè)領(lǐng)域中的應(yīng)用不僅僅是營(yíng)銷和宣傳。
人工智能編寫代碼
最近通過(guò)機(jī)器智能提高人類生產(chǎn)力的最明顯的實(shí)驗(yàn)是GitHub的Copilot。與人們的智能手機(jī)(或Gmail之類的東西)在鍵入時(shí)推薦單詞或短語(yǔ)的方式類似,Copilot通過(guò)推薦要使用的代碼行或功能為開發(fā)人員提供幫助。Copilot在GitHub上接受了數(shù)十億行代碼的培訓(xùn),承諾通過(guò)允許他們編寫更少但更好的代碼來(lái)提高開發(fā)人員的工作效率。
現(xiàn)在宣稱Copilot是否有效還為時(shí)過(guò)早,這并不是說(shuō)一定能夠做到。但許多開發(fā)商爭(zhēng)先恐后地嘗試,并稱贊其發(fā)展?jié)摿?。然而,業(yè)界人士對(duì)此有一些擔(dān)憂:人們不應(yīng)該期望Copilot生成的代碼是正確的。一方面,這種類型的應(yīng)用程序還處于早期階段,除了初始數(shù)據(jù)集之外幾乎沒有訓(xùn)練。隨著越來(lái)越多的人使用Copilot,并且借鑒了他們?nèi)绾问褂闷浣ㄗh進(jìn)行強(qiáng)化學(xué)習(xí),其建議應(yīng)該會(huì)得到改進(jìn)。但是,仍然需要就使用的代碼段以及如何使用它們做出決定。出于安全原因,還需要對(duì)使用Copilot生成的代碼小心謹(jǐn)慎。
此外,還有對(duì)版權(quán)和開源的擔(dān)憂。有些人認(rèn)為這在理論上聽起來(lái)不錯(cuò),但隨著開發(fā)人員回到編寫代碼的實(shí)踐中,這些擔(dān)憂會(huì)逐漸消失。關(guān)鍵是開發(fā)人員是否發(fā)現(xiàn)Copilot的代碼建議在實(shí)際編程場(chǎng)景中有用,而不是它完全可以這樣做的事實(shí)。人工智能只是增強(qiáng)人類的創(chuàng)造力,而不是取代人類。
真正的自動(dòng)駕駛
當(dāng)然,自動(dòng)駕駛汽車目前的現(xiàn)實(shí)是并不是真正的自動(dòng)駕駛,但可以通過(guò)承擔(dān)更多的工作來(lái)幫助駕駛員。自動(dòng)駕駛汽車可能會(huì)由于依賴GPS而受到一定程度的阻礙,因?yàn)镚PS可能會(huì)失效。但正如《科學(xué)機(jī)器人》雜志所描述的那樣,加州理工學(xué)院的科學(xué)家們開發(fā)了一種用于視覺地形相關(guān)導(dǎo)航的季節(jié)性不變的深度變換技術(shù)。這意味著自主系統(tǒng)(如汽車)可以從它們周圍的地形中獲取線索,以確定它們的位置,無(wú)論該地形是否被大雪、落葉或草叢覆蓋。
當(dāng)前的方法需要地圖/地形數(shù)據(jù)與車輛“看到”的地形幾乎完全匹配,但是大雪和其他東西可能會(huì)破壞這一點(diǎn)。加州理工學(xué)院的科學(xué)家采用了一種不同的方法,稱為自監(jiān)督學(xué)習(xí)。雖然大多數(shù)計(jì)算機(jī)視覺策略依賴于人工注釋者,他們整理大數(shù)據(jù)集來(lái)教會(huì)算法如何識(shí)別它所看到的東西,但這個(gè)策略卻讓算法自學(xué)習(xí)。人工智能通過(guò)梳理出人類可能會(huì)錯(cuò)過(guò)的細(xì)節(jié)和特征來(lái)尋找圖像中的模式。通過(guò)使用這種深度學(xué)習(xí)方法,科學(xué)家們創(chuàng)造了一種高度準(zhǔn)確的方法來(lái)改善機(jī)器對(duì)周圍世界的看法和反應(yīng)。
但汽車周圍的物體更多的可能是汽車,因此加州理工學(xué)院采用的方法也許無(wú)濟(jì)于事,但佛羅里達(dá)大西洋大學(xué)工程與計(jì)算機(jī)科學(xué)學(xué)院的一位科學(xué)家的新研究旨在從人類駕駛員的情緒中學(xué)習(xí)并相應(yīng)地改變駕駛方式。目前還沒有人使用這種獲得專利的新方法,但它提出了自動(dòng)駕駛安全和信任的一種新方法。
信任問題
這一切仍然有些推測(cè),但谷歌公司在芯片設(shè)計(jì)上取得了一些成。正如《自然》雜志所描述的,谷歌公司工程師采用了一種芯片布局進(jìn)行規(guī)劃的新方法,即采用人工智能設(shè)計(jì)計(jì)算機(jī)芯片物理布局。幾十年來(lái),工程師一直在嘗試將這一工作實(shí)現(xiàn)自動(dòng)化,但沒有成功。但是通過(guò)使用機(jī)器學(xué)習(xí),谷歌公司的芯片設(shè)計(jì)人員花費(fèi)了數(shù)月的時(shí)間進(jìn)行開發(fā),他們將芯片平面布局規(guī)劃作為一個(gè)強(qiáng)化學(xué)習(xí)問題來(lái)處理,并開發(fā)了一種基于邊緣的圖卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),能夠?qū)W習(xí)芯片的豐富且可轉(zhuǎn)移的表示。
為了達(dá)到這一點(diǎn),谷歌公司的工程師使用一組1萬(wàn)個(gè)芯片的平面圖對(duì)人工智能代理進(jìn)行了預(yù)訓(xùn)練。然后使用強(qiáng)化學(xué)習(xí)技術(shù),正如工程師所指出的,人工代理從過(guò)去的成功中“學(xué)習(xí)”以規(guī)定要設(shè)置的下一個(gè)塊,在平面規(guī)劃的任何給定步驟中,受過(guò)訓(xùn)練的代理評(píng)估芯片的“狀態(tài)”開發(fā),包括它迄今為止構(gòu)建的部分平面圖,然后采用其學(xué)到的策略來(lái)確定最佳動(dòng)作——也就是放置下一個(gè)宏塊的位置。
這是一項(xiàng)令人印象深刻的舉措,但更令人印象深刻的是,現(xiàn)在已在谷歌公司的生產(chǎn)中使用,這意味著谷歌公司信任其人工智能技術(shù)幫助開發(fā)的芯片布局圖。
IBM公司也開發(fā)了類似的項(xiàng)目,其名稱為UQ360。而人工智能面臨的挑戰(zhàn)之一是人們不愿意相信其結(jié)果。數(shù)據(jù)驅(qū)動(dòng)是一回事,但如果人們不完全相信這些數(shù)據(jù)或機(jī)器會(huì)用它做什么,就不可能相信人工智能。UQ360是一個(gè)帶有Python包的開源工具包,為數(shù)據(jù)科學(xué)從業(yè)者和開發(fā)人員提供訪問先進(jìn)算法的權(quán)限,以簡(jiǎn)化機(jī)器學(xué)習(xí)模型的估計(jì)、評(píng)估、改進(jìn)和交流不確定性的過(guò)程,作為人工智能透明度的常見實(shí)踐。
換句話說(shuō),它使用人工智能估計(jì)企業(yè)對(duì)人工智能想要做的事情的信任程度。
這是一個(gè)巨大的進(jìn)步,因?yàn)樗屓藗儗?duì)越來(lái)越多的人工智能應(yīng)用產(chǎn)生更多的信任。盡管人們多年來(lái)一直被告知機(jī)器人正在接管人類的工作,但人工智能在匹配用戶興趣與購(gòu)買機(jī)會(huì)方面仍然很糟糕。而人工智能的一些應(yīng)用正在成為現(xiàn)實(shí),因此無(wú)需大肆宣傳。





















