突發(fā)!吳恩達確診新冠,46歲生日還有不到3個月
北京時間,2022年2月8日早上6點,吳恩達新冠病毒檢測呈陽性。
吳恩達表示,由于自己已經(jīng)接種了疫苗和加強針,目前的癥狀和與輕度的流感差不多。感謝全世界從事疫苗工作的人們。
大年初一的時候,他還發(fā)推祝大家虎年快樂。
還有不到3個月就要過46歲生日了,希望大佬好好休息,早日康復(fù)。
成就一覽
吳恩達無疑是當代人工智能和機器學(xué)習(xí)領(lǐng)域最權(quán)威的學(xué)者之一,同時在商業(yè)上也頗有建樹。
吳恩達是斯坦福大學(xué)計算機科學(xué)系和電氣工程系的客座教授,曾任斯坦福人工智能實驗室主任。
吳恩達的理想是讓世界上每個人能夠接受高質(zhì)量的、免費的教育。于是便與達芙妮·科勒 (機器學(xué)習(xí)界的一姐和大牛,《Probabilistic Graphical Models: Principles and Techniques》的作者)一起創(chuàng)建了在線教育平臺Coursera。
吳恩達于1976年出生于英國倫敦。他的父母都是來自香港的移民。在成長過程中,他在香港和新加坡度過了一段時間,后來于1992年從新加坡萊佛士書院畢業(yè)。
1997年,他獲得了賓夕法尼亞州匹茲堡卡尼基美隆大學(xué)班級頂尖的計算機科學(xué)、統(tǒng)計學(xué)和經(jīng)濟學(xué)三重專業(yè)大學(xué)學(xué)位。1996年至1998年間,他在AT&T貝爾實驗室進行了強化學(xué)習(xí),模型選擇和特征選擇的研究。
1998年,吳恩達在馬薩諸塞州劍橋的麻省理工學(xué)院獲得碩士學(xué)位。在麻省理工學(xué)院,他為網(wǎng)絡(luò)上的研究論文建立了第一個公開可用,自動索引的網(wǎng)絡(luò)搜索引擎(它是CiteSeer/ResearchIndex的前身,但專注于機器學(xué)習(xí))。
2011年,吳恩達在谷歌創(chuàng)建了谷歌大腦項目,以通過分布式集群計算器開發(fā)超大規(guī)模的人工神經(jīng)網(wǎng)絡(luò)。
2014年5月16日,吳恩達加入百度,負責(zé)「百度大腦」計劃,并擔(dān)任百度公司首席科學(xué)家。2017年3月20日,吳恩達宣布從百度辭職。
2017年12月,吳恩達宣布成立人工智能公司Landing.ai,擔(dān)任公司的首席執(zhí)行官。
趣味哏圖:「AI的文藝形象是終結(jié)者,真實形象是吳恩達公開課」
作為教師,他保持一項紀錄:在2013-1014年斯坦福大學(xué)秋季學(xué)期的「機器學(xué)習(xí)」課程中,這門由吳恩達主講的課程有超過800名學(xué)生選修。這曾是斯坦福歷史上最多人同時選修的課程。
沒有任何教室可以容納,所以很多人都是在家看課堂錄像。不過這門計算機專業(yè)的研究生課程比Coursera上的同名公開課要難很多,用他自己的話來說就是“這(和Coursera上的相比)可以說是兩門課”。
吳教授公開課金句:「聽不懂先不要怕」
他在斯坦福公開課與Coursera里主講機器學(xué)習(xí),效果極佳,在業(yè)界和普羅大眾中都非常受歡迎。
趣味哏圖:「女友:你看泰坦尼克都不哭!難以置信!你究竟有沒有感情!你哭過沒有!AI學(xué)子:有啊,吳恩達公開課結(jié)尾出手寫感謝字幕的時候?!?/span>
吳恩達在Coursera上的機器學(xué)習(xí)課程,平均得分4.9分。Coursera上的課程評分滿分5分,大部分公開課處于4-4.5分之間,能做到4.9分的課程很少,而這門課程有近五萬人給出評分。按Freecodecamp的統(tǒng)計,這是機器學(xué)習(xí)在線課程中最受歡迎的一門。
吳恩達的公開課程中高數(shù)內(nèi)容相對不多,在同類公開課中比較親善大眾。他解釋過原因:「這門課沒有使用過多數(shù)學(xué)的原因就是考慮到其受眾廣泛,因此用直覺式的解釋讓大家有信心繼續(xù)堅持學(xué)習(xí)?!?/span>
趣味哏圖:「吳恩達公開課,默默為AI新丁擋下了微積分、線代、統(tǒng)計、概率論這些高數(shù)火力,讓學(xué)子們得以安眠?!?/span>
80%的數(shù)據(jù)+20%的模型=更好的機器學(xué)習(xí)
機器學(xué)習(xí)的進步是模型帶來的還是數(shù)據(jù)帶來的,這可能是一個世紀辯題。
吳恩達對此的想法是,一個機器學(xué)習(xí)團隊80%的工作應(yīng)該放在數(shù)據(jù)準備上,確保數(shù)據(jù)質(zhì)量是最重要的工作。
「AI = Data + Code」
出現(xiàn)問題時,大部分團隊會本能地嘗試改進代碼。但是對于許多實際應(yīng)用而言,集中精力改善數(shù)據(jù)會更有效。
吳恩達認為,如果更多地強調(diào)以數(shù)據(jù)為中心而不是以模型為中心,那么機器學(xué)習(xí)將快速發(fā)展。
我們都知道Google的BERT,OpenAI的GPT-3。但是,這些神奇的模型僅解決了業(yè)務(wù)問題的20%。而剩下80%就是數(shù)據(jù)的質(zhì)量。
MLOps是什么?
MLOps,即Machine Learning和Operations的組合,是ModelOps的子集。
它是數(shù)據(jù)科學(xué)家與操作專業(yè)人員之間進行協(xié)作和交流以幫助管理機器學(xué)習(xí)任務(wù)生命周期的一種實踐。
與DevOps或DataOps方法類似,MLOps希望提高自動化程度并提高生產(chǎn)ML的質(zhì)量,同時還要關(guān)注業(yè)務(wù)和法規(guī)要求。
比如在缺少數(shù)據(jù)的應(yīng)用場景中進行部署AI時,例如農(nóng)業(yè)場景,你不能指望自己有一百萬臺拖拉機為自己收集數(shù)據(jù)。
基于MLOps,吳恩達也提出幾點建議:
- MLOps的最重要任務(wù)是提供高質(zhì)量數(shù)據(jù)。
- 標簽的一致性也很重要。檢驗標簽是否有自己所管轄的明確界限,即使標簽的定義是好的,缺乏一致性也會導(dǎo)致模型效果不佳。
- 系統(tǒng)地改善baseline模型上的數(shù)據(jù)質(zhì)量要比追求具有低質(zhì)量數(shù)據(jù)的最新模型要好。
- 如果訓(xùn)練期間出現(xiàn)錯誤,那么應(yīng)當采取以數(shù)據(jù)為中心的方法。
- 如果以數(shù)據(jù)為中心,對于較小的數(shù)據(jù)集(<10,000個樣本),則數(shù)據(jù)容量上存在很大的改進空間。
- 當使用較小的數(shù)據(jù)集時,提高數(shù)據(jù)質(zhì)量的工具和服務(wù)至關(guān)重要。
十年前,社區(qū)開始接受深度學(xué)習(xí),那時還不知道需要多少萬份新穎的發(fā)明、多少研究論文,才能達到我們現(xiàn)今的發(fā)展地位。
但昔日的不解早已煙消云散。
「人們一開始質(zhì)疑TensorFlow和其它奠定基礎(chǔ)的框架。而如今,我認為,在考慮MLOps和以數(shù)據(jù)為中心的人工智能時,隨時都有數(shù)以萬計的想法有待發(fā)明?!?/span>
歸根結(jié)底,任何機器學(xué)習(xí)的企業(yè)都必須關(guān)心客戶對產(chǎn)品的需求,所有事情都與業(yè)務(wù)有關(guān)。
在構(gòu)建MLOps團隊時,吳恩達推薦了一條可靠的原則:
要求團隊進行長期、認真地審視,確保在整個產(chǎn)品生命周期中,始終能產(chǎn)出高質(zhì)量的數(shù)據(jù)。
「即使MLOps一詞沒有出現(xiàn)在職位描述中,但我認為,MLOps仍然是現(xiàn)在人們需要學(xué)習(xí)的一項重要技能?!?/span>