偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

何愷明兼職加入 DeepMind!要在基礎研究組搞大事?

人工智能
他的“科研直覺”已被反復驗證:別人還在研究“把杯子放穩(wěn)不碎”的方法時,他已經(jīng)在想,“如果 AI 真理解了杯子本身的構(gòu)造呢?”MIT 的自由探索給了他理論跳躍的空間,希望DeepMind 的工程團隊和算力基礎,能讓這些跳躍有機會落地成形。?

剛剛,MIT教授、CV大神,成為 Google DeepMind 的杰出科學家。不過,這次是以 part-time(兼職) 身份加入。

據(jù)網(wǎng)友爆料,他即將參與基礎研究組的工作。

圖片圖片

何凱愷是計算機視覺領域的超級明星,別人的榮譽都是在某某大廠工作,拿過什么大獎,而何愷明的榮譽是best,best,best ...... 例如2016 CVPR 最佳論文“Deep Residual Learning for Image Recognition”以及2017ICCV最佳論文“Mask R-CNN”。

圖片圖片

目前,何愷明的論文引用數(shù)超過71萬,是MIT被引用次數(shù)最高的學者。

他也一直沒閑著,去年,他與 DeepMind 的黎天鴻團隊提出 Fractal Generative Models,把分形遞歸塞進神經(jīng)網(wǎng)絡,讓逐像素生成 8K 圖像不再卡死 GPU;今年又合寫 Fluid,用連續(xù) token 解決視覺自回歸“越放大越糊”的老毛病。實驗室里,他用 Representation Regularization 給生成模型“扎緊腰帶”,在相同算力下多擠出 2%-3% 質(zhì)量分。

何愷明:多次按響深度學習門鈴

在2023年的世界人工智能大會上,商湯科技創(chuàng)始人湯曉鷗評價何愷明多次按響深度學習門鈴:

“何愷明把神經(jīng)網(wǎng)絡做深了,谷歌把神經(jīng)網(wǎng)絡的入口拉大了,又深又大,才成為今天的大模型?!?/p>

他2009年的那篇CVPR最佳論文,是CVPR整個25年歷史上亞洲的第一篇最佳論文。

他的第一項工作是在微軟亞洲研究院發(fā)布的有關殘差網(wǎng)絡(ResNet)的論文。在2015年之前,深度學習最多只能訓練20層,而CNN(卷積神經(jīng)網(wǎng)絡)模型ResNet在網(wǎng)絡的每一層引入了一個直連通道,從而解決了深度網(wǎng)絡的梯度傳遞問題,獲得了2016年CVPR的最佳論文獎,是計算機視覺歷史上被引用最多的論文。

“在ResNet之后就可以有效地訓練超過百層的深度神經(jīng)網(wǎng)絡,把網(wǎng)絡打得非常深?!睖珪扎t說,“在大模型時代,以Transformer為核心的大模型,包括GPT系列,也普遍采用了ResNet結(jié)構(gòu),以支撐上百層的Transformer的堆疊。

尤其是何愷明在Facebook期間發(fā)明的Mask R-CNN算法,首次把基于掩碼的自編碼思想用于視覺領域的非監(jiān)督學習,開啟了計算機視覺領域自監(jiān)督學習的大門。

關于何愷明

他是廣東高考滿分狀元,全國物理競賽一等獎獲得者,清華保送生。但真正讓他從“天才少年”躍升為“AI 大神”的,是從清華轉(zhuǎn)向基礎科學后的一連串技術里程碑。

本科階段,他放棄保送的機械專業(yè),加入清華基礎科學班。2007 年進入微軟亞洲研究院實習,因?qū)D形圖像課程產(chǎn)生興趣,加入視覺計算組——起初連發(fā)論文都難,直到 2009 年憑“暗通道去霧”首獲 CVPR 最佳論文。

這只是序章。他后來主導的 ResNet、Mask R-CNN、RetinaNet、MoCo 等模型,先后斬獲多個 CV 頂會大獎,把計算機視覺推進到了深度學習、實例分割、單階段檢測器、自監(jiān)督學習的多個重要階段。每一次發(fā)聲,都代表了方向性轉(zhuǎn)變。

從微軟亞洲研究院,到 Facebook FAIR,再到 MIT,再到 Google DeepMind,何愷明每一次轉(zhuǎn)換角色,都不是為名或為利,而是為了研究自由度和落地可能性之間的平衡。

復盤何愷明的研究路線,你會發(fā)現(xiàn)它極具“方向性判斷”能力。不同于許多研究員跟隨熱點話題“追著發(fā)”,他更像在一個個節(jié)點精準切入,并留下長久影響。

  • 2009 暗通道去霧:首開圖像復原新思路
  • 2015 ResNet:解決深層網(wǎng)絡訓練瓶頸,奠定現(xiàn)代模型結(jié)構(gòu)
  • 2017 Mask R-CNN + RetinaNet:目標檢測從 Two-stage 到 One-stage
  • 2019-2020 MoCo:拉開視覺領域自監(jiān)督學習序幕
  • 2023-2024 Fluid + Fractal:攻堅視覺生成模型結(jié)構(gòu)表達

這些研究不僅篇篇高引(ResNet 單篇已超 28 萬次),而且高度可遷移,從圖片識別延展到視頻理解、材料建模、蛋白質(zhì)設計等多個交叉學科。

他的“科研直覺”已被反復驗證:別人還在研究“把杯子放穩(wěn)不碎”的方法時,他已經(jīng)在想,“如果 AI 真理解了杯子本身的構(gòu)造呢?”

MIT 的自由探索給了他理論跳躍的空間,希望DeepMind 的工程團隊和算力基礎,能讓這些跳躍有機會落地成形。

責任編輯:武曉燕 來源: 大數(shù)據(jù)文摘
相關推薦

2025-06-26 09:00:37

2023-07-31 11:20:18

AI研究

2025-06-26 08:56:59

2022-04-01 15:10:28

機器視覺人工智能目標檢測

2015-11-11 20:23:22

創(chuàng)新

2021-11-15 09:51:58

模型人工智能論文

2023-11-02 12:37:25

訓練數(shù)據(jù)

2024-03-25 10:15:58

AI數(shù)據(jù)

2025-06-20 09:14:00

2025-05-21 13:53:49

模型生成AI

2025-03-24 09:08:00

2021-05-25 09:16:26

數(shù)字化

2022-05-31 10:34:04

研究訓練模型

2021-11-26 18:45:22

AI 數(shù)據(jù)人工智能

2025-06-13 08:53:00

2018-07-26 18:09:33

華為頒獎Polar碼之父

2023-12-08 14:14:00

模型訓練

2023-03-10 13:05:17

AI就職

2025-03-17 08:20:00

神經(jīng)網(wǎng)絡AI模型

2025-04-17 08:45:04

點贊
收藏

51CTO技術棧公眾號