偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

剛剛,谷歌ViT核心骨干集體投奔OpenAI:他們?yōu)镾ora打下基礎(chǔ)

新聞
ViT三大核心作者集體離職谷歌DeepMind。下一站:OpenAI!他們分別是翟曉華(Xiaohua Zhai)、盧卡斯·拜爾(Lucas Beyer)、亞歷山大·科列斯尼科夫(Alexander Kolesnikov)。

爆炸消息——

ViT三大核心作者集體離職谷歌DeepMind。下一站:OpenAI!

他們分別是翟曉華(Xiaohua Zhai)、盧卡斯·拜爾(Lucas Beyer)、亞歷山大·科列斯尼科夫(Alexander Kolesnikov)。

相關(guān)消息已被本人證實(shí),三人均官宣了新動(dòng)向。

圖片
圖片
圖片

2021年,他們?nèi)俗鳛楣餐蛔鞯挠?jì)算機(jī)視覺領(lǐng)域神作ViT發(fā)布即刷新ImageNet最高分。

這項(xiàng)研究證實(shí)了CNN在CV領(lǐng)域不是必需的,Transformer從NLP跨界,一樣可以取得先進(jìn)效果。開創(chuàng)了Transformer在CV領(lǐng)域應(yīng)用的先河。

目前這篇論文被引用量已超過4.9萬(wàn)。

圖片

此外,他們還共同提出了SigLIP、PaliGamma等SOTA級(jí)工作。

幾周后,他們將正式加入OpenAI蘇黎世實(shí)驗(yàn)室。

值得一提的是,Wired方面消息稱,三人是被OpenAI挖走的。

網(wǎng)友評(píng)論:能撬動(dòng)這一“鐵三角”黃金組合,OpenAI真的太幸運(yùn)了。

圖片

ViT三大核心作者投奔OpenAI

Xiaohua Zhai(翟曉華)

此前他是Google DeepMind 的高級(jí)研究員,領(lǐng)導(dǎo)著蘇黎世一個(gè)多模態(tài)研究小組。重點(diǎn)研究多模態(tài)數(shù)據(jù)(WebLI)、開放權(quán)重模型 ( SigLIP、PaliGemma )以及文化包容性。

目前谷歌學(xué)術(shù)引用數(shù)超六萬(wàn)多。

圖片

2014年他畢業(yè)于北京大學(xué),獲得計(jì)算機(jī)系博士學(xué)位;本科畢業(yè)于南京大學(xué)。一畢業(yè)就前往谷歌蘇黎世工作。

圖片

Lucas Beyer

這位同樣也是谷歌DeepMind蘇黎世小組的一位成員,共同領(lǐng)導(dǎo)著DeepMind的多模態(tài)研究團(tuán)隊(duì)和基礎(chǔ)設(shè)施。

目前已經(jīng)撰寫超50篇論文,被CVPR、NeurIPS、ICCV 等這些頂級(jí)會(huì)議接收。

圖片

據(jù)他個(gè)人官網(wǎng)中介紹,他在比利時(shí)長(zhǎng)大,曾夢(mèng)想制作電子游戲以及從事AI研究。自我認(rèn)定為「自學(xué)成才的黑客和研究科學(xué)家,致力于創(chuàng)造飛凡實(shí)物」。

他在德國(guó)亞琛工業(yè)大學(xué)學(xué)習(xí)機(jī)械工程,并在那里獲得了機(jī)器人感知和計(jì)算機(jī)視覺博士學(xué)位。2018年加入谷歌。

圖片

Alexander Kolesnikov

2018年以來,他就在谷歌大腦,現(xiàn)為DeepMind團(tuán)隊(duì)工作。之前主要成就包括訓(xùn)練SOTA視覺模型*(從2019年到2021年都實(shí)現(xiàn)了ImageNet SOTA);開放權(quán)重模型(SigLIP和PaliGemma),以及神經(jīng)架構(gòu)方面的工作:BiT、ViT、MLP-Mixer和FlexiViT。

除此之外,編寫靈活、高性能的研究基礎(chǔ)設(shè)施,尤其是Jax。

此前,他在奧地利科學(xué)技術(shù)研究所(ISTA)攻讀博士學(xué)位,研究方向是弱監(jiān)督學(xué)習(xí)和圖像生成模型。

圖片

曾是谷歌CV的“黃金鐵三角”

在谷歌任職期間,三人多次合作并帶來了影響領(lǐng)域發(fā)展的重要工作。

其中最重要的一篇莫過于ViT。

這篇研究驗(yàn)證了Transformer架構(gòu)在計(jì)算機(jī)視覺領(lǐng)域的通用性。在它的基礎(chǔ)上衍生出了Swin Transformer、DeiT(Data-efficient Image Transformers)等。

它創(chuàng)新性提出將圖像分割成固定大小的塊(patches),并將每個(gè)塊視為一個(gè)序列元素,與NLP中的單詞類似。然后,這些塊通過變換器進(jìn)行處理。

圖片

在許多視覺任務(wù)中,ViT在性能上超過了傳統(tǒng)的CNN模型,尤其是在大規(guī)模數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí)表現(xiàn)尤為突出。例如,在ImageNet分類任務(wù)中,ViT取得了與最先進(jìn)的CNN模型相當(dāng)甚至更好的結(jié)果。

圖片

此外他們還合作推出了MLP-Mixer、BiT(CV界的BERT)等領(lǐng)域內(nèi)知名工作。

參考鏈接:
[1]https://www.wired.com/story/openai-hires-deepmind-zurich/。

[2]https://kolesnikov.ch/。
[3]https://sites.google.com/view/xzhai。
[4]https://lucasb.eyer.be/。

責(zé)任編輯:姜華 來源: 量子位
相關(guān)推薦

2024-12-10 09:56:00

2024-12-18 07:15:00

2024-10-05 11:03:10

2024-12-05 08:30:00

2025-05-08 16:40:27

OpenAICEOFacebook

2024-05-07 13:30:00

數(shù)據(jù)訓(xùn)練

2025-04-27 00:00:25

ClaudeOpenAIGPT

2024-02-19 09:10:46

OpenAISora功能

2024-06-20 13:44:48

OpenAIV2A模型

2024-07-26 08:22:41

2024-12-12 17:23:09

服務(wù)中斷宕機(jī)

2009-09-05 10:22:03

Linux 5.4企業(yè)虛擬化解決方案

2024-05-06 08:29:03

人工智能OpenAISora

2024-02-21 23:11:19

2025-03-05 11:23:44

2025-01-07 11:22:15

2010-04-15 10:23:53

2024-09-03 14:51:02

2025-06-26 15:07:54

OpenAIMeta模型

2024-12-20 12:30:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)