杭電小哥搶先搞定GPT讀圖功能,單卡就能實(shí)現(xiàn)新SOTA,代碼已開源
本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
能讀圖的GPT-4震撼發(fā)布了!但要用它還得排隊(duì)。。。
不如先試試這個(gè)~
加上一個(gè)小模型,就能讓ChatGPT、GPT-3這類目前只能理解文本的大語言模型輕松讀圖,各種刁鉆的細(xì)節(jié)問題都能手拿把掐。
并且訓(xùn)練這個(gè)小模型單卡(一塊RTX 3090)就能搞定。
效果呢,直接看圖。
比如說,給訓(xùn)練后的GPT-3輸入一張“音樂現(xiàn)場”的圖片,問它:現(xiàn)場在舉辦什么活動(dòng)?
毫不遲疑,GPT-3給出了音樂會(huì)的答案。
再來加點(diǎn)難度,再給GPT-3醬紫的一張照片,讓它來分辨照片中的簾子是什么類型的材質(zhì)。
GPT-3:蕾絲。
Bingo!(看來是有點(diǎn)兒東西在身上的)
這個(gè)方法呢,是杭州電子科技大學(xué)和合肥工業(yè)大學(xué)的一個(gè)團(tuán)隊(duì)的最新成果:Prophet,半年前他們就已經(jīng)著手進(jìn)行這項(xiàng)工作。
論文一作是杭電研究生邵鎮(zhèn)煒,他在1歲那年被診斷患有“進(jìn)行性脊肌萎縮癥”,高考時(shí)遺憾與浙大擦肩,選擇了離家近的杭州電子科技大學(xué)。
目前該論文已經(jīng)被CVPR2023接收。
跨模態(tài)任務(wù)上達(dá)到新SOTA
話不多說,直接來看在Prophet這種方法的加持下GPT-3的讀圖能力。
我們先來看看它在數(shù)據(jù)集上的測試結(jié)果。
研究團(tuán)隊(duì)在兩個(gè)基于外部知識(shí)的視覺問答數(shù)據(jù)集OK-VQA和A-OKVQA測試了Prophet,均創(chuàng)造了新SOTA。
更具體點(diǎn),在OK-VQA數(shù)據(jù)集上,和Deepmind的擁有80B參數(shù)的大模型Flamingo對比,Prophet達(dá)到了61.1%的準(zhǔn)確率,成功擊敗Flamingo(57.8%)。
并且在所需要的算力資源上,Prophet也是“吊打”Flamingo。
Flamingo-80B需要在1536塊TPUv4顯卡上訓(xùn)練15天,而Prophet只需要一塊RTX-3090顯卡訓(xùn)練VQA模型4天,再調(diào)用一定次數(shù)的OpenAI API即可。
其實(shí),類似Prophet這種幫助GPT-3處理跨模態(tài)任務(wù)的方法之前也有,比如說PICa,以及之后的KAT和REVIVE。
不過它們在一些細(xì)節(jié)問題的處理中,可能就不盡如人意。
舉個(gè)栗子,讓它們一起讀下面這張圖,然后回答問題:圖片中的樹會(huì)結(jié)什么水果?
而PICa、KAT和REVIVE從圖片中提取到的信息只有:一群人在廣場上走路,完全忽略掉了后面還有一顆椰子樹。最終給出的答案也只能靠瞎猜。
而Prophet這邊,就不會(huì)出現(xiàn)這種情況,它解決了上述方法提取圖片信息不充分的問題,進(jìn)一步激發(fā)了GPT-3的潛能。
那Prophet是怎么做的呢?
小模型+大模型
有效提取信息,并準(zhǔn)確回答問題,能做到這些Prophet依賴的是它獨(dú)特的兩階段框架。
這兩個(gè)階段也分工明確:
- 第一階段:根據(jù)問題給出一些具有啟發(fā)性的答案;
- 第二階段:這些答案會(huì)縮一些范圍,使GPT-3有充分的空間發(fā)揮潛能。
首先是第一階段,研究團(tuán)隊(duì)針對特定的外部知識(shí)VQA數(shù)據(jù)集訓(xùn)練了一個(gè)改進(jìn)的MCAN模型(一個(gè)VQA模型)。
訓(xùn)練好模型后,從中提取兩種具有啟發(fā)性的答案:答案候選和答案感知示例。
其中,答案候選是以模型分類層輸出的置信度為依據(jù)對答案進(jìn)行排序,選取里面的top10。
答案感知示例時(shí)指,將模型分類層之前的特征作為樣本的潛在答案特征,這個(gè)特征空間中最相近的標(biāo)注樣本。
接下來就是第二階段,這一步相對來說就很簡單粗暴了。
講上一步得到的“啟發(fā)性答案”組織到prompt中,然后再將prompt輸入給GPT-3,在一定的提示之下完成視覺問答問題。
不過雖然上一步已經(jīng)給出一些答案提示,但這并不意味著GPT-3就要局限在這些答案中。
若提示給出的答案置信度太低或者正確答案并不在那些提示中,GPT-3完全完全有可能生成新的答案。
研究團(tuán)隊(duì)
當(dāng)然,除了研究成果外,這項(xiàng)研究背后的團(tuán)隊(duì)也不得不提。
第一作者邵鎮(zhèn)煒在1歲時(shí)就確診“進(jìn)行性脊肌萎縮癥”,是肢體一級殘疾,沒有生活自理能力,生活和學(xué)習(xí)需要母親的全程照顧。
不過雖然身體受限,但邵鎮(zhèn)煒對知識(shí)的渴求并沒有減弱。
2017年高考他拿下644分的高分,以第一名的成績被杭州電子科技大學(xué)計(jì)算機(jī)專業(yè)錄取。
期間還獲得2018年中國大學(xué)生自強(qiáng)之星、2020年度國家獎(jiǎng)學(xué)金和2021年度浙江省優(yōu)秀畢業(yè)生等榮譽(yù)。
本科期間,邵鎮(zhèn)煒就已經(jīng)開始跟著余宙教授進(jìn)行科研活動(dòng)。
2021年,邵鎮(zhèn)煒在準(zhǔn)備研究生推免時(shí)與浙大擦肩,于是留校加入了余宙教授課題組攻讀碩士研究生,目前他在讀研二,研究方向是跨模態(tài)學(xué)習(xí)。
余宙教授則是本次研究論文的二作以及通訊作者,他是杭電計(jì)算機(jī)學(xué)院最年輕的教授,教育部“復(fù)雜系統(tǒng)建模與仿真”實(shí)驗(yàn)室副主任。
長期以來,余宙專攻多模態(tài)智能方向,曾帶領(lǐng)研究團(tuán)隊(duì)多次獲得國際視覺問答挑戰(zhàn)賽VQA Challenge的冠亞軍。
研究團(tuán)隊(duì)的大部分成員都在杭電媒體智能實(shí)驗(yàn)室(MIL)。
該實(shí)驗(yàn)室由國家杰青俞俊教授負(fù)責(zé),近年來實(shí)驗(yàn)室圍繞多模態(tài)學(xué)習(xí)方向發(fā)表一系列高水平期刊會(huì)議論文(TPAMI、IJCV、CVPR等),多次獲得IEEE期刊會(huì)議的最佳論文獎(jiǎng)。
實(shí)驗(yàn)室主持國家重點(diǎn)研發(fā)計(jì)劃、國家自然科學(xué)基金重點(diǎn)項(xiàng)目等國家級項(xiàng)目20余項(xiàng),曾獲得過浙江省自然科學(xué)一等獎(jiǎng),教育自然科學(xué)二等獎(jiǎng)。