偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

新聞 人工智能
別再怕圖片搜索結果牛頭不對馬嘴了,你可以試試這個精準圖片搜索,來自OpenAI最新的技術CLIP。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。

 別再怕圖片搜索結果牛頭不對馬嘴了,你可以試試這個精準圖片搜索,來自OpenAI最新的技術CLIP。

只需一句“大白話”描述,便能給出想要的圖片。

例如輸入:

The word love written on the wall

就會得到這樣的結果:

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

可以說是相當?shù)?strong>精準了!這就是今天在Reddit上爆火的一個項目。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

這個項目利用到的,便是OpenAI前不久頻頻刷屏的DALL·E中的核心模塊——CLIP,一個負責重排序(rerank)的模型。

這個項目使用谷歌Colab Notebook,而且在線、免費,包含200萬圖片數(shù)據(jù)集,最重要的是效果還非常的精準。

不禁引得網友直呼“Amazing”。

簡單幾步,“大白話”在線精準搜圖

這個項目之所以如此火爆,操作簡單是很重要的一個原因之一。

首先要做的,就是點開該項目在Colab Notebook中的地址(見文末鏈接),登陸自己的賬號。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

至于環(huán)境配置、包或庫的調用,這個項目非常貼心的已經做好了,只需要依次點擊cell左側的小三角,等待運行完成即可。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

最后,來到包含如下代碼的cell:

search_query = “Two dogs playing in the snow”

點擊運行這個cell,便可得到搜索圖片的結果,例如:

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人
用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

當然,這個程序似乎很懂人,若是輸入“當你的代碼跑通時的情緒”:

The feeling when your program finally works

得到的結果,和正常人想象中的應該是一致的:

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人
用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

為什么CLIP搜圖能如此精準?

OpenAI前不久推出的DALL·E,主要能實現(xiàn)的功能就是 可以按照文字描述、生成對應圖片。

而其呈現(xiàn)給我們的最終作品,其實是它生成大量圖片中的一部分。

在中間過程中,其實也有排名、打分的帥選過程。

這部分的任務,便是由CLIP來完成:

越是它看得懂、匹配度最高的作品,分數(shù)就會越高,排名也會越靠前。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

這種結構,有點像是利用生成對抗文本,以合成圖像的GAN。

不過,相比于利用GAN擴大圖像分辨率、匹配圖像-文本特征等方法,CLIP則選擇了直接對輸出進行排名。

據(jù)研究人員表示,CLIP網絡的最大意義在于,它緩解了深度學習在視覺任務中,最大的兩個問題。

首先,它降低了深度學習需要的數(shù)據(jù)標注量。

相比于手動在ImageNet上,用文字描述1400萬張圖像,CLIP直接從網上已有的“文字描述圖像”數(shù)據(jù)中進行學習。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

此外,CLIP還能“身兼多職”,在各種數(shù)據(jù)集上的表現(xiàn)都很好(包括沒見過的數(shù)據(jù)集)。

但此前的大部分視覺神經網絡,只能在訓練的數(shù)據(jù)集上有不錯的表現(xiàn)。

例如,CLIP與ResNet101相比,在各項數(shù)據(jù)集上都有不錯的檢測精度,然而ResNet101在除了ImageNet以外的檢測精度上,表現(xiàn)都不太好。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

具體來說,CLIP用到了零樣本學習(zero-shot learning)、自然語言理解和多模態(tài)學習等技術,來完成圖像的理解。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

例如,描述一只斑馬,可以用“馬的輪廓+虎的皮毛+熊貓的黑白”。這樣,網絡就能從沒見過的數(shù)據(jù)中,找出“斑馬”的圖像。

最后,CLIP將文本和圖像理解結合起來,預測哪些圖像,與數(shù)據(jù)集中的哪些文本能完成最好的配對。

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

網友:機器人(bot)可能不太高興

在驚嘆CLIP用“大白話”搜索圖片效果之余,一位Reddit網友還發(fā)現(xiàn)了一個比較有意思的搜索結果。

他在文本描述的代碼部分輸入:

What image best represents how you feel right now?

這句話在我們人類眼中,應當是詢問AI的語氣了,然后出來的圖片結果是這樣的:

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

還有這樣的:

用“大白話”精準搜圖,OpenAI的CLIP驚艷了所有人

嗯,看來是被“玩多了”,AI寶寶有點小脾氣了。

參考鏈接:
https://www.reddit.com/r/MachineLearning/comments/l52qe6/p_use_natural_language_queries_to_search_2/

項目地址:
https://colab.research.google.com/github/haltakov/natural-language-image-search/blob/main/colab/unsplash-image-search.ipynb#scrollTo=OswqrzaeMy1J

 

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-05-16 19:53:15

Pythongif動圖

2022-08-11 11:20:49

Python詞云圖

2020-02-04 15:00:25

大白話認識JVM

2020-12-04 06:40:46

Zookeeper選舉機制

2023-12-26 18:22:05

RocketMQ延遲消息

2021-03-01 18:38:32

Mock測試軟件

2024-04-24 12:41:10

Rust安全性內存

2024-03-25 09:03:07

Redis開源開發(fā)

2020-02-20 11:32:09

Kafka概念問題

2024-12-09 08:18:33

2019-05-17 08:27:23

SQL注入漏洞攻擊

2018-11-19 08:34:22

Hadoop架構HDFS

2020-11-10 16:00:55

機器學習人工智能AI

2019-04-15 13:39:10

容器開發(fā)Docker

2020-12-11 14:02:58

機器學習分類算法回歸算法

2013-08-27 13:59:05

微軟鮑爾默

2025-05-22 02:20:00

2020-06-11 10:45:58

數(shù)據(jù)算法架構

2021-03-31 13:45:59

CPU運維命令

2019-08-14 09:13:38

中臺互聯(lián)網業(yè)務
點贊
收藏

51CTO技術棧公眾號