偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

小扎下血本!Meta專為元宇宙搞了個(gè)AI模型

人工智能 新聞
專門為元宇宙打造的AI框架,是什么樣子的?

?人工智能將成為虛擬世界的支柱。

人工智能在元宇宙中可與多種相關(guān)技術(shù)結(jié)合,如計(jì)算機(jī)視覺、自然語言處理、區(qū)塊鏈和數(shù)字雙胞胎。 

圖片

2月,扎克伯格在該公司的第一個(gè)虛擬活動(dòng)——Inside The Lab中展示了元宇宙的樣子。他說,該公司正在開發(fā)一系列新的生成式AI模型,用戶只需通過描述就可以生成自己的虛擬現(xiàn)實(shí)化身。 

扎克伯格宣布了一系列即將推出的項(xiàng)目,例如CAIRaoke項(xiàng)目,一項(xiàng)用于構(gòu)建設(shè)備語音助手的完全端到端的神經(jīng)模型,可幫助用戶更自然地與語音助手進(jìn)行交流。 同時(shí),Meta正努力構(gòu)建一個(gè)通用語音翻譯器,可為所有語言提供直接的語音到語音翻譯。 

幾個(gè)月后,Meta兌現(xiàn)了他們的承諾。 然而,Meta并不是唯一一家在游戲中擁有皮膚的科技公司。英偉達(dá)等公司也發(fā)布了其自主研發(fā)的AI模型以提供更豐富的元宇宙體驗(yàn)。 

圖片

開源預(yù)訓(xùn)練Transformer(OPT-1750億參數(shù)) 

GAN verse 3D  

GANverse 3D由英偉達(dá)AI Research開發(fā),是一種使用深度學(xué)習(xí)將2D圖像處理成3D動(dòng)畫版本的模型,去年的ICLR和CVPR上發(fā)表的一篇研究論文中介紹了該工具,它可以用更低的成本更快地生成模擬。 

該模型使用StyleGAN可自動(dòng)從單個(gè)圖像生成多個(gè)視圖。該應(yīng)用程序可以作為NVIDIA Omniverse的擴(kuò)展導(dǎo)入,以在虛擬世界中準(zhǔn)確地渲染3D對象。 英偉達(dá)推出的Omniverse可幫助用戶在虛擬環(huán)境中創(chuàng)建他們最終想法的模擬。 

3D模型的制作已成為構(gòu)建元宇宙的關(guān)鍵因素。耐克和Forever21等零售商已經(jīng)在元宇宙建立了他們的虛擬商店,以推動(dòng)電子商務(wù)銷售。

視覺聲學(xué)匹配模型(AViTAR) 

圖片?

Meta的現(xiàn)實(shí)實(shí)驗(yàn)室團(tuán)隊(duì)與德克薩斯大學(xué)合作,建立了一個(gè)人工智能模型,以改善元空間的聲音質(zhì)量。該模型幫助匹配場景中的音頻和視頻。它對音頻片段進(jìn)行轉(zhuǎn)換,使其聽起來像是在特定環(huán)境中錄制的。該模型在從隨機(jī)的在線視頻中提取數(shù)據(jù)后使用了自我監(jiān)督學(xué)習(xí)。 理想情況下,用戶應(yīng)該能夠在他們的AR眼鏡上觀看他們最喜歡的記憶,并聆聽實(shí)際體驗(yàn)中產(chǎn)生的確切聲音。

Meta AI發(fā)布了AViTAR的開源,同時(shí)還發(fā)布了其他兩個(gè)聲學(xué)模型,考慮到聲音是metaverse體驗(yàn)中經(jīng)常被忽視的部分,這是非常罕見的。

視覺影響的減震(VIDA)

Meta AI發(fā)布的第二個(gè)聲學(xué)模型被用來去除聲學(xué)中的混響。

圖片

該模型是在一個(gè)大規(guī)模的數(shù)據(jù)集上訓(xùn)練出來的,該數(shù)據(jù)集有各種來自家庭三維模型的真實(shí)音頻渲染?;祉懖粌H降低了音頻的質(zhì)量,使其難以理解,而且還提高了自動(dòng)語音識別的準(zhǔn)確性。

 圖片?

VIDA的獨(dú)特之處在于,它在使用視覺線索的同時(shí)也使用音頻方式進(jìn)行觀察。在典型的僅有音頻的方法的基礎(chǔ)上進(jìn)行改進(jìn),VIDA可以增強(qiáng)語音,并識別語音和說話者。

視覺語音(VisualVoice)

Meta AI發(fā)布的第三個(gè)聲學(xué)模型VisualVoice可以從視頻中提取語音。與VIDA一樣,VisualVoice也是根據(jù)未標(biāo)記的視頻中的視聽線索進(jìn)行訓(xùn)練。該模型已經(jīng)自動(dòng)分離了語音。

 這個(gè)模型有重要的應(yīng)用場景,如為聽障人士制作技術(shù),增強(qiáng)可穿戴AR設(shè)備的聲音,從環(huán)境嘈雜的在線視頻中轉(zhuǎn)錄語音等。

Audio2Face

去年,英偉達(dá)發(fā)布了Omniverse Audio2Face的開放測試版,以生成人工智能驅(qū)動(dòng)的面部動(dòng)畫,以匹配任何配音。該工具簡化了為游戲和視覺效果制作動(dòng)畫的漫長而繁瑣的過程。該應(yīng)用還允許用戶以多種語言發(fā)出指令。

 圖片

今年年初,英偉達(dá)發(fā)布了該工具的更新,增加了BlendShape Generation等功能,幫助用戶從一個(gè)中性頭像中創(chuàng)建一組blendhapes。此外,還增加了流媒體音頻播放器的功能,允許使用文本到語音應(yīng)用程序的音頻數(shù)據(jù)流。 Audio2Face設(shè)置了一個(gè)3D人物模型,可以用音軌做動(dòng)畫。然后,音頻被送入一個(gè)深度神經(jīng)網(wǎng)絡(luò)。用戶還可以在后期處理中編輯角色,改變角色的表現(xiàn)。?

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2022-12-22 17:46:19

2022-05-24 14:55:21

模型AI開源

2022-02-24 12:46:03

3D元宇宙AI

2022-02-28 14:54:40

FacebookMeta元宇宙

2022-10-26 11:42:18

AI元宇宙

2022-03-23 18:00:34

循環(huán)CPU線程

2022-06-06 11:07:29

ARAI

2023-04-24 08:12:59

2024-09-10 14:50:00

2023-02-03 17:50:29

元宇宙資本

2022-04-24 16:19:24

元宇宙Meta員工

2022-11-10 15:52:50

Meta元宇宙

2022-02-15 16:01:24

AI模型Meta

2022-04-26 23:35:52

元宇宙Meta數(shù)據(jù)隱私

2021-11-05 11:01:47

人工智能元宇宙面部識別

2024-08-07 10:30:00

Meta元宇宙

2022-05-09 10:53:31

虛擬元宇宙

2023-02-13 08:01:56

2021-11-22 17:47:21

模型人工智能深度學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號