60秒內(nèi)即可生成5秒AI視頻,豆包視頻生成模型Seaweed上線即夢(mèng)AI
11月8日,字節(jié)跳動(dòng)旗下的AI內(nèi)容平臺(tái)即夢(mèng)AI宣布,即日起,由字節(jié)跳動(dòng)自研的視頻生成模型Seaweed面向平臺(tái)用戶正式開(kāi)放。用戶登陸后,在“視頻生成”功能下,視頻模型選擇“視頻S2.0”即可體驗(yàn)。
圖說(shuō):即夢(mèng)AI PC端和App端模型使用入口
9月底,字節(jié)跳動(dòng)正式宣布向AI視頻領(lǐng)域進(jìn)軍,發(fā)布豆包模型家族的兩款視頻生成模型Seaweed和Pixeldance,并通過(guò)即夢(mèng)AI、火山引擎分別面向創(chuàng)作者和企業(yè)客戶小范圍邀測(cè)。據(jù)介紹,經(jīng)過(guò)剪映、即夢(mèng)AI等業(yè)務(wù)場(chǎng)景打磨和持續(xù)迭代,豆包視頻生成模型具備專業(yè)級(jí)光影布局及色彩調(diào)和,畫面視覺(jué)極具美感和真實(shí)感?;贒iT架構(gòu),豆包視頻生成模型還能實(shí)現(xiàn)大幅度運(yùn)動(dòng)畫面流暢自然。
值得一提的是,本次開(kāi)放使用的豆包視頻生成模型Seaweed是該款模型的標(biāo)準(zhǔn)版,除具備上述能力,在生成效率方面有較為明顯的優(yōu)勢(shì)。測(cè)試顯示,該模型僅需60s就能生成時(shí)長(zhǎng)5s的高質(zhì)量AI視頻,大幅領(lǐng)先于國(guó)內(nèi)業(yè)界3-5分鐘的前沿水平。
即夢(mèng)AI官方透露,近期,Seaweed和Pixeldance兩款視頻生成模型的Pro版也將開(kāi)放使用。Pro版模型能實(shí)現(xiàn)自然連貫的多拍動(dòng)作與多主體復(fù)雜交互,攻克了多鏡頭切換的一致性難題,在鏡頭切換時(shí)可同時(shí)保持主體、風(fēng)格、氛圍的一致性,適配電影、電視、電腦、手機(jī)等各種設(shè)備的比例,可以更好地服務(wù)于專業(yè)創(chuàng)作者和藝術(shù)家們,應(yīng)用于設(shè)計(jì)、影視、動(dòng)畫等內(nèi)容場(chǎng)景,助力想象力的實(shí)現(xiàn)和故事創(chuàng)作。
即夢(mèng)AI支持通過(guò)自然語(yǔ)言及圖片輸入,生成高質(zhì)量的圖像及視頻。平臺(tái)提供智能畫布、故事創(chuàng)作模式、以及首尾幀、對(duì)口型、運(yùn)鏡控制、速度控制等AI編輯能力,并有海量影像靈感及興趣社區(qū),一站式提供用戶創(chuàng)意靈感、流暢工作流、社區(qū)交互等資源,為用戶的創(chuàng)作提效。
平臺(tái)相關(guān)負(fù)責(zé)人表示,AI能夠和創(chuàng)作者深度互動(dòng),共同創(chuàng)作,帶來(lái)很多驚喜和啟發(fā),通過(guò)開(kāi)放豆包視頻生成模型的使用和持續(xù)升級(jí)平臺(tái)各項(xiàng)AI能力,即夢(mèng)AI希望成為用戶最親密和有智慧的創(chuàng)作伙伴。