全球計算機視覺頂會ICCV 2025揭榜,CreateAI兩篇論文入選
CreateAI(OTC:TSPH)今日宣布,公司兩篇研究論文《LayerAnimate: Layer-level Control for Animation》(論文鏈接:https://arxiv.org/abs/2501.08295)和《CycleVAR: Repurposing Autoregressive Model for Unsupervised One-StepImage Translation》(論文鏈接:https://arxiv.org/abs/2506.23347)獲第二十屆國際計算機視覺大會(ICCV 2025)收錄。
此次入選的2篇論文主要聚焦動漫領(lǐng)域的圖像與視頻生成任務(wù),包括擴散模型、自回歸模型、可控生成、無監(jiān)督圖像翻譯等關(guān)鍵技術(shù),提出的創(chuàng)新方法可解決動漫圖層細(xì)粒度控制、非配對圖像生成、無監(jiān)督圖像翻譯等痛點,為行業(yè)研究提供新的思路。
LayerAnimate:突破動畫生成的圖層級控制瓶頸
傳統(tǒng)的AI動畫生成往往以 “幀” 為單位整體處理,忽視了動畫制作中 “圖層” 這一基礎(chǔ)概念,導(dǎo)致無法對畫面元素進(jìn)行精準(zhǔn)操控。CreateAI 提出的LayerAnimate框架首次將 “圖層” 概念引入視頻生成模型,通過兩大創(chuàng)新實現(xiàn)突破:一是自動化圖層數(shù)據(jù)籌備管線,利用 SAM2 等視覺模型完成元素分割與運動聚類合并,解決圖層數(shù)據(jù)稀缺問題;二是圖層感知生成框架,支持用戶對角色、背景、特效等不同圖層施加草圖、軌跡、運動分?jǐn)?shù)等差異化控制信號,實現(xiàn)細(xì)粒度復(fù)合控制動畫生成。
圖注:LayerAnimate框架流程圖
CycleVAR:無監(jiān)督場景下的高效風(fēng)格化革命
針對傳統(tǒng)AI風(fēng)格化依賴成對數(shù)據(jù)、生成效率低的痛點,CycleVAR創(chuàng)新性地將自回歸模型應(yīng)用于無監(jiān)督動漫風(fēng)格轉(zhuǎn)換。其核心突破在于:通過可微分軟量化機制(SRQ)攻克無監(jiān)督訓(xùn)練中梯度傳遞失效的行業(yè)難題,同時借鑒大語言模型的“提示”思想,將輸入照片作為視覺提示引導(dǎo)自回歸模型一步生成目標(biāo)風(fēng)格圖像。實驗顯示,該框架可高效將真實照片轉(zhuǎn)化為高質(zhì)量動漫風(fēng)格圖像,并在用戶研究中獲得了積極評價。CycleVAR為動畫美術(shù)制作提供了一種全新的高效輔助工具,有望將繁瑣的風(fēng)格化過程變得簡單快捷,幫助創(chuàng)作者釋放更多創(chuàng)意。
圖注:CycleVAR框架流程圖
"論文入選是對CreateAI技術(shù)創(chuàng)新力的重要肯定!”CreateAI首席執(zhí)行官呂程表示,“我們始終堅信AI的價值在于解決實際創(chuàng)作難題。LayerAnimate與CycleVAR的技術(shù)突破,本質(zhì)是為動漫產(chǎn)業(yè)提供‘精準(zhǔn)控制’與‘高效轉(zhuǎn)換’的雙重工具?!?/p>
以上成果與CreateAI構(gòu)建“動畫創(chuàng)作技術(shù)-工具-內(nèi)容生態(tài)系統(tǒng)“的戰(zhàn)略高度契合。公司已通過“Ruyi”圖生視頻大模型及全球首個動漫專屬AI視頻生成平臺Animon.ai展現(xiàn)市場領(lǐng)導(dǎo)力——Animon.ai(https://www.animon.ai/)可實現(xiàn) “文字-圖像-視頻”全流程創(chuàng)作提效,現(xiàn)邀廣大創(chuàng)作者登錄平臺,體驗專業(yè)級AI動漫生成,見證技術(shù)驅(qū)動的創(chuàng)作革新。
ICCV是與CVPR、ECCV齊名的計算機視覺頂會之一,素有"錄用率嚴(yán)苛"之稱。此次論文在ICCV 2025獲得收錄,進(jìn)一步強化CreateAI作為生成式AI技術(shù)與計算機視覺研究領(lǐng)域創(chuàng)新引領(lǐng)者的地位。據(jù)大會官方公布,ICCV 2025共收到11239份有效投稿,最終錄用2698篇,錄用率24%,會議將于10月19日至23日在夏威夷檀香山舉辦。