?

AIGC 技術創建三維數字內容的研究進展及應用淺析

2024-03-13 08:12龔雨楠薄一航
現代電影技術 2024年2期
關鍵詞:紋理形狀數字

龔雨楠 薄一航

北京電影學院美術學院,北京 100088

1 引言

電影和技術的發展息息相關,從黑白電影到彩色電影,無聲電影到有聲電影,再到現如今的數字電影時代,不斷提升的視聽技術使電影擁有更多的細節,更具沉浸性,為觀眾提供極佳的視聽體驗。視效技術將創作者的想象力進行視覺化呈現,為觀眾帶來了豐富的視覺體驗,其中三維數字技術在電影制作中起到了越來越重要的作用。三維技術可以拓展電影呈現的場景空間,展現生動的計算機圖形學(CG)角色,其應用不僅僅局限于后期提升最終成片的視覺效果,還可以應用在前期籌備過程和拍攝過程中的預覽,使創作人員能夠更加準確地把握創作效果。

與圖像內容相比,三維數字內容的創作流程更長,創作難度和成本相對更高。在人工智能生成內容(Artificial Intelligence Generated Content,AIGC)技術迅猛發展的背景下,如何利用相關技術輔助三維數字內容創作,是一個值得探討的問題。AIGC 技術并不特指某種技術,而是綜合多種不同人工智能生成技術,涉及不同的計算機研究領域和其他學科的交叉融合,包括但不限于自然語言處理(NLP)、計算機視覺(CV)、計算機圖形學(CG)等。近兩年陸續有面向公眾的AIGC 類型產品發布,如文本生成大模型ChatGPT、文生圖類型應用Midjourney 和Stable Diffusion 等,這些產品不僅可以實現對圖像或文本等信息的理解與判別,還可以根據要求生成新的內容,甚至可以根據給定要求完成一系列任務,可以讓大眾真正通過使用人工智能技術提高工作效能。

本文將圍繞影視中的三維數字內容創作,闡述影視制作流程中對三維數字內容的需求,探討在AIGC 技術飛速發展的背景下,由文本生成3D 技術在三維創作中的實際落地應用,如何降低繁瑣的重復性工作以及提升影視制作效率,釋放創作者的想象力。

2 電影對三維數字內容的需求

在數字電影制作流程中,尤其在需要三維技術輔助的電影中,需要利用多種CG 模型、角色來實現最終的成片效果,其中三維數字內容包含了模型資產、材質資產、動畫資產等。三維數字內容通常由創作人員在計算機上利用三維建模軟件進行建模而得到,傳統創建流程包括設計、建模、展UV、UV 貼圖繪制,最終導入渲染引擎進行渲染和導出,對于人物角色等需要動畫的模型,還需要進行骨骼綁定、蒙皮權重調整等操作。除傳統建模方法外,還可以通過激光掃描進行三維重建,通常應用于微縮模型的數字化或者對已有現實大場景的還原。相較于游戲行業中對三維模型高精度、優性能的要求,電影中所需的三維模型在不同應用場景中對應了不同需求,并非在任意場景都要求滿足這兩個要求,因此在創建方法的選擇上更靈活,可以嘗試選用多種技術結合的方式,提高創作效率,提升創作質量。

電影對三維數字內容的需求可以從兩個不同的應用場景進行分析:前期視覺預演與后期視效制作。以下將通過對不同應用場景的分析,提出電影攝制流程對三維數字內容的需求。

2.1 前期視覺預演

在影片的前期籌備工作中,分鏡腳本設計是一個重要環節,對現場拍攝和后期制作都具有指導意義。影片的分鏡通常將故事情節內容以鏡頭為單位來劃分,能夠體現出場景與人物的關系、人物調度、鏡頭景別、攝影機運動方式等,實現了從劇本到畫面的初步轉化,加深拍攝團隊對劇本的理解和對拍攝內容的把握,降低不同部門間的溝通成本,為現場拍攝工作減輕壓力。在特效影片中,拍攝團隊需要通過故事板預先確定特效制作方案,避免返工,減少不必要的成本。

隨著CG 技術的快速發展,分鏡不再局限于早期手繪故事板,出現了動態故事板,即如今的動態視覺預演。創作者可以在仿真虛擬場景中,通過設定虛擬攝影機位置制定拍攝方案,直接以短片的方式呈現預覽結果。虛擬三維空間能夠更好地模擬現實場景,提升前期籌備的工作效率,三維視覺化呈現以及虛擬場景中的各項數據可以對現實進行仿真,如場景的大小、各類道具的位置以及虛擬攝影機的各項參數。這些數據在虛擬仿真空間內進行嘗試與調整后,能夠更好地為現場拍攝工作提供參考。圖1為影片《流浪地球2》在前期為多個視效鏡頭制作的動態預覽鏡頭。

圖1 《流浪地球2》預覽與實拍畫面對比[1]

在動態預演過程中,電影制作團隊往往需要豐富的三維數字內容以快速得到相應場景,如特定場景、角色、動畫,在耗費人力成本較小的前提下,短時間內得到盡可能接近預期的結果,為之后的拍攝及后期流程做充分準備。這一環節的三維數字內容并不需要特別精細,但是應該不僅能夠準確反映最后的拍攝效果,如角度、景別、演員與攝影機的調度等,還可以指導后期精細化的道具模型、角色模型創建,是貫穿整個攝制流程的重要參考;且因處于前期環節,實現高效快速的建模與動畫流程占有更高的優先級。

2.2 后期視效制作

在電影后期視效制作流程中,三維數字化技術進一步拓展了電影內容的創作空間,有助于創作者進行藝術表達,無論是對歷史場景的再現,或者是對架空背景奇幻世界的展示,都需要三維數字內容進行輔助。在后期視效中需要運用到的三維數字內容可以簡要劃分為三維角色、三維道具和三維場景??苹妙愋碗娪罢宫F著創作者天馬行空的想象力,以《阿凡達:水之道》為例(圖2),不僅呈現了潘多拉星球獨特且震撼的生態系統,還設計了納美族角色形象。生動的角色表演和精妙的場景設計,往往能夠與電影的敘事相結合,創建出一個更具信服力和沉浸感的世界。

圖2 電影《阿凡達·水之道》截圖[2]

針對后期視效制作所需的三維模型內容,三維數字藝術家應該從電影整體的美術風格出發,在設計階段制定模型的需求和規范,根據實際應用范圍確定該模型的精細程度以及是否需要動畫,并就此對模型的創建進行規劃。如果在影片中有關鍵道具的特寫鏡頭,則需要呈現更加豐富的細節。此外,最終性能也應在設計階段便納入考慮范圍,雖然電影相較于游戲而言對性能的要求并沒有那么高,但是當前為了實現實時預演,提升后期渲染效率,仍然需要準備低面數模型,并在不影響最終視覺效果的情況下,減少模型面數和頂點數量。

針對電影中的CG 人物角色,后期需要利用面部捕捉和動作捕捉實現生動的CG 角色表演。為保證面部動畫的流暢性,需要對模型的布線進行調整,以符合面部肌肉運動方向;為實現自然的角色動作動畫,需要對人物角色模型進行骨骼綁定,并進行蒙皮權重處理,使得骨骼動畫發生變化時,角色模型表面的網格頂點可以根據骨骼進行合理的移動和變形??偠灾?,后期視效制作所需的三維模型不僅需要更高的精細度和細節,還要考慮動畫的可實現性。

3 文本生成三維技術原理及發展現狀

隨著文本生成圖像研究不斷發展進步,文本生成三維(Text-to-3D)成為一個值得關注的課題。與圖像生成方法相比,針對生成三維形狀的深度學習(Deep Learning)更為困難,三維模型相較于二維圖像而言,包含的信息數據量更多且更復雜,對神經網絡(Neural Network)的訓練難度更大。

首先,難度來源于三維模型數據的復雜性。以像素為單位整齊排布的二維圖像為歐幾里得結構數據,節點與鄰居節點之間具有統計上的相關性,更容易被處理與學習;而三維模型數據較為復雜,因此首先需選取合適的表示方式。目前較為主流的三維模型數據表示方式可以劃分為顯式表示和隱式表示,前者包含點云(Point Cloud)、體素網格(Voxels)、多邊形網格(Polygon Mesh),后者則包含符號距離場(Signed Distance Field,SDF)、多視圖表示(Mult-view Data)等。其中基于多視圖表示與體素網格的三維模型數據屬于三維歐幾里得數據,能夠將二維深度學習范式拓展到三維數據;三維非歐幾里得數據的深度學習技術難度更大,需要使用幾何深度學習方法。

其次,三維生成的訓練還面臨數據集不足的難題。Text-to-Image 的模型訓練可以從互聯網獲得海量數據,但是三維內容的訓練數據集規模是遠遠不夠的。隨著針對三維數字內容的研究發展,已有研究團隊創建了相關數據集。ShapeNet 是根據Word-Net 層次組織的三維形狀數據集,但由于其為仿真數據集,外觀與真實世界中的數據分布差距較大,因此得到的訓練結果仍然有差距;數據集Objaverse 包含了通過掃描得到80 萬余標注的三維物體,研究團隊在此基礎上進行了擴展,創建了Objaverse-XL[3],包含一千余萬的三維物體;OmniObject3D 為物體提供了四種模態的信息,包含帶紋理的高精度模型、點云、多視圖渲染圖像以及實景拍攝的環繞視頻。盡管整體數量看上去十分可觀,但是與圖像億級的數量相比,訓練數據集規模仍然非常有限。

目前,隨著對三維生成研究的開展與深入,部分技術方法可以直接由文本生成種類豐富的三維模型。下文將根據發展的時間及不同的技術要點,對已有的Text-to-3D 技術方法進行分類,劃分為初期、中期、中后期。初期階段不直接生成三維形狀,但是可以用文本指導三維模型進行組合,形成一個更復雜的模型或組合成為一個場景;中期階段研究發展探索對不同三維表示的學習,通過編碼器學習文本和三維模型的對應關系,實現跨模態映射,可以利用生成網絡針對部分特定類目生成形狀;中后期,即現階段,則在文生圖技術發展的基礎上,基于CLIP、神經輻射場(Neural Rediance Fileds, NeRF)和Text-to-Image 相關方法實現的Text-to-3D 技術方法。

3.1 根據文本檢索三維模型

在初期階段,文本和三維內容的相關研究包括文本與三維模型間的匹配;三維模型的位置定位,以及在文本與三維生成的文本引導三維模型的組合等。根據給定文本從資產庫中檢索出對應模型,并且組合成一個完整的三維場景,如WordsEye[4]利用解析器對文本進行解析,轉換為依賴結構,再對依賴關系結構進行語義解釋,并轉換為表示三維對象、姿態、空間關系、顏色屬性等的描述器,之后根據描述器重構場景。此類研究中的重點主要在于通過對文本進行解析,準確學習空間中的物體關系,使系統能夠根據給定文本確定所需物體,從資產庫中選擇三維模型,確定不同模型的位置與空間關系,合成一個三維場景。其中三維模型仍然需要人工創建,只是可以使由輸入文本控制三維場景合成及搭建場景的效率得到提高。

Chang 等人[5]提出了可以從三維場景中學習的空間知識表示,通過統計在不同場景中出現的物體及其相對空間位置,實現了從簡潔文本到真實可信場景的生成。Ma 等人[6]針對室內場景陳設,實現了子場景中的文本驅動場景建模,且增強了生成的三維場景的復雜性和現實性(圖3),該生成框架利用語義場景圖表示對幾何與語義信息進行編碼并學習物體間更復雜的關系,用多個文本提示逐步生成需要的場景。

圖3 自然語言驅動合成系統的結構概覽[6]

3.2 針對特定類目的3D 物品生成

隨著生成模型如生成式對抗網絡(GAN)、擴散模型(Diffusion Model)等進一步發展,在利用文本生成具體三維模型的研究中,部分研究方法根據三維數據集,通過對三維模型的點云、體素網格、三角形網格或隱式函數的表示進行學習,將文本特征映射到自動編碼器的特征空間,然后利用隱式解碼器生成三維形狀(圖4)[7][8][9]。

圖4 隱式解碼器結構[9]

Chen 等人[10]提出了文本描述和三維形狀聯合表示的問題,通過學習文本描述和彩色三維形狀的聯合嵌入,利用生成式對抗網絡預測彩色的體素網格,能夠生成三維形狀,但是文本與形狀語義仍然存在差距,生成形狀不夠準確,且在最終的分辨率和紋理上表現不盡如人意。Jahan 等人[11]基于參數化建模的想法將關鍵詞映射到三維形狀的子空間,讓用戶可以通過對子空間的關鍵詞控制形狀生成,該研究通過結合學習以標簽為條件的潛在向量分布的標簽回歸網絡,以及將采樣的潛在向量轉換為三維形狀生成網絡來實現,只能通過關鍵詞生成對應形狀。Liu 等人[12]基于隱式場的三維生成方法,對模型的形狀和顏色特征進行編碼學習,并對輸入文本進行編碼,根據與形狀和顏色特征的對應關系,再通過空間感知解碼器對提取到的特征解碼,生成具有不同形狀和顏色的三維形狀,訓練數據是針對桌子和椅子的類目,可以生成有一定變化的桌椅模型(圖5)。

圖5 文本生成桌椅類目結果[12]

在這一階段的研究中,實現了由文本生成三維形狀。但由于只能生成較少類別的物體,很難實現多樣性的生成結果,難以滿足實際應用中對不同三維模型種類的需求,且由于訓練數據帶來的限制,紋理及貼圖的生成仍然需要進一步完善。

3.3 基于NeRF 和CLIP 的Text-to-3D 的方法

近年來,有幾項技術為現階段的Text-to-3D 方法研究拓展了新的方向。

NeRF[13]利用神經網絡從稀疏的多視角二維視圖中學習連續的三維場景表示,生成任意新視角的渲染視圖。其基本原理為將三維場景表示為連續5D 函數,并可以使用多層感知器(Multi-layer Perceptrons, MLPs)表現此映射,從空間位置和觀看方向得到該位置的體積密度和發射輻射量,之后進行體渲染(Volume Rendering),最終對得到的值進行合成,得到新視角的圖像。NeRF 成為了三維重建和生成的新范式,在三維重建領域有著巨大影響。

Text-to-Image 方法已經有了較為成熟的解決方案,可以結合對比文本-圖像預訓練模型(Contrastive Language-Image Pre-training, CLIP)對齊多模態的語義信息,基于自回歸模型或擴散模型生成多樣化的符合文本語義的圖像。由文本生成圖像的研究有了非常優秀的結果,研究團隊開始關注利用Text-to-Image 的相關技術輔助文本生成三維物體?;贑LIP和Text-to-Image 方法的研究減少了訓練集不足帶來的限制,且在語義關系對齊上有了更好的效果。作為輸入條件,文本會讓生成物體的形狀、顏色、風格更具創造性和多樣性。

由于匹配三維模型的文本數量較少,Jain 等人[14]提出了利用CLIP 來生成三維物體且不需要三維數據監督(圖6),利用NeRF,根據給定的文字描述與在正則化器指導下對物體的顏色和幾何體形狀進行學習,通過CLIP 對隨機角度渲染得到的物體圖像進行評分,來對齊三維模型與文字語義的關系。

圖6 Dream Fields 的結構[14]

DreamFusion[15]在Dream Fields 的基礎上進行了改進,采用從文本到圖像的模型,對不同角度渲染出的圖像進行擴散渲染,并用條件圖像模型進行重建渲染,預測注入的噪聲,使得生成結果更加具有保真性。Magic3D[16]由一個從粗到細的策略租場,利用低分辨率和高分辨率的擴散先驗來學習目標內容的三維表示。相比DreamFusion 而言,Magic3D 能夠生成更高分辨率的三維模型,在生成效率上也優于DreamFusion。Magic3D 可以給定一個使用文本提示生成的粗糙模型,再通過修改提示中的部分文本,從而基于原本輸入微調生成的三維模型。之后使用高分辨率潛在擴散模型(LDM),不斷抽樣和渲染第一階段的粗略模型,生成具有細節紋理的高質量三維網格(圖7)。

圖7 由文本生成的三維模型[16]

Make-It-3D[17]結合Text-to-Image 模型,從單個圖像實現三維模型創建,采用兩階段優化管道:第一階段通過結合參考圖像正面視圖的約束和新視圖的擴散先驗來優化NeRF;第二階段將粗模型轉換為紋理點云,并在利用參考圖像高質量紋理的同時,結合擴散先驗進一步提高真實感。Make-It-3D 提升了紋理的生成質量,在前景視圖的呈現上擁有更好的效果,但是在生成背面不可見內容時仍然缺少細節。

4 Text-to-3D 在三維數字內容創建流程中的應用

為了提升三維數字內容的創作效率,已有使用人工智能技術的各類產品及研究融入創建流程中,減少繁瑣的重復性工作,為創作者們提供更加自由的創作空間。以傳統建模流程為例,自動拓撲、自動展UV、紋理程序化生成已經成為較為成熟的應用,三維藝術家可以利用這些工具輔助建模流程,提升工作效率。ZBrush 在軟件中提供了自動布線的工具ZRemesher,用于識別模型的硬表面邊緣,并且根據邊緣對模型表面的網格進行自動拓撲,生成更少且具有更高精度的多邊形,讓模型表面的網格分布更加均勻、合理,以此滿足高精度模型轉低精度模型或動畫的需求;針對角色動畫制作,也出現了更加便利的方法以取代傳統流程。Mosella-Montoro 等人[18]提出了一種新的神經網絡架構,該架構通過聯合學習網格和骨架之間的最佳關系,自動提取最佳特征來預測蒙皮權重并自動生成更加準確的蒙皮權重。Chen 等人[19]利用深度學習對光學動作捕捉數據進行清洗,可以得到更加準確的動作,從而大大減小清洗數據的工作量。

隨著跨模態技術及Text-to-3D 技術的發展,在實際三維內容的創建流程中,文本引導生成也出現了相應應用。本節將從紋理貼圖、虛擬角色、三維場景三個方向闡述現有應用情況。

4.1 文本生成紋理貼圖

在Text-to-Image 相關技術發展的背景下,作為三維模型的要素之一,紋理貼圖也可以通過文本引導生成。如果將紋理貼圖僅視作圖像信息,則可以利用Text-to-Image 的流程進行生成,生成過程可以劃分為兩個環節,一是通過Text-to-Image 模型生成無縫顏色貼圖,二是根據單張顏色圖分析生成對應的法線貼圖(Normal Map)、環境光遮蔽貼圖(Ambient Occlusion Map)、高度圖(Height Map)等。Midjourney 與Stable Diffusion 都可以支持顏色貼圖的生成,但仍有可能無法得到無縫效果,且不含其他基于物理渲染(Physically Based Rendering, PBR)的貼圖,因此,還需要利用其他軟件來進行相應計算。軟件Materialize 支持根據導入的圖像,調整不同參數,使材質更加接近預期效果。

同時,更加便利的方法是將上述兩步直接結合,直接通過文本生成一系列紋理貼圖。Poly 支持根據輸入的文本在庫中搜索符合描述的紋理貼圖,如果沒有合適的貼圖,可以輸入文本進行相應紋理的生成,此外,網站提供了有機自然、啞光、有光澤的、織物類等不同材質選擇,以便生成更準確的PBR 貼圖,使材質更加真實,接近想要的質感。經過測試,在官網輸入文本“broken blue tiles”后得到的紋理效果如圖8所示。

圖8 根據文本生成的紋理貼圖[20]

作為實現針對網格模型生成高質量紋理的新方法,Text2Tex[21]利用深度感知擴散模型逐步更新紋理圖案,逐步生成多視點的局部紋理,再反向投影至紋理空間。為了消除旋轉視點時的拉伸和不連續偽影,該研究提出了一個可以計算可見紋理的法向量以及與當前視圖方向間相似性映射的視圖劃分技術,允許在不同的區域應用不同的擴散強度。實驗最終得到了較好的效果(圖9)。

圖9 根據網格生成紋理[21]

4.2 文本生成數字角色

數字角色是三維數字內容的一個重要分類,無論影視行業還是游戲行業,都對虛擬角色內容有著大量需求。在虛擬角色內容創建流程中,利用文本引導虛擬角色生成,可以更快速地獲得虛擬角色,且不需要額外的建模技巧。虛幻引擎(Unreal Engine,UE)發布的MetaHuman 工具為創作者提供創建數字人類角色的完整框架,支持用多種面部混合模式制作需要的面部形狀,同時結合膚色和紋理細節,可以實現自動的多層次細節,降低了創建數字人類角色的難度。

AvatarCLIP[22]結合大規模預訓練模型,提出了一個可以由文本引導生成虛擬角色的框架,包含形狀、紋理和動作生成。AvatarCLIP 生成靜態模型的管線分為兩個環節:第一環節是由形狀變分自編碼器(Variational Autoencoder, VAE)構成的碼本,用于CLIP 引導的查詢,生成粗顆粒度形狀模型;第二環節則通過網格模型的多視角圖像對NeuS[23]進行優化、形狀雕刻和紋理生成。

DreamFace[24]是由文本生成數字角色面部的解決方案,主要包括三個模塊:幾何體生成、基于物理的材質擴散和動畫能力生成?;诖搜芯?,該團隊發布了專門針對數字人的生成工具ChatAvatar。該工具生成的三維模型能夠將PBR 材質下載至本地,并支持導入到引擎中,其拓撲規整度和綁定能夠滿足CG 流程要求。使用者可以通過官網和聊天機器人對話得到生成的提示詞(Prompt),通過不斷的對話式引導豐富提示詞,再進行生成,降低了對輸入Prompt 能力的要求;系統會根據文字Prompt 快速生成幾個備選的幾何體模型,用戶選擇更符合期待的模型后,系統將進一步生成PBR 材質貼圖(圖10)。目前ChatAvatar 僅支持對人臉的生成,暫時不支持添加發型,但是這已經為Text-to-3D 類型的創作產品提供了一個更加明確的方向。

圖10 ChatAvatar 生成樣例[25]

DreamAvatar[26]可以從文本提示和形狀先驗生成高質量的、具有可控姿勢的三維數字人類角色,利用一個預訓練的Text-to-Image 模型提供二維自我監督,用可訓練的NeRF 預測三維點的密度和顏色特征,可以得到更加具有細節和生動的數字角色,經過評估生成結果優于現有方法,生成效果如圖11所示。

圖11 根據文本引導生成的數字角色[26]

4.3 文本生成三維場景

三維場景的生成可以在電影籌備環節提高動態預覽效率,呈現更加準確的空間關系,進而獲得更接近成片的視覺效果。三維場景包含的三維數字內容往往非常豐富,相較于獨立的三維物體而言,還需要確保各個物體具有合理的空間關系。文本生成三維場景既應該提高創建效率,又應該具備一定的可控性與可編輯性。

正如第三節所述,目前眾多有關文本到三維場景的研究是基于已有的模型庫,根據對輸入文本進行語義分析和特征提取,從模型庫提取對應模型,將模型按照符合語義且合理的空間關系組合成三維場景。SceneSeer[27]提出的交互生成系統,允許用戶使用簡單文本命令添加、刪除、替換和操作模型對象,不斷迭代細化所創建的場景。

Text2NeRF[28]能夠僅從自然語言描述生成多樣化和連續的三維場景。首先通過一個文本到圖像的擴散模型來生成初始視圖,根據此視圖,利用基于深度圖的渲染方法為NeRF 重建提供不同視角的支持集。在對這個初始化的NeRF 模型進行訓練后,引入了一個圖像補全的更新策略以擴展新的場景視圖,補全缺失部分,之后再更新NeRF。該方法可以生成具有復雜幾何結構和精細紋理的三維場景,但其生成的三維場景仍然局限在一定角度內,且沒有生成單獨三維對象。

Set-the-Scene[29]提出了全局—局部的訓練框架,即利用代理對象確定物體生成場景中的空間位置,并可以選擇定義為粗模型。每一個對象表示為獨立的NeRF,在進行優化時,交叉進行單對象優化與場景優化,創建合理的場景。該系統還提供了修改與編輯方式,可實現編輯代理對象的幾何形狀,對生成場景進行微調。生成場景合成結果如圖12 所示,由代理對象生成更為合理、具備整體性的場景。

圖12 場景合成結果[29]

5 總結與展望

AIGC 技術發展是當前的熱門話題,尤其是跨模態生成方法能夠使用戶使用工具時更加輕松,但是在進入實際應用時,仍然存在一些實際問題。近幾年出現的Text-to-3D 應用研究,如DreamFusion、Dream Fields 等,為三維生成提出了一個富有前景的應用落地空間,Text-to-Image 模型應用的大范圍落地讓人們對三維模型的自動生成有了更多期待。

Text-to-3D 在三維數字內容創建過程中已有針對不同使用場景、不同創作環節的技術方案出現,部分紋理生成工具、數字人臉生成產品能夠生成較好的結果;場景和數字角色的高效生成可以滿足動態預演的基本需求。但目前大部分生成結果的精細程度及過程可控性,還難以達到工業級標準。如今相關研究的技術管線仍然無法很好地融入到電影傳統制作管線中,無論是在最終成果還是可用性上,距離實際落地仍然存在一定差距。正如Midjourney 和ChatGPT 是經過了一段較長時間的多種算法積累與發展后,才實現了質的飛躍,成為了能夠與實際工作流相結合的工具。相信Text-to-3D 技術也在不斷迭代發展中逐漸助力實際創作流程,釋放創作者的想象力,提升前期預覽效果和后期視效工作效率,使創作者對電影整體制作流程有更好的把握。?

猜你喜歡
紋理形狀數字
挖藕 假如悲傷有形狀……
基于BM3D的復雜紋理區域圖像去噪
使用紋理疊加添加藝術畫特效
你的形狀
答數字
TEXTURE ON TEXTURE質地上的紋理
看到的是什么形狀
數字看G20
消除凹凸紋理有妙招!
成雙成對
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合