版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
基于AIGC算法的數(shù)字人技術(shù)在電影中的應(yīng)用研究摘要伴隨人工智能技術(shù)的進步,生成式人工智能,AIGC于影視行業(yè)里的運用日漸普遍,尤其在數(shù)字人技術(shù)范疇顯示出巨大的發(fā)展?jié)撃?,本文開篇回顧數(shù)字人技術(shù)的發(fā)展歷程,再剖析傳統(tǒng)影視制作里是如何實現(xiàn)虛擬角色的生成與驅(qū)動以及所面臨的核心挑戰(zhàn)。重點探尋AIGC在數(shù)字人建模中的兩種主要途徑,并就其高效性、可拓展性以及高精度等層面深入分析,本文還聯(lián)合具體案例做分析,探尋AIGC數(shù)字人在電影制作中的實際應(yīng)用途徑,涉及虛擬替身和特效角色的構(gòu)建活動、快速產(chǎn)出角色、交互創(chuàng)新的開展以及沉浸式體驗的增強程度,本文對由AIGC驅(qū)動的數(shù)字人技術(shù)的優(yōu)劣之處展開評估,同時展望其今后的發(fā)展趨勢。
關(guān)鍵詞:人工智能、AIGC、數(shù)字人、電影制作、虛擬角色、電影特效ABSTRACTWiththeprogressofartificialintelligencetechnology,basedonthegeneratedartificialintelligence,theapplicationofAIGCinthefilmandtelevisionindustryisbecomingmoreandmorecommon,especiallyinthecategoryofdigitalhumantechnology,showinggreatdevelopmentpotential.Atthebeginningofthisarticle,thisarticlereviewsthedevelopmentprocessofdigitalhumantechnology,andthenanalyzeshowtorealizethegenerationofvirtualcharactersintraditionalfilmandtelevisionproduction.Andthedrivingandthecorechallengesfaced.FocusonexploringthetwomainwaysofAIGCindigitalhumanmodeling,andmakeanin-depthanalysisofitshighefficiency,expandabilityandhighaccuracy.ThisarticlealsoanalyzesspecificcasestoexplorethepracticalapplicationofAIGCdigitalpeopleinfilmproduction,involvingtheconstructionactivitiesofvirtualdoublesandspecialeffectscharacters,Theenhancementoffastoutputrole,interactiveinnovationandimmersiveexperience.ThisarticleevaluatestheadvantagesanddisadvantagesofAIGC-drivendigitalhumantechnology,andlooksforwardtoitsfuturedevelopmenttrend.Keywords:artificialintelligence,AIGC,digitalhumans,filmproduction,virtualcharacters,filmspecialeffects目錄TOC\o"1-3"\h\u6869摘要 312692ABSTRACT 418749目錄 51023引言 620023第一章傳統(tǒng)數(shù)字人建模方法及其局限性 716652第一節(jié)傳統(tǒng)方法簡介 728997第二節(jié)傳統(tǒng)方法局限性分析 83811第二章AIGC算法驅(qū)動的數(shù)字人技術(shù) 94571第一節(jié)AIGC算法驅(qū)動形象生成 9363一、基于圖像和視頻生成 925983二、參數(shù)化模型生成 93177第二節(jié)AIGC算法驅(qū)動的技術(shù)特點 117152一、高效性 1110107二、可擴展性 1216805三、高精度 1215153第三章AIGC算法驅(qū)動的數(shù)字人技術(shù)在電影制作中的應(yīng)用 1415136第一節(jié)虛擬替身與特效角色 1426504第二節(jié)快速角色生成 1518403第三節(jié)交互創(chuàng)新 1630606第四節(jié)提升沉浸體驗 1612811第四章基于AIGC算法的數(shù)字人技術(shù)在電影中應(yīng)用的優(yōu)劣 1813063第一節(jié)優(yōu)勢分析 1814310一、降低成本 181602二、豐富藝術(shù)表現(xiàn)手段 1926357第二節(jié)局限性分析 1931100一、恐怖谷效應(yīng) 197223二、成本與資源局限性 2031880三、倫理與社會問題 2115291第五章未來發(fā)展與展望 2228826第一節(jié)技術(shù)發(fā)展方向 22455第二節(jié)應(yīng)用前景 2226968結(jié)論 248716參考文獻 25引言數(shù)字人(DigitalHuman/MetaHuman)是具備接近真人的外觀、行為以及思想特征的虛擬實體,在數(shù)字空間中呈現(xiàn)出類人的交互反應(yīng)。[[]鐘世鎮(zhèn).數(shù)字人—信息與生命科學(xué)結(jié)合的新域[J].科領(lǐng)技導(dǎo)報.2005(2).][]鐘世鎮(zhèn).數(shù)字人—信息與生命科學(xué)結(jié)合的新域[J].科領(lǐng)技導(dǎo)報.2005(2).數(shù)字人逐步擁有了更繁復(fù)的動作表現(xiàn)及情感表達能力,回應(yīng)了電影產(chǎn)業(yè)提升視覺效果的期盼,借助三維建模技術(shù),虛擬人物可在空間中自由旋轉(zhuǎn)和移動,且實現(xiàn)更精細(xì)的細(xì)節(jié)展現(xiàn),當(dāng)引入動作捕捉技術(shù),數(shù)字人就被賦予了高度逼真的肢體運動效果,讓其可以模仿并重現(xiàn)人類的動態(tài)舉動。伴隨生成式人工智能(ArtificialIntelligenceGeneratedContent,AIGC的浮出水面,數(shù)字人的表情、語音,甚至思維模式也逐步得到了提升,能表現(xiàn)出更加豐富的情感相關(guān)反應(yīng),甚至還能實現(xiàn)人機交互活動。伴隨AI技術(shù)的迅猛發(fā)展,數(shù)字人已成為人工智能的核心載體,牽系現(xiàn)實與虛擬世界的橋梁,大語言模型(LLM)與語音生成技術(shù)賦予數(shù)字人自然交流本事;深度學(xué)習(xí)(DL)能讓數(shù)字人模擬人類的思維與行動;大數(shù)據(jù)與云計算技術(shù)推動數(shù)字人實現(xiàn)個性化定制及實時溝通,因這些技術(shù)的賦能,數(shù)字人能夠充分運用其高度擬人化的形象及智能化互動能力,再度定義人類與數(shù)字世界的交互手段,促進敘事與用戶體驗向多元化未來邁步。[[]劉笑微,肖婧瀾,宋震,.數(shù)字人技術(shù)在電影與數(shù)字內(nèi)容領(lǐng)域的創(chuàng)新應(yīng)用[J].現(xiàn)代電影技術(shù),2024(09):33-40.[]劉笑微,肖婧瀾,宋震,.數(shù)字人技術(shù)在電影與數(shù)字內(nèi)容領(lǐng)域的創(chuàng)新應(yīng)用[J].現(xiàn)代電影技術(shù),2024(09):33-40.人工智能正在重塑電影的制作模式,助力產(chǎn)業(yè)實現(xiàn)數(shù)字化發(fā)展,數(shù)字人技術(shù)早已成為一個跨學(xué)科的研究范圍,牽涉計算機科學(xué)、人工智能、數(shù)字藝術(shù)、影視制作等多個學(xué)科方面,并一直帶動虛擬人物真實感及交互能力的提升。[[]\t"/reader/DYLX202418002"[]\t"/reader/DYLX202418002"曹偉;.從“沉浸—反思”到“觀看—互動”:“影游融合”視域下傳統(tǒng)觀影向“數(shù)字人”審美的范式嬗變[J].電影文學(xué),2024,No.855(18).第一章傳統(tǒng)數(shù)字人建模方法及其局限性第一節(jié)傳統(tǒng)方法簡介傳統(tǒng)數(shù)字人建模途徑采用Maya、3dsMax[[]Murdock,K.L.(2008).
3DSmax2009bible
(Vol.560).JohnWiley&Sons.]等專業(yè)類軟件,建模的步驟主要有基礎(chǔ)建模、紋理繪制、骨骼綁定、渲染輸出等。[[[]Murdock,K.L.(2008).
3DSmax2009bible
(Vol.560).JohnWiley&Sons.[]\t"/reader/DNBC202109056"馬倩倩;.基于MAYA軟件的三維動畫制作技術(shù)及應(yīng)用[J].電腦編程技巧與維護,2021(09):146-147+156.以多邊形建模(PolygonModeling)、曲面建模(NURBSModeling)或體素建模(VoxelModeling)等技術(shù)構(gòu)建數(shù)字人的基本幾何形態(tài),完成基礎(chǔ)建模,含有人類的頭部、軀干、四肢等部分,建模時要留意模型的布線策略,針對運動頻次少且幅度偏小的部位,線條分布宜合理削減,而針對運動幅度較大的地方,如肘膝關(guān)節(jié)、嘴角和眼角等部位,應(yīng)增加線條的密度,保證動畫既流暢又逼真。材質(zhì)與貼圖用來模擬對象的外在屬性及質(zhì)感,給基礎(chǔ)模型添加表層細(xì)節(jié),采用UV映射(UVMapping)技術(shù),把二維紋理貼圖精確地附著到三維模型表面,常見的紋理類型有漫反射貼圖、法線貼圖、高光貼圖之類的,完成皮膚、衣物等材質(zhì)細(xì)節(jié)和質(zhì)感的還原后,還需為模型搞出骨骼系統(tǒng),之后將模型跟骨骼實施綁定,要使骨骼能帶動模型出現(xiàn)預(yù)期的變形結(jié)果。虛擬控制器可實現(xiàn)對人物的操控,模型可完成伸手、跑步、跳躍這類動作,在Unity里,可借助導(dǎo)入模型和動作庫,打開骨骼界面,把animationtype調(diào)整為humanoid,接著開展骨骼綁定工作,開展骨骼綁定能先選中物體,之后再選中骨骼,還可選擇骨骼方面的選項或者選擇附帶自動權(quán)重的情形。在面部表情及姿勢動作設(shè)計完畢后,還應(yīng)做燈光設(shè)置以及攝像機的調(diào)試,以此保障最終畫面的光影效果和視覺震撼力,一般而言要設(shè)置不同類型光源,涵蓋主光決定整體的亮度及方向,輔光起到平衡陰影的作用,輪廓光能增進角色的立體感,環(huán)境光去模擬整個場景的光照,讓場景看上去更自然。各異的光影組合能塑造出截然不同的視覺樣式,寫實風(fēng)格要求過渡要柔和,而卡通風(fēng)格更加看重光影之間的對比,攝像機的角度、位置及其運動方式也十分關(guān)鍵,合理抉擇仰視、俯視或正視角可塑造出不同風(fēng)格的角色形象,而調(diào)整焦距可以影響透視感以及畫面氛圍。動態(tài)鏡頭能增進敘事的實際效果,讓畫面增添沉浸感,完成場景、燈光以及攝像機的設(shè)置后,最終需借助渲染器把三維場景跟角色渲染為圖像或視頻,渲染時應(yīng)全面顧及質(zhì)量、速度、光影計算模式(例如光線追蹤、全局光照GI)、材質(zhì)反射折射特性等情況,以保證畫面合乎藝術(shù)方面需求,又能讓計算成本跟視覺效果之間實現(xiàn)最優(yōu)平衡,在高精度渲染流程執(zhí)行期間,也許還得執(zhí)行分層渲染,并在后期合成階段對色彩、光影及特效進行再優(yōu)化,進而最終拿出高質(zhì)量的視覺作品。[[]王猛,高沛鑫.基于Maya技術(shù)的角色骨骼動畫制作研究[J].電腦知識與技術(shù),2024,20(28):112-114.DOI:10.14004/ki.ckt.2024.1517.[]王猛,高沛鑫.基于Maya技術(shù)的角色骨骼動畫制作研究[J].電腦知識與技術(shù),2024,20(28):112-114.DOI:10.14004/ki.ckt.2024.1517.第二節(jié)傳統(tǒng)方法局限性分析傳統(tǒng)數(shù)字人制作涵蓋建模、紋理處理、骨骼綁定、動畫制作等多個復(fù)雜的環(huán)節(jié),依賴專業(yè)團隊的長期參與,導(dǎo)致生產(chǎn)效率低,制作周期長,制作預(yù)算高。如表1所示,數(shù)字人涉及到的頂點、紋理和運動數(shù)據(jù)能夠確保動畫人物的運動自然流暢,但這些數(shù)據(jù)是很龐大的。數(shù)據(jù)類型數(shù)據(jù)量數(shù)據(jù)格式空間分辨率時間分辨率頂點數(shù)據(jù)10000頂點/模型obj1920×108060FPS紋理數(shù)據(jù)2048×2048/紋理png2048×204860FPS運動數(shù)據(jù)120幀/動畫fbx2048×204860FPS表1三維動畫數(shù)據(jù)在以往的數(shù)字角色創(chuàng)作范疇,制作者一般會借助專業(yè)級軟件工具,而且要掌握像關(guān)鍵幀動畫、動作捕捉這類專業(yè)技術(shù),對剛剛開始摸索的初學(xué)者來講,若想達到專業(yè)水準(zhǔn)一般需要投入大量時間做系統(tǒng)訓(xùn)練,關(guān)鍵幀動畫技術(shù)主要借助時間軸上關(guān)鍵幀的設(shè)定,達成對目標(biāo)對象運動軌跡的控制,其主要操作流程有:選好目標(biāo)對象,對時間軸上的首幀、關(guān)鍵幀以及末幀進行參數(shù)設(shè)置,繼而由計算機自動完成中間幀的插值核算。當(dāng)處理復(fù)雜動畫場景之際,制作者依舊需要對每一幀做精準(zhǔn)的調(diào)整,此過程往往會伴隨著繁重的工作量,葛洪央與馬宇飛的《3DSMAX三維設(shè)計項目實踐教程》[M],大連理工大學(xué)出版社,2018.跟關(guān)鍵幀動畫相較而言,動作抓?。∕otionCapture,MoCap技術(shù)可大幅增進動畫制作的效率。采用光學(xué)或慣性傳感器,系統(tǒng)可捕獲真實人物的動作數(shù)據(jù),并把動作數(shù)據(jù)映射到虛擬角色之上,生成更貼合自然的運動軌跡,動作捕捉技術(shù)得借助昂貴的硬件設(shè)備,而且在數(shù)據(jù)采集之后,一般需進行繁瑣的數(shù)據(jù)清理和矯正,以消除噪聲干擾、解決丟幀故障以及矯正異常關(guān)節(jié)角度,這使得動作捕捉即便在工業(yè)級動畫制作中普遍應(yīng)用,但從小型團隊或獨立創(chuàng)作者的角度看,其設(shè)備購置成本、數(shù)據(jù)處理的繁雜度和后期修正事宜還是主要挑戰(zhàn)。跟著實時交互、VR和AR的逐步發(fā)展,傳統(tǒng)數(shù)字人建模及動畫制作方法在實時性上的不足日益明顯,傳統(tǒng)方法在動畫調(diào)整以及角色建模進程中高度依賴人工操作,欠缺自動化適配的對應(yīng)機制,難以契合實時渲染的需求,為了可在實時環(huán)境中運行,一般都需要額外進行LOD(LevelofDetail)方面的優(yōu)化,也就是采用減少多邊形數(shù)量或降低紋理分辨率的方式來提高渲染性能,這種優(yōu)化辦法往往會讓視覺效果被舍棄,造成最終呈現(xiàn)的動畫與模型質(zhì)量下降,傳統(tǒng)方法欠缺自動化生成及適配能力,無法迅速制作出符合不同風(fēng)格、不同特征要求的數(shù)字人角色,阻滯了其在個性化應(yīng)用場景中的廣泛拓展。第二章AIGC算法驅(qū)動的數(shù)字人技術(shù)第一節(jié)AIGC算法驅(qū)動形象生成AIGC算法的快速進展使得虛擬角色生成變得高效又精準(zhǔn),帶動了數(shù)字人技術(shù)在諸多領(lǐng)域的運用,尤其是在影視拍攝、電子游戲開發(fā)以及虛擬現(xiàn)實技術(shù)等板塊,AIGC算法在形象生成方面的應(yīng)用主要能分為基于圖像、視頻生成以及參數(shù)化模型生成,這兩者不僅促使虛擬角色的生成效率提高,還能契合大規(guī)模、個性化的需求。一、基于圖像和視頻生成基于圖像和視頻生成的算法,其核心機制為輸入多張真實人物高質(zhì)量的圖片或視頻片段,利用深度學(xué)習(xí)模型開展特征抽取與模式辨別,學(xué)習(xí)且抓取人物的面部特征、表情細(xì)節(jié)以及動態(tài)行為模式,于是構(gòu)建出高度逼真的虛擬角色形象,接著進一步優(yōu)化其光照、陰影和材質(zhì)方面的屬性,跟傳統(tǒng)建模方法不一樣,該技術(shù)同樣支持對生成的角色實施動態(tài)調(diào)整與優(yōu)化,讓其可以適應(yīng)不同的場景與應(yīng)用需求。VIBE[[]Kocabas,M.,Athanasiou,N.,&Black,M.J.(2020).Vibe:Videoinferenceforhumanbodyposeandshapeestimation.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.5253-5263).][]Kocabas,M.,Athanasiou,N.,&Black,M.J.(2020).Vibe:Videoinferenceforhumanbodyposeandshapeestimation.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.5253-5263).NeuralHumanVideoRendering[[]Liu,L.,Xu,W.,Habermann,M.,Zollh?fer,M.,Bernard,F.,Kim,H.,...&Theobalt,C.(2020).Neuralhumanvideorenderingbylearningdynamictexturesandrendering-to-videotranslation.
arXivpreprintarXiv:2001.04947.][]Liu,L.,Xu,W.,Habermann,M.,Zollh?fer,M.,Bernard,F.,Kim,H.,...&Theobalt,C.(2020).Neuralhumanvideorenderingbylearningdynamictexturesandrendering-to-videotranslation.
arXivpreprintarXiv:2001.04947.二、參數(shù)化模型生成參數(shù)化模型生成技術(shù)依靠定義多維參數(shù)空間來達成對數(shù)字角色外貌、體型及表情等特征的刻畫,進而提升角色創(chuàng)建時的效率與靈活性,跟依賴視覺數(shù)據(jù)的生成模式相異,參數(shù)化建模利用數(shù)學(xué)模型對人體形態(tài)及運動作抽象描述,憑借參數(shù)調(diào)節(jié)可生成帶有不同生理特征、性別屬性以及面部細(xì)節(jié)的虛擬角色。SMPL(SkinnedMulti-PersonLinearModel)跟SMPL-X是其中較為典型的代表性模型,該類技術(shù)在影視制作的范疇內(nèi),尤其在要構(gòu)建大量數(shù)字角色的場景中優(yōu)勢明顯,譬如群演生成與復(fù)雜場景的角色搭配。參數(shù)化方法讓制作團隊可快速打造滿足特定需求的數(shù)字角色集合,且支持對外觀屬性與行為模式做動態(tài)更改,該技術(shù)方案切實攻克了影視制作里大規(guī)模角色生成與實時調(diào)整的技術(shù)難題,在進行群體場景構(gòu)建(比如戰(zhàn)爭場面、集會場景或體育賽事)時,極大提升了制作效率與創(chuàng)作自由度。圖2.1MetaHumanAnimator在幕后處理捕捉設(shè)備所發(fā)送的數(shù)據(jù)圖2.1呈現(xiàn)出,MetaHuman借助對真實人體樣本開展3D掃描,搭建參數(shù)化的模型庫,同時借助物理約束機制提升生成結(jié)果的逼真度,該系統(tǒng)供應(yīng)多種可調(diào)節(jié)的參數(shù),涉及到面部特征、生理特性、毛發(fā)樣式以及服飾等,可實現(xiàn)多樣化數(shù)字角色的創(chuàng)建。系統(tǒng)認(rèn)可導(dǎo)入外部模型,用戶可把自己定制的3D模型轉(zhuǎn)換成參數(shù)化角色,且可借助內(nèi)置工具做優(yōu)化,從動畫制作的角度看,系統(tǒng)采用了高效的面部動畫方案,能迅速達成角色表情綁定,經(jīng)由與主流3D引擎的深度結(jié)合,系統(tǒng)可把掃描數(shù)據(jù)、數(shù)字雕刻模型或傳統(tǒng)建模成果轉(zhuǎn)化成完整的參數(shù)化角色資產(chǎn),MetaHumanAnimator借助消費級移動設(shè)備開展基礎(chǔ)面部捕捉,而且可依照需求升級到專業(yè)級頭戴設(shè)備,契合不同預(yù)算跟精度的需求,該分層技術(shù)方案大幅削減了數(shù)字角色創(chuàng)建及動畫制作的技術(shù)門檻和費用。[[]/zh-CN/metahuman[]/zh-CN/metahuman第二節(jié)AIGC算法驅(qū)動的技術(shù)特點AIGC(人工智能生成內(nèi)容)算法在虛擬角色構(gòu)建中的運用,不只提升了制作速率,還在多個層面表現(xiàn)出它獨特的技術(shù)長處,生成去對抗網(wǎng)絡(luò),GAN)[[]Goodfellow,I.J.,Pouget-Abadie,J.,Mirza,M.,Xu,B.,Warde-Farley,D.,Ozair,S.,...&Bengio,Y.(2014).Generativeadversarialnets.
Advancesinneuralinformationprocessingsystems,
27.]、可變式自編碼器(VariationalAutoencoder,VAE)[[]Chen,Y.,Liu,J.,Peng,L.,Wu,Y.,Xu,Y.,&Zhang,Z.(2024).Auto-encodingvariationalBayes.
CambridgeExplorationsinArtsandSciences,
2(1).]、有著擴散屬性的模型[[]Goodfellow,I.J.,Pouget-Abadie,J.,Mirza,M.,Xu,B.,Warde-Farley,D.,Ozair,S.,...&Bengio,Y.(2014).Generativeadversarialnets.
Advancesinneuralinformationprocessingsystems,
27.[]Chen,Y.,Liu,J.,Peng,L.,Wu,Y.,Xu,Y.,&Zhang,Z.(2024).Auto-encodingvariationalBayes.
CambridgeExplorationsinArtsandSciences,
2(1).[]Ho,J.,Jain,A.,&Abbeel,P.(2020).Denoisingdiffusionprobabilisticmodels.
Advancesinneuralinformationprocessingsystems,
33,6840-6851.一、高效性由于算力的升高,依靠大規(guī)模數(shù)據(jù)進行訓(xùn)練,AIGC模型彰顯出了強大的學(xué)習(xí)能力以及在下游任務(wù)時出色的表現(xiàn)成效,可以在短時間迅速達成虛擬角色的生成,跟傳統(tǒng)的手工建模以及逐幀渲染過程比起來,AIGC借助自動化生成行動極大縮減了制作周期。圖2.2GAN模型GAN由判別器跟生成器一起組成,生成器以從潛在特征空間隨機采樣的方式,并不斷錘煉其生成能力以逼近真實數(shù)據(jù)分布,處于對抗性訓(xùn)練機制當(dāng)中,生成模塊漸漸提高其輸出水準(zhǔn),直至判別器在區(qū)分生成樣本與真實樣本方面存在難題,憑借對抗訓(xùn)練途徑,GAN直接從數(shù)據(jù)分布里開展學(xué)習(xí),生成高質(zhì)量樣本,避免了顯式對復(fù)雜概率分布進行建模的麻煩。跟傳統(tǒng)方法對比,GAN展現(xiàn)出更高的計算效率,變分自編碼器(VariationalAutoencoder)作為一類概率生成模型,將編碼-解碼結(jié)構(gòu)跟變分推理相融合,可以高效學(xué)懂高維數(shù)據(jù)的低維表示形態(tài),且無需借助復(fù)雜的采樣策略。該模型以優(yōu)化變分下界,實現(xiàn)重構(gòu)精度與泛化能力的平衡,在視覺內(nèi)容合成、訓(xùn)練數(shù)據(jù)增添以及無監(jiān)督特征學(xué)習(xí)等任務(wù)里表現(xiàn)出明顯優(yōu)越性,跟傳統(tǒng)的生成對抗網(wǎng)絡(luò)相比較,這類模型在視覺內(nèi)容合成任務(wù)里展現(xiàn)出更優(yōu)的穩(wěn)定性與生成質(zhì)量,已在計算機視覺、語言理解等多個領(lǐng)域達成突破性的進步。盡管現(xiàn)階段AIGC的主要應(yīng)用集中在圖像與視頻生成的任務(wù),但跟生成模型的基本原理存在相似屬性,AIGC算法成功降低了人工成本支出,還極大增進了創(chuàng)作過程的靈活性,使創(chuàng)作者能夠在不太長的時間內(nèi)迅速調(diào)整及優(yōu)化角色設(shè)計,以跟上市場需求的快速轉(zhuǎn)變,尤其是在像游戲開發(fā)、廣告制作這類高度動態(tài)的創(chuàng)作情形中,AIGC大幅度增進了虛擬角色生成的效率與可操作性,進而提升了大規(guī)模數(shù)字內(nèi)容生產(chǎn)的可行概率與應(yīng)用范圍大小。二、可擴展性AIGC算法的又一關(guān)鍵優(yōu)勢為其高度可擴展性,使其可以符合不同風(fēng)格與復(fù)雜度的角色生成要求,經(jīng)過整合多源數(shù)據(jù)集與先進算法,AIGC可創(chuàng)建具備多樣化外觀、表情及動作特點的數(shù)字角色,在影視創(chuàng)作范疇,AIGC可按照劇本條件,生成符合特定文化背景與藝術(shù)風(fēng)格的角色形象;在游戲設(shè)計范疇,該技術(shù)可以構(gòu)建契合不同游戲題材及用戶審美的虛擬角色集合,AIGC的擴展能力沖破了傳統(tǒng)創(chuàng)作方式的禁錮,不僅讓角色設(shè)計的適應(yīng)性變強,還大幅增進了數(shù)字角色的多樣程度與定制化水平,進而更好地契合市場對多元化內(nèi)容的要求。動畫及特效影片制作正由數(shù)字影片走向人工智能引擎電影(mechinima,又叫做虛擬電影或游戲電影)變遷,體現(xiàn)出廣闊的發(fā)展前景潛力,與預(yù)渲染動畫不一樣,無需額外去做設(shè)備、建模、動畫、剪輯類的工作,只要借助游戲自身的引擎就可創(chuàng)作出多樣的過場,中國影視制作公司正與好萊塢一起合作開發(fā)AI引擎電影,此趨勢正重塑著電影的制作模式。[[]引擎電影,不同于預(yù)渲染動畫,無需額外的設(shè)備,無需額外的建模、動畫、剪輯工作,只需利用游戲自身的引擎就可以創(chuàng)作出各種過場[]引擎電影,不同于預(yù)渲染動畫,無需額外的設(shè)備,無需額外的建模、動畫、剪輯工作,只需利用游戲自身的引擎就可以創(chuàng)作出各種過場三、高精度AIGC算法憑借精細(xì)的圖像識別與數(shù)據(jù)處理,可以精準(zhǔn)捕捉與再現(xiàn)真實人物的表情、細(xì)微表情以及細(xì)致的動作狀態(tài),利用對海量面部表情及動作數(shù)據(jù)的訓(xùn)練,AIGC可生成極為逼真的虛擬角色及其動作,在情感表達范疇,AIGC甚至可制造出細(xì)膩的微表情改變與肌肉運動,實現(xiàn)數(shù)字人在面部表情、目光、細(xì)微動作以及語音同步等方面的高度精確模仿。為了實現(xiàn)高分辨率的輸出,PIFuHD[[]Saito,S.,Simon,T.,Saragih,J.,&Joo,H.(2020).Pifuhd:Multi-levelpixel-alignedimplicitfunctionforhigh-resolution3dhumandigitization.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.84-93).]基于PixelalignedImplicitFunction(PIFu)[[]Saito,S.,Huang,Z.,Natsume,R.,Morishima,S.,Kanazawa,A.,&Li,H.(2019).Pifu:Pixel-alignedimplicitfunctionforhigh-resolutionclothedhumandigitization.In
ProceedingsoftheIEEE/CVFinternationalconferenceoncomputervision
(pp.2304-2314).][]Saito,S.,Simon,T.,Saragih,J.,&Joo,H.(2020).Pifuhd:Multi-levelpixel-alignedimplicitfunctionforhigh-resolution3dhumandigitization.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.84-93).[]Saito,S.,Huang,Z.,Natsume,R.,Morishima,S.,Kanazawa,A.,&Li,H.(2019).Pifu:Pixel-alignedimplicitfunctionforhigh-resolutionclothedhumandigitization.In
ProceedingsoftheIEEE/CVFinternationalconferenceoncomputervision
(pp.2304-2314).圖2.3擴散模型依據(jù)圖2.2所示,基于擴散過程的生成模型采用了漸進式的去噪策略,借助多步迭代,將簡單的高斯噪聲分布慢慢轉(zhuǎn)化成復(fù)雜的目標(biāo)數(shù)據(jù)分布,借此生成高質(zhì)量的樣本,該模型在訓(xùn)練階段最先通過正向擴散過程給輸入數(shù)據(jù)慢慢添加噪聲,直至數(shù)據(jù)完全退化成為隨機噪聲;在生成階段采用逆向去噪進程,借助已學(xué)習(xí)的噪聲預(yù)測模型逐步消除噪聲,最終復(fù)原出高質(zhì)量的數(shù)據(jù)樣本。該生成機制有能力有效捕捉數(shù)據(jù)的細(xì)節(jié)特征與復(fù)雜分布,因而在需要極高生成質(zhì)量的相關(guān)任務(wù)當(dāng)中體現(xiàn)顯著優(yōu)勢,在影視特效制作工作里,其生成的高分辨率視頻幀以及逼真的角色模型可大幅改善視覺效果,隨著加速采樣算法(以DDIM為例)和模型優(yōu)化技術(shù)的不斷成長,擴散模型的效率問題正漸漸得到優(yōu)化,進一步挖掘了其在實際應(yīng)用中的潛力。采用AIGC技術(shù),讓數(shù)字人在復(fù)雜光照狀況、精細(xì)材質(zhì)表現(xiàn)以及動態(tài)變化等方面的呈現(xiàn)變得更逼真,這項技術(shù)可實現(xiàn)對場景光照條件的智能分析,并憑借物理渲染或者深度學(xué)習(xí)驅(qū)動的方式達成效果,自動對光影映射、全局光照(GI)、環(huán)境光遮蔽(AO)等關(guān)鍵成分進行調(diào)整,從而使數(shù)字角色在不同光源出現(xiàn)變化時都能展現(xiàn)出合乎真實物理規(guī)律的視覺效果。AIGC利用深度學(xué)習(xí)模型生成高精度材質(zhì)貼圖,動態(tài)模擬諸如皮膚微細(xì)結(jié)構(gòu)、衣物布料特質(zhì)、頭發(fā)光澤這類復(fù)雜材質(zhì),讓數(shù)字人顯得更加生動逼真,就動態(tài)情況的變化而言,AIGC依靠數(shù)據(jù)驅(qū)動的方式,可預(yù)測并生成更符合生物運動規(guī)則的動畫,讓數(shù)字人在表情變化、肢體動作以及肌肉運動等方面呈現(xiàn)得更自然、順暢。該技術(shù)所實現(xiàn)的突破,為虛擬拍攝、數(shù)字化娛樂、游戲、電影特效、虛擬主播、VR/AR互動體驗等諸多領(lǐng)域創(chuàng)造了更廣闊的可能性,讓數(shù)字人的應(yīng)用不再僅僅局限于傳統(tǒng)預(yù)設(shè)動畫,而是可以做到更靈活、個性化的實時互動與內(nèi)容制作,大幅增強沉浸體驗的真實感。第三章AIGC算法驅(qū)動的數(shù)字人技術(shù)在電影制作中的應(yīng)用第一節(jié)虛擬替身與特效角色數(shù)字替身(DigitalDouble)能替代真人演員完成高風(fēng)險、難以達成的場景,在常規(guī)傳統(tǒng)的拍攝階段,劇組仰仗外貌相像的替身演員,這在一定程度上給特寫鏡頭和長鏡頭的運用設(shè)了限,而跟著數(shù)字人技術(shù)的發(fā)展,數(shù)字替身的精度與逼真的程度不斷升高,增添了視覺敘事的實現(xiàn)機會,在《速度與激情7》里,團隊采用保羅·沃克生前影像資料來生成數(shù)字替身,再聯(lián)合光線匹配、3D跟蹤以及相機運動匹配技術(shù),補全未拍攝的戲份,同時采用面部捕捉增強畫面真實感,既表達了對演員的敬意,也保障了劇情的順暢連貫。[[]劉笑微,肖婧瀾,宋震.數(shù)字人技術(shù)在電影與數(shù)字內(nèi)容領(lǐng)域的創(chuàng)新應(yīng)用[J].現(xiàn)代電影技術(shù),2024,(09):33-40.[]劉笑微,肖婧瀾,宋震.數(shù)字人技術(shù)在電影與數(shù)字內(nèi)容領(lǐng)域的創(chuàng)新應(yīng)用[J].現(xiàn)代電影技術(shù),2024,(09):33-40.圖3.1《速度與激情7》保羅·沃克傳統(tǒng)的大規(guī)模面部捕捉任務(wù)在拓?fù)涮幚黼A段遇到了高昂計算成本,而且處理效率欠佳,就這一問題而言,以AIGC為依托的動態(tài)面部表情捕捉系統(tǒng)整合了深度學(xué)習(xí)、圖神經(jīng)網(wǎng)絡(luò)(GraphNeuralNetworks,諸如GNN的技術(shù),采用精準(zhǔn)度高的頭部對齊策略,自動生成拓?fù)浣Y(jié)構(gòu)契合的高質(zhì)量面部模型序列,以此達成面部掃描數(shù)據(jù)的漸進式重拓?fù)鋬?yōu)化。依靠AIGC優(yōu)化拓?fù)浣Y(jié)構(gòu),系統(tǒng)可在數(shù)據(jù)預(yù)處理階段對拓?fù)洳季诌M行動態(tài)調(diào)整,大幅提高拓?fù)湫?,降低對人工干預(yù)的依賴,采用大規(guī)模預(yù)訓(xùn)練模型,依照不同個體的面部特征自適應(yīng)調(diào)節(jié)拓?fù)渚W(wǎng)格,可做到更智能化的面部捕捉及重建,經(jīng)過拓?fù)鋬?yōu)化的模型在綁定環(huán)節(jié)依舊存在計算方面的瓶頸,拖累了整體制作效率。為進一步達成提升綁定效率的目的,高保真面部自動綁定技術(shù)把AIGC驅(qū)動的智能權(quán)重預(yù)測和法向量約束方法整合起來,采用軟約束優(yōu)化關(guān)節(jié)的具體位置,且借助自適應(yīng)學(xué)習(xí)來動態(tài)更改關(guān)節(jié)變換矩陣,引入基于擴散模型的AI生成式平面法向量的約束手段,把權(quán)重更新過程做優(yōu)化,有效防止傳統(tǒng)數(shù)字人面部自動綁定算法在表情復(fù)現(xiàn)階段可能出現(xiàn)的網(wǎng)格褶皺問題出現(xiàn)。第二節(jié)快速角色生成參數(shù)化建模技術(shù)、自動化生成工具跟人工智能生成內(nèi)容(AIGC)開展深度融合,正在重塑大規(guī)模數(shù)字角色制作的格局,尤其是在群演角色的大批制作范疇,參數(shù)化方法利用定義多維可變動參數(shù),能高效率產(chǎn)出多樣化的角色資產(chǎn)。在需大量群演角色的復(fù)雜場景(如城市環(huán)境與戰(zhàn)斗場景)之內(nèi),慣用的手工建模方法往往難以滿足高效制作的訴求,尤其是當(dāng)需要平衡角色多樣性與精細(xì)度的時候,采用整合參數(shù)化建模與AIGC技術(shù)的方式,制作團隊可達成更高效的角色創(chuàng)建流程。團隊可先打造基礎(chǔ)角色模板,然后通過調(diào)控面部特征、發(fā)型、服飾等參數(shù),迅速做出多樣化的角色,在這個過程里,AIGC技術(shù)采用生成對抗網(wǎng)絡(luò)(GAN)或擴散模型等先進算法,可以自動生成極為精準(zhǔn)的面部細(xì)節(jié)、發(fā)型、紋理以及服飾等,保證每個角色存有個性,還顯得自然并貼合場景需求。跟傳統(tǒng)手工建模的方式對比,此方法大幅削減了人工干預(yù)與制作時間,讓大規(guī)模群演角色的生成過程更迅速、更高效,在影片《哪吒2》當(dāng)中,此技術(shù)應(yīng)用于生成大量呈現(xiàn)古代中國風(fēng)格的群演角色,涵蓋自動貼合角色的服飾、發(fā)型以及配飾等,雖說這些角色是大規(guī)模生成的,但借助參數(shù)化建模和AIGC的精準(zhǔn)把控,每個角色的形象、動作以及情感表達都能維持獨特性。制作團隊可在極短時間里完成大量群演角色的打造,還能讓角色的多樣性與自然性得到保證,適應(yīng)復(fù)雜場景里對大規(guī)模角色生成的需求,極大增進制作效率且壓縮開支,這種技術(shù)的采用為電影、游戲及虛擬場景制作帶來了顛覆性進展,給出了一種靈活性更佳、可擴展且高效的角色創(chuàng)作方案。基于AI驅(qū)動的微表情遷移技術(shù)憑借高效特點,可以迅速捕捉并重現(xiàn)角色臉部表情的細(xì)節(jié),極大提升了數(shù)字角色面部動畫的制作效能,傳統(tǒng)的面部表情捕捉以及動畫制作一般需要大量手動操作,涵蓋逐幀調(diào)整與精細(xì)建模,這既占用時間又耗精力,還容易引起細(xì)節(jié)的丟失。而基于AI驅(qū)動的微表情遷移技術(shù)對真人演員的表情特征展開智能分析,并借助GAN實現(xiàn)精準(zhǔn)的映射,不用人工干預(yù),這一過程不只是自動化程度高,還能在不太長的時間內(nèi)實現(xiàn)復(fù)雜微表情的再現(xiàn),由此極大地提高了動畫制作的效率,在《哪吒2》影片之中,申公豹講“天命不可違”的那個時候,其嘴角那抹微妙的笑意是借助AI技術(shù)快速重現(xiàn)的,可迅速捕捉演員臉部的細(xì)微表情轉(zhuǎn)變,并精準(zhǔn)地映射到虛擬角色的臉上,這使動畫角色的情感表達愈發(fā)細(xì)膩靈動,同時躲開了傳統(tǒng)手工制作的繁雜操作,減少了時間跟成本的投放,采用這一技術(shù),制作團隊可在更短時間完成具有高精度的面部表情動畫,為影視、游戲以及虛擬人物的制作給出更高效的處理方案。第三節(jié)交互創(chuàng)新數(shù)字人的智能化發(fā)展日益繁復(fù),還呈現(xiàn)出數(shù)據(jù)、算法跟交互路徑的多維式融合,拿用戶跟超寫實智能數(shù)字人的實時對話交互來說,其核心流程覆蓋語音、文本、情感、視覺等多個層面內(nèi)容,以造就自然、沉浸的交流體驗感。處于數(shù)字人交互系統(tǒng)的技術(shù)架構(gòu)里,語音到文本的轉(zhuǎn)化是首要環(huán)節(jié),該流程借助自動語音識別(AutomaticSpeechRecognition,ASR技術(shù)把用戶的語音信號轉(zhuǎn)成文本數(shù)據(jù),ASR系統(tǒng)一般會有前端信號處理,以實現(xiàn)不同環(huán)境和口音條件下的高識別準(zhǔn)確率,轉(zhuǎn)換后的文本稍后被輸入到自然語言處理(NaturalLanguageProcessing,NLP模塊里側(cè)。NLP模塊主要的工作是意圖理解和語義解析,采用分類模型或序列標(biāo)注去識別用戶需求,且依靠依存句法分析、語義角色標(biāo)注等技術(shù)提取關(guān)鍵內(nèi)容,與預(yù)訓(xùn)練語言模型(如BERT、GPT)結(jié)合,提升解析的精準(zhǔn)度,解析做完之后,大語言模型(LLM)依據(jù)解析的結(jié)果生成契合語境的回復(fù),同時憑借情感分析識別用戶的情緒類別,靈活調(diào)節(jié)語氣、措辭以及表達樣式,以提高交互的個性化水平。文本轉(zhuǎn)語音(TTS)技術(shù)把文本轉(zhuǎn)化成自然語音,當(dāng)下的TTS模型(例如Tacotron、WaveNet)可產(chǎn)出接近真人語音的合成音頻,生成式AI動畫算法依據(jù)對話及情感狀態(tài),引發(fā)數(shù)字人出現(xiàn)面部表情和肢體動作,把FACS跟運動捕捉技術(shù)進行結(jié)合,保障非語言表達的真實水準(zhǔn)。為改進交互的自然水平,AI可實時調(diào)控語速、語調(diào)及微表情,再基于多模態(tài)融合聯(lián)合對語音、文本及視覺信息進行建模,若用戶正情緒焦慮,系統(tǒng)可放慢說話的速度、柔化說話語調(diào),隨之生成可安撫情緒的表情,以收獲更智能、人性化的交互反饋。3D實時渲染技術(shù)把語言和非語言表達融合為一體,造就完整的交互場景,此流程一般依靠神經(jīng)輻射場(NeuralRadianceFields,NeRF)也或基于物理屬性的渲染(PhysicallyBasedRendering,基于物理的渲染技術(shù),數(shù)字人可在不同光照與環(huán)境條件下呈現(xiàn)高度逼真的動態(tài)效果,NeRF借助神經(jīng)網(wǎng)絡(luò)對場景光場進行建模工作,可生成質(zhì)量上乘的光影效果,而PBR借助模擬光線與材質(zhì)的物理相互作用,進一步強化渲染的真實質(zhì)感,這些技術(shù)相結(jié)合,極大提升了用戶的沉浸式體驗,讓數(shù)字人交互呈現(xiàn)更自然生動。第四節(jié)提升沉浸體驗基于AIGC的數(shù)字人技術(shù)能顯著增進虛擬角色的表現(xiàn)力,尤其是在表情跟動作的真實呈現(xiàn)方面,采用深度學(xué)習(xí)和大規(guī)模數(shù)據(jù)開展訓(xùn)練,AIGC能準(zhǔn)確捕捉并仿效人類面部表情及身體動作的細(xì)微變動,使虛擬角色的情感表現(xiàn)更顯自然真切,這種高精準(zhǔn)度的表情與動作不僅充實了角色的情感層次,還可借助動態(tài)變化精準(zhǔn)體現(xiàn)角色的內(nèi)心狀況與情感起伏,進而強化觀眾對角色的認(rèn)同感與代入體驗,在觀賞影片或跟虛擬角色互動之際,觀眾能察覺到角色的情緒波動和行為反饋,這種沉浸式體驗明顯強化了情感聯(lián)結(jié)與互動功效,讓虛擬角色從純粹的數(shù)字影像轉(zhuǎn)變成為具有生命力與情感共鳴的存在。圖3.2《哪吒2》在傳統(tǒng)動畫制作期間,角色的運動靠手動去調(diào)節(jié)骨骼的權(quán)重,而《哪吒2》開發(fā)了以深度學(xué)習(xí)為基礎(chǔ)的AI骨骼動力學(xué)系統(tǒng),該系統(tǒng)憑借學(xué)習(xí)300萬組武術(shù)動作數(shù)據(jù),可自動生成肌肉收縮以及皮膚褶皺的物理反饋,使角色的動態(tài)呈現(xiàn)更顯自然,處于哪吒騰空劈砍的時刻,AI實時算出胸鎖乳突肌的拉伸以及三角肌的收縮,還模擬汗液呈現(xiàn)出的表面張力,由此強化了生理上的真實感,呈現(xiàn)出更好的視覺體驗感。[[]李瑞璐,林婧.《哪吒2》百億票房背后的數(shù)字盛宴[N].人民郵電,2025-02-20(005).DOI:10.28659/ki.nrmyd.2025.000309.[]李瑞璐,林婧.《哪吒2》百億票房背后的數(shù)字盛宴[N].人民郵電,2025-02-20(005).DOI:10.28659/ki.nrmyd.2025.000309.AIGC技術(shù)生成的數(shù)字人不僅能呈現(xiàn)復(fù)雜的面部表情,還能模擬出極為協(xié)調(diào)的肢體動作,依靠動作捕捉與AI算法相結(jié)合,虛擬角色的肢體動作可以跟面部表情、語音、眼神等元素實現(xiàn)高度的契合同步,使角色的表現(xiàn)更為協(xié)調(diào)、流暢與自然。這種精準(zhǔn)的肢體動作與表情協(xié)作,讓虛擬角色的行為更具可信性,于是讓觀眾更方便地建立情感紐帶,進一步拉高觀影體驗的質(zhì)量,經(jīng)由優(yōu)化虛擬角色的情感表現(xiàn)與行為回應(yīng),AIGC技術(shù)不僅拉高了觀眾的沉浸感,也推動了虛擬角色與現(xiàn)實人物之間情感共鳴的加劇,進而在娛樂產(chǎn)業(yè)里開拓了新的創(chuàng)作與展現(xiàn)空間。第四章基于AIGC算法的數(shù)字人技術(shù)在電影中應(yīng)用的優(yōu)劣第一節(jié)優(yōu)勢分析一、降低成本遵照2.2.1里的說明,借助AIGC算法的數(shù)字人技術(shù),在電影制作里顯著提升了效率,且明顯降低了成本,由英國生成式AI企業(yè)Metaphysic推出的MetaphysicLive,可以按照演員的現(xiàn)場展示,立刻生成高分辨率又逼真的換臉和去老化效果,無需額外做合成以及視覺特效(VFX)處理,該技術(shù)會以30FPS速率流式傳輸AI生成的逼真內(nèi)容至現(xiàn)實場景里。在電影《Here》拍攝工作開展期間,MetaphysicLive讓現(xiàn)場演員的表演直接推動超真實的換臉及去老化效果,大幅壓縮制作周期,劇組同時開展對兩臺監(jiān)視器的監(jiān)看,一臺呈現(xiàn)演員原本樣子,另一臺展示符合場景需求的年齡模樣。Metaphysic依靠訓(xùn)練基于漢克斯和懷特既往影像數(shù)據(jù)的定制機器學(xué)習(xí)模型,開發(fā)出一套面部修改系統(tǒng),該系統(tǒng)擁有龐大的面部動作、皮膚紋理以及不同光照與拍攝角度下外觀的數(shù)據(jù)集,由此生成的模型可立刻完成面部變換,躲開了傳統(tǒng)CGI所依賴的數(shù)月人工后期制作方式。跟以往逐幀做調(diào)整的減齡技術(shù)不一樣,Metaphysic借助對面部特征點的分析,并把這些特征映射到訓(xùn)練好的年齡變化模型里面,實現(xiàn)瞬間變換成效,2019年《雙子殺手》電影采用類似技術(shù),經(jīng)過兩年時間才完成,展現(xiàn)出AI賦能電影制作的高效率。AIGC技術(shù)借助降低人工介入,極大縮短角色生成時長,傳統(tǒng)數(shù)字人制作借助復(fù)雜的手工建模及反復(fù)調(diào)校,而AIGC會自動生成面部特征、衣飾及動作,使角色創(chuàng)作的效率與精準(zhǔn)性增強,依托該技術(shù),制作團隊可在短期內(nèi)完成多個數(shù)字人角色的塑造,以貼合緊張的制作時長,AI生成的流程十分高效,不僅增進了生成質(zhì)量,降低人工差錯,還降低了返工跟調(diào)整的需求,進而切實把控生產(chǎn)成本。AIGC應(yīng)用并非只局限在角色建模上,還能在諸多方面對制作過程做優(yōu)化,借助深度學(xué)習(xí)跟大數(shù)據(jù)驅(qū)動的優(yōu)化算法,AIGC有本事自動調(diào)整光照、材質(zhì)以及動畫細(xì)節(jié),保證數(shù)字角色在不同場景的時候具備高度的真實感與表現(xiàn)力,此技術(shù)可迅速對不同拍攝條件的變動做出響應(yīng),自動對細(xì)節(jié)實施優(yōu)化,減少了人工對光影、材質(zhì)和動畫等多重方面的調(diào)整工作,極大提升了做事效率。AIGC憑借可擴展性能夠適應(yīng)多種影視題材的需求,不管是科幻領(lǐng)域、奇幻領(lǐng)域還是歷史題材,AIGC可依據(jù)不同敘事風(fēng)格迅速生成契合劇情要求的角色形象,科幻影視里的未來人類角色跟歷史戲劇里面的古代人物,均可在短時間內(nèi)借助調(diào)整參數(shù)和訓(xùn)練數(shù)據(jù)集生成,保證角色形象跟整體故事的風(fēng)格相統(tǒng)一,這種靈活性以及擴展性不僅讓制作效率提高,還極大地擴充了團隊在項目里的創(chuàng)作自由范圍,同時為各類影視制作給予了有力支撐。二、豐富藝術(shù)表現(xiàn)手段AIGC不光加快了電影工業(yè)化的技術(shù)升級,還為影視敘事內(nèi)容的多樣化發(fā)展給出了新想法,撐開了視聽語言構(gòu)建的創(chuàng)新空間尺度,創(chuàng)作者可沖破物理上可實現(xiàn)的限制和經(jīng)濟上可行的限制,依靠數(shù)字虛擬角色打造更繁雜多樣的角色與場景,為觀眾奉上新穎且逼真的視覺體驗,這種虛實混合的創(chuàng)作模式不僅增進了影視劇情的表現(xiàn)力,還切實提升了觀眾的參與度及沉浸感。圖4.1《蜘蛛俠:英雄無歸》章魚博士在漫威電影《蜘蛛俠:英雄無歸》(Spider-Man:NoWayHome)影片里,利用AI技術(shù)讓阿爾弗雷德·莫里納(飾演章魚博士)和威廉·達福(飾演綠魔)看上去更年輕,采用AI技術(shù),電影可讓演員的臉回到當(dāng)年飾演章魚博士時的情形,同時保證面部表情自然以及與動態(tài)光照相契合,與傳統(tǒng)CGI實施面部重塑相比,AI技術(shù)讓面部年輕化效果更真實,使觀眾更順暢地接受他依舊是2002年的綠魔,而并非一個“電腦拼湊合成”的角色。該技術(shù)不僅讓角色更貼合早期電影中的模樣,同時極大地擴大了電影的藝術(shù)表現(xiàn)范疇,跟化妝或傳統(tǒng)CG用來還原年輕形象可能產(chǎn)生的“違和感”比,AI憑借分析大量過去的影像數(shù)據(jù),精準(zhǔn)再現(xiàn)演員年輕時的五官、皺紋與動態(tài)表情,讓其與早期電影當(dāng)中的形象高度一致。AI換臉技術(shù)沖破了時間的束縛,讓過去和現(xiàn)在的角色得以共存,為電影敘事賦予更多可能性,同時還讓電影的藝術(shù)表現(xiàn)形式得到進一步拓展,它不僅提升了角色塑造的逼真程度,還為演員賦予更充裕的表演自由范疇,讓情感展現(xiàn)更為自然活潑,從而增進觀眾的沉浸體驗感。第二節(jié)局限性分析一、恐怖谷效應(yīng)1970年,由日本機器人科學(xué)家森政弘(MasahiroMori)提出了恐怖谷效應(yīng)(TheUncannyValleyEffect),即當(dāng)機器人、數(shù)字人的外貌與舉動逐漸逼近現(xiàn)實中的人類時,觀者的情感共鳴度剛開始會隨著相似度變大而增強。要是相似度達到某個臨界點以后,也就是當(dāng)虛擬形象已十分逼近真實人類,可還是存在細(xì)微不自然之處時,這些違和感會被進一步放大,造成觀者強烈的不適反應(yīng),甚至產(chǎn)生懼怕心理,該現(xiàn)象在機器人技術(shù)、計算機圖形學(xué)、虛擬現(xiàn)實以及電影特效領(lǐng)域普遍可見,影響著人工智能驅(qū)動的數(shù)字人角色和社交機器人在實際應(yīng)用中的被接納程度。[[]帥可.恐怖谷效應(yīng)下機器人動畫角色設(shè)計邊界研究[D].四川美術(shù)學(xué)院,2023.DOI:10.27344/ki.gscmc.2023.000170.[]帥可.恐怖谷效應(yīng)下機器人動畫角色設(shè)計邊界研究[D].四川美術(shù)學(xué)院,2023.DOI:10.27344/ki.gscmc.2023.000170.說到恐怖谷效應(yīng)的心理學(xué)機制,有的研究認(rèn)為它跟非人化的認(rèn)知過程緊密相關(guān),所謂非人化,是個體在對他人進行感知時弱化或否定其人性特征,此現(xiàn)象時常伴有厭惡情緒,有概率引發(fā)回避或排斥相關(guān)行為,從進化心理學(xué)的角度去分析,人類對生理異常的本能抗拒屬于適應(yīng)機制范疇,這種厭惡反應(yīng)可助力個體在進化過程里躲避潛在的生物威脅。而恐怖谷效應(yīng)說不定是此機制的延伸情形,即當(dāng)一個高度接近人類的對象在外觀或行為上呈現(xiàn)細(xì)微但顯著的不一致狀態(tài)時,觀者的大腦難以把該對象歸類為純粹人類或非人類,由此出現(xiàn)認(rèn)知上的沖突狀況,此現(xiàn)象體現(xiàn)出擬人化與非人化認(rèn)知之間的復(fù)雜相互影響:當(dāng)數(shù)字人的外觀及行為十分接近真實人類卻未完全契合時,觀者大概會在潛意識里將其歸類到“非人”范疇,進而激起本能性的抗拒或害怕反應(yīng)。[[]杜嚴(yán)勇.恐怖谷效應(yīng)探析[J].云南社會科學(xué),2020,(03):37-44+187.[]杜嚴(yán)勇.恐怖谷效應(yīng)探析[J].云南社會科學(xué),2020,(03):37-44+187.伴隨動作捕捉與面部捕捉技術(shù)不斷提升,虛擬角色的動態(tài)表現(xiàn)已然達到極高的精細(xì)級別,促使其在游戲、電影和社交媒體等領(lǐng)域被廣泛運用,即便采用最先進的AIGC技術(shù),在處理數(shù)字人的情感表達、肌肉運動以及肢體協(xié)調(diào)性時,也許會出現(xiàn)不易察覺卻影響體驗的小瑕疵,尤其是在復(fù)雜表情展現(xiàn)或微表情轉(zhuǎn)變方面更為明顯,這些細(xì)微的不自然現(xiàn)象成為恐怖谷效應(yīng)的關(guān)鍵誘發(fā)點,造成數(shù)字人在某些情境下還是難以得到完全的認(rèn)同,如何打破這一心理壁壘,讓數(shù)字人形象更自然可信,依舊是人工智能、計算機圖形學(xué)和交互設(shè)計領(lǐng)域的關(guān)鍵研究方向。二、成本與資源局限性AIGC技術(shù)極度依賴高性能硬件設(shè)備(像GPU集群這樣的)和專業(yè)軟件工具,這為中小型企業(yè)和個人開發(fā)者構(gòu)成了明顯挑戰(zhàn),在大規(guī)模渲染或是復(fù)雜計算任務(wù)的階段里,硬件性能直接掌控著生產(chǎn)效率與輸出質(zhì)量,尤其是在實時渲染的范疇內(nèi),高質(zhì)量的渲染不光需要強勁的硬件支撐,還牽扯復(fù)雜的光照模擬、物理效果計算以及高精度模型處理,這些因素說不定會引起計算性能瓶頸,引發(fā)延遲問題或幀率出現(xiàn)下降。其制作成本高昂得很,在建模、渲染、動作捕捉以及人工智能訓(xùn)練等多個環(huán)節(jié)皆有體現(xiàn),高精度動作捕捉設(shè)備、3D掃描儀,以及用于精細(xì)渲染和數(shù)據(jù)處理的高性能計算硬件,費用極為高昂,比如精細(xì)的動畫構(gòu)建、面部表情的調(diào)整完善以及AI訓(xùn)練對計算資源的消耗極多。為了降低中小微企業(yè)和個人開發(fā)者的壓力,行業(yè)應(yīng)探索出更高效的解決途徑,采用優(yōu)化算法削減計算資源消耗,也可利用云計算平臺給出分布式渲染服務(wù),以此降低對本地硬件性能的依賴度,還能開發(fā)性價比更高的動作捕捉設(shè)備以及簡化工作流程的工具。三、倫理與社會問題人工智能生成內(nèi)容(AIGC)時代的藝術(shù)創(chuàng)作呈現(xiàn)出跟傳統(tǒng)數(shù)字化藝術(shù)大不相同的特征,包含智能化制造、高效產(chǎn)出、內(nèi)容多樣、個性化定制以及隨機創(chuàng)作等特點,這個新興領(lǐng)域還面臨著嚴(yán)峻的隱私跟數(shù)據(jù)安全挑戰(zhàn),在數(shù)字人創(chuàng)作的過程里,一般要采集真實人類的面部特征、肢體動作以及語音數(shù)據(jù),該過程存在個人信息泄露與不規(guī)范運用的風(fēng)險,包含但不限于偽造證據(jù)、網(wǎng)絡(luò)詐騙這類違法活動。從法律的層面考量,數(shù)字人技術(shù)存在復(fù)雜的權(quán)益方面問題,當(dāng)數(shù)字人借鑒真實人物的外貌特征及語音時,說不定會引發(fā)肖像權(quán)、聲音權(quán)以及知識產(chǎn)權(quán)等方面的爭端,要把這些法律問題解決,得建立新的規(guī)范體系,就社會接納的角度而言,數(shù)字人技術(shù)面臨文化差異與心理障礙的雙重難題。因為語言表達、面部表情以及行為方式方面存在文化差異,各地區(qū)對數(shù)字人的接受程度也許存在明顯差異,有一部分人對高度擬人化的數(shù)字人呈現(xiàn)出明顯抵觸情緒,尤其是在情感交流或替代人類角色的應(yīng)用場景里,這種心理上的不適或許會對技術(shù)的推廣與應(yīng)用成效產(chǎn)生影響,技術(shù)發(fā)展與應(yīng)用推廣過程中,需要充分考慮這些社會心理因素。需要明確人工智能在藝術(shù)范疇的應(yīng)用邊界,尤其涉及數(shù)字人形象和聲音的所有權(quán)跟使用權(quán)問題,需在對社會倫理和人類價值予以尊重的基礎(chǔ)上,明確人工智能設(shè)計者、藝術(shù)工作者、使用者以及政府機構(gòu)等各方的道德義務(wù),防止出現(xiàn)倫理方面的偏差。應(yīng)加快藝術(shù)行業(yè)在科技倫理政策上的創(chuàng)新,確定人工智能藝術(shù)的合理應(yīng)用范疇及倫理禁區(qū),應(yīng)借助打造良好的創(chuàng)意生態(tài),充分挖掘創(chuàng)意階層的主體性價值,動態(tài)把控人工智能藝術(shù)的人文倫理邊界,依托文化本位根基,推動機器智能走向人文化,服務(wù)于人類的幸福。[[]解學(xué)芳,林舒原.AIGC時代人工智能藝術(shù)創(chuàng)新機理與AI價值對齊[J].數(shù)字文化產(chǎn)業(yè)研究,2024,(01):3-25+2.[]解學(xué)芳,林舒原.AIGC時代人工智能藝術(shù)創(chuàng)新機理與AI價值對齊[J].數(shù)字文化產(chǎn)業(yè)研究,2024,(01):3-25+2.第五章未來發(fā)展與展望第一節(jié)技術(shù)發(fā)展方向處于數(shù)字人技術(shù)的不斷演進里,提升精度成為核心研究方向,采用更大體量的數(shù)據(jù)訓(xùn)練和更領(lǐng)先的算法優(yōu)化,數(shù)字人生成的真實程度得到明顯提高,大規(guī)模數(shù)據(jù)訓(xùn)練使模型得以從更繁雜多樣的樣本中學(xué)習(xí),從而更精準(zhǔn)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年氣候類型判斷中的電商直播碳優(yōu)化
- 基于大數(shù)據(jù)的藥物療效評估
- 2025年中國眼科醫(yī)療行業(yè)市場研究報告 碩遠(yuǎn)咨詢
- 2026 年中職掘進技術(shù)(隧道開挖)試題及答案
- 維修電工試題及答案
- 城市軌道交通給排水系統(tǒng)及檢修課件 第1講 給排水系統(tǒng)概述
- 朝鮮高考中文試卷及答案
- 茶藝師理論測試題及答案
- 美術(shù)批發(fā)合同范本
- 做止水鋼板合同范本
- 統(tǒng)編人教版二年級道德與法治上冊《第15課 紅紅火火中國年》第1課時公開課教學(xué)課件
- 貴州省黔西南州金成實驗學(xué)校2024-2025學(xué)年九年級上學(xué)期期末檢測物理試題(無答案)
- 2025年P(guān)ython二級考試實戰(zhàn)模擬試題卷 精講精練版
- 營配調(diào)業(yè)務(wù)知識培訓(xùn)課件
- 墨盒培訓(xùn)知識課件
- 屠宰場安全生產(chǎn)知識培訓(xùn)課件
- 奧地利介紹模板
- 數(shù)據(jù)清洗規(guī)范
- 石油管道巡護安全培訓(xùn)課件
- T/ZSSP 0005-2022方便食品(速食湯、羹)
- 2025年中國特價式洗車機數(shù)據(jù)監(jiān)測報告
評論
0/150
提交評論