浙商ZQAIGC算力時代系列報告:未來已來AI如何賦能傳媒行業(yè)_第1頁
浙商ZQAIGC算力時代系列報告:未來已來AI如何賦能傳媒行業(yè)_第2頁
浙商ZQAIGC算力時代系列報告:未來已來AI如何賦能傳媒行業(yè)_第3頁
浙商ZQAIGC算力時代系列報告:未來已來AI如何賦能傳媒行業(yè)_第4頁
浙商ZQAIGC算力時代系列報告:未來已來AI如何賦能傳媒行業(yè)_第5頁
已閱讀5頁,還剩61頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

分析師郵箱

電話證書編號 S1230522010001——AIGC算力時代系列報告行業(yè)評級:看好2023年3月11日未來已來,AI如何賦能傳媒行業(yè)證券研究報告1、ChatGPT火爆的背后:算法革新+算力支持+數(shù)據(jù)共振ChatGPT引起全球熱烈反響,上線僅五天用戶突破百萬,ChatGPT在文本交互和語言理解方面能力的顯著進步或為通用人工智能的實現(xiàn)帶來曙光。究其先進性根本,ChatGPT在以往基礎(chǔ)上推進算法革新優(yōu)化,輔以強大算力支持,并以大規(guī)模數(shù)據(jù)共振,協(xié)同助推這一劃時代產(chǎn)品誕生。OpenAI以B端提供API接口流量+C端訂閱收費模式,探索ChatGPT商業(yè)化路徑。展望未來AI將橫縱向并行,結(jié)合技術(shù)深化與能力邊界拓展,進一步鋪開應(yīng)用面。2、數(shù)字內(nèi)容生產(chǎn)新方式——AIGCAIGC的興起推動人類叩響強人工智能之門,可應(yīng)用于文本、音頻、圖片、視頻、跨模態(tài)、策略生成等,有望開啟新一輪內(nèi)容生產(chǎn)力革命。隨著Transformer、Diffusion

Model等算力模型的迭代,推動AIGC在設(shè)計、內(nèi)容創(chuàng)作、游戲智能、機器交互等領(lǐng)域?qū)崿F(xiàn)降本增效。3、新時代生產(chǎn)力工具,AIGC賦能內(nèi)容生產(chǎn)基于AI生成內(nèi)容技術(shù),AIGC已在游戲、廣告營銷、影視、媒體、互聯(lián)網(wǎng)、娛樂等領(lǐng)域初顯成效,并展現(xiàn)出較大的潛力。AIGC將推動游戲生產(chǎn)范式升級,并豐富游戲資產(chǎn)生成,高效輔助游戲測試,使制作成本顯著降低,全流程賦能游戲買量;AIGC貫穿廣告營銷全流程,將優(yōu)化案頭工作環(huán)節(jié),提供更專業(yè)的個性化營銷方案,并充實廣告素材,實現(xiàn)廣告自動化生成;AIGC提升影視行業(yè)全管線效率。影視劇本創(chuàng)作已初見成效,多AI技術(shù)將助力電影中期拍攝,后期制作將更快完成;AIGC帶給媒體行業(yè)人機協(xié)作方案。新聞寫作編排效率提升,傳媒向智媒轉(zhuǎn)向開啟新篇章;AIGC提供互聯(lián)網(wǎng)行業(yè)豐富內(nèi)容,和更便捷的服務(wù)。ChatGPT賦能智慧搜索,互為供給加速發(fā)展內(nèi)容平臺發(fā)展,虛擬結(jié)合激發(fā)電商沉浸式體驗;AIGC為娛樂行業(yè)提供了更多樣的體驗。人際交互娛樂邁入新臺階,AIGC或成元宇宙之匙。2報告摘要31、AI核心技術(shù)和AIGC技術(shù)發(fā)展不及預期風險。AIGC相關(guān)產(chǎn)業(yè)技術(shù)發(fā)展仍不成熟,技術(shù)壁壘較高,核心技術(shù)難以突破。2、版權(quán)相關(guān)風險。

AIGC生成的內(nèi)容依賴現(xiàn)有版權(quán)素材,不當使用或模型自身問題可能導致不良后果;3、人權(quán)道德風險。AI可能會生產(chǎn)違反道德、常規(guī)、法律等內(nèi)容;4、行業(yè)競爭加劇風險。若相關(guān)企業(yè)加快技術(shù)迭代和應(yīng)用布局,整體行業(yè)競爭程度加劇,將會對目前行業(yè)內(nèi)企業(yè)的增長產(chǎn)生威脅;5、宏觀經(jīng)濟波動的風險。若宏觀經(jīng)濟景氣度下行,將影響消費者消費意愿和產(chǎn)業(yè)鏈生產(chǎn)意愿,AIGC技術(shù)應(yīng)用落地將會受限;6、政策監(jiān)管風險;7、用戶需求不及預期;8、技術(shù)壟斷風險。風險提示目錄C

O

N

T

E

N

T

SChatGPT火爆的背后:算法革新+算力支持+數(shù)據(jù)共振0103新時代生產(chǎn)力工具,AIGC賦能內(nèi)容生產(chǎn)02數(shù)字內(nèi)容生產(chǎn)新方式——AIGC404風險提示015ChatGPT火爆的背后算法革新+算力支持+數(shù)據(jù)共振1.1 ChatGPT火爆全球,成為現(xiàn)象級互聯(lián)網(wǎng)產(chǎn)品數(shù)據(jù)來源:OpenAI官網(wǎng)、Statista、機器之心Pro、浙商證券研究所6ChatGPT是一個由OpenAI開發(fā)的大型語言模型,它使用自然語言處理和深度學習技術(shù),可以理解語言內(nèi)容和語境,能夠承認錯誤、挑戰(zhàn)不正確的前提、拒絕不適當?shù)恼埱?,通過生成自然語言文本的形式與用戶交互,從而能夠應(yīng)用于各種語言任務(wù)和應(yīng)用。2015年,Elon

Musk、Sam

Altman、Peter

Thiel等投資10

億美元,創(chuàng)立OpenAI2017年,谷歌大腦推出生成式預訓練Transformer模型2018-2020年,OpenAI依次推出GPT-1/GPT-2/GPT-3等自然語言處理模型2022年11月30日,

OpenAI推出在GPT-3.5模型基礎(chǔ)上微調(diào)后得到的ChatGPT模型2023年2月7日,

微軟推出由ChatGPT支持的AI搜索引擎Bing和Edge瀏覽器ChatGPT上線僅5天后,用戶數(shù)突破百萬相較于其他互聯(lián)網(wǎng)APP及服務(wù),ChatGPT用戶規(guī)模爆發(fā)式增長,迅速出圈并在全球各地引起熱烈討論。ChatGPT僅5天就達成百萬用戶,為歷史上最快突破百萬用戶的應(yīng)用。ChatGPT上線2個月后,月活用戶達1億,為歷史上用戶增長最快的消費應(yīng)用。3.5年2.5年2年5天2.5個月5個月7個月10個月ChatGPTInstagramSpotifyDropboxFacebookTwitter

Airbnb

Netflix各項服務(wù)突破百萬用戶時間1.2 從AlphaGo到ChatGPT,AI技術(shù)發(fā)展叩響AGI之門數(shù)據(jù)來源:DeepMind、CSDN、浙商證券研究所ChatGPT文本交互能力更上一個臺階。ChatGPT在文字創(chuàng)作與語言交互等方面的能力令人驚喜,一定程度上實現(xiàn)了人類同等能力,提升讀寫效率,逐漸向AIGC靠近?;驗锳GI實現(xiàn)帶來曙光。雖然在大量用戶體驗下ChatGPT仍暴露出部分反饋偏差問題,但驗證了基于大

型語言模型(LLM)實現(xiàn)AGI具有可能性,重塑AI發(fā)展前景。7圍棋高手AlphaGo引發(fā)AI狂潮AlphaGo喚起AGI暢想。AlphaGo的成功使市場對AI

技術(shù)產(chǎn)生空前期待,預想AI將由專用人工智能(ANI)走向通用人工智能(AGI),實現(xiàn)人類同等能力的任務(wù)執(zhí)行。AGI遇技術(shù)難關(guān),發(fā)展相對停滯。隨后幾年間面向AGI

的應(yīng)用和底層技術(shù)的發(fā)展不盡如人意,遇數(shù)據(jù)、能耗、語義理解、可解釋性等瓶頸,技術(shù)未出現(xiàn)明顯突破。語言智能ChatGPT備受市場矚目1.3 解密ChatGPT(1/2):算法優(yōu)化,助力GPT模型革新數(shù)據(jù)來源:CSDN、OpenAI官網(wǎng)、浙商證券研究所82017年Transformer架構(gòu)提出2018年 2022年OpenAI推出GPT模型

ChatGPT推出二十世紀初RNN、CNN等算法迅速發(fā)展1956年機器學習概念提出從數(shù)據(jù)集中隨機抽取問題,由工程師對預期的輸出結(jié)果進行標注,以此在GPT-3.5基礎(chǔ)上對模型進行微調(diào)。從微調(diào)后的模型中隨機抽取問題并生成幾個輸出結(jié)果,由工程師對結(jié)果按質(zhì)量從高到低排序,將排序后的結(jié)果用于獎勵模型訓練。通過獎勵模型產(chǎn)生最優(yōu)的輸出結(jié)果后,將該結(jié)果對模型參數(shù)進行迭代與優(yōu)化,并不斷循環(huán)反復這一過程,最終得到高質(zhì)量的ChatGPT模型。獎勵模型近端策略優(yōu)化PPO強化學習基于RLHF的算法訓練監(jiān)督策略模型推理能力的引入在基于大量代碼訓練構(gòu)建的Codex模型上引入了推理能力綜合來看,Transformer不論是在執(zhí)行任務(wù)能力還是運行速度上,均是更好的選擇應(yīng)用基于人類反饋強化學習模式三步法訓練模型RNNCNN傳統(tǒng)模型Transformer架構(gòu)的優(yōu)勢RNN采用從前往后收集信息的線性序列結(jié)構(gòu),導致在大規(guī)模并行下的計算能力不足;Transformer架構(gòu)不存在序列依賴,使其在大規(guī)模并行計算下的能力明顯優(yōu)于RNN。CNN模型通過卷積層捕獲遠距離特征,受卷積核限制;Transformer應(yīng)用位置函數(shù)進行編碼,從而在集成信息過程中自然地建立單詞間的聯(lián)系,長距離特征捕獲能力更強。Transformer架構(gòu)Transformer架構(gòu)由谷歌于2017年提出,架構(gòu)核心為Self-Attention自注意力機制1.3 解密ChatGPT(2/2):算力支撐+數(shù)據(jù)共振,實現(xiàn)交互革命數(shù)據(jù)來源:CSDN、浙商證券研究所Azure算力支持2019年,微軟與OpenAI達成合作,由Azure為OpenAI提供訓練及使用所需的算力。研究顯示,模型表現(xiàn)會隨著規(guī)模的擴大而增長,且存在涌現(xiàn)能力(emergentabilities)?;谀P托Ч枨蟮纫蛩?,

OpenAI在對GPT模型的升級過程中,涉及參數(shù)量和預訓練數(shù)據(jù)量均爆發(fā)式增長,Azure的算力支持是GPT模型不斷完善的重要支撐之一。在OpenAI不斷更新GPT模型最終產(chǎn)出ChatGPT的過程中,強大的算力發(fā)布時間參數(shù)量預訓練數(shù)據(jù)量支持功不可沒GPT-12018年6月1.17億5GBGPT-22019年2月15億40GBGPT-32020年5月1750億45TB數(shù)據(jù)集的優(yōu)化單一大模型下的模型訓練效率與成本效益更強訓練ChatGPT模型的數(shù)據(jù)集更新至2021年,主要來自于維基百科、書籍、期刊、Reddit鏈接、Common

Crawl等渠道,預計數(shù)據(jù)量總規(guī)模達到45TB,大規(guī)模訓練數(shù)據(jù)集使模型能力得到顯著提升。根據(jù)ChatGPT的訓練原理,模型訓練數(shù)據(jù)集絕大多數(shù)來自非標注數(shù)據(jù),并由工程師輔以少部分微調(diào)的形式開展,較傳統(tǒng)標注數(shù)據(jù)為主的訓練模式的通用性更強,對工程師介入標注的要求更低,使模型訓練的效率更強。ChatGPT先進性9具備上下文理解能力,交互更流暢能夠承認錯誤、挑戰(zhàn)不正確的前提可以拒絕用戶的不適當請求模型訓練效率提高回答更人性化、貼近人類價值觀反饋準確性提升訓練模式更具通用性,經(jīng)濟效益增強1.4 OpenAI商業(yè)化探索,B端流量收費與C端訂閱收費并行數(shù)據(jù)來源:OpenAI官網(wǎng)、浙商證券研究所10B端:提供API接口實施流量收費OpenAI向用戶提供語言、圖像、音頻等不同類型模型的API接口,通過用戶使用模型的流量收費。其中ChatGPT對應(yīng)API由其背后的AI模型gpt-3.5-turbo提供支持。此外,OpenAI還向用戶提供嵌入模型和微調(diào)模型,支持用戶根據(jù)自定義需求進行模型定制。C端:提供產(chǎn)品訂閱服務(wù)收取費用OpenAI于2023年2月新推出ChatGPT

Plus版本,對該版本的使用者收取20美元/月的訂閱費用。ChatGPT

Plus版本較免費公開使用的ChatGPT模型具有更快的響應(yīng)速度,在應(yīng)用高峰期能更順暢的使用模型,且訂閱者能夠優(yōu)先使用新功能,以向ChatGPT模型的深度用戶提供更快捷的服務(wù)。功能應(yīng)用模型API模型價格(美元)功能API模型價格(美元)語言模型ChatGPTgpt-3.5-turbo0.002/千字符圖像模型1024×10240.02/圖InstructGPTAda0.0004/千字符512×5120.018/圖Babbage0.0005/千字符256×2560.016/圖Curie0.002/千字符音頻模型Whisper0.006/分鐘Davinci0.02/千字符嵌入模型Ada0.0004/千字符功能API模型訓練價格(美元)使用價格(美元)微調(diào)模型Ada0.0004/千字符0.0016/千字符Babbage0.0006/千字符0.0024/千字符Curie0.003/千字符0.012/千字符Davinci0.03/千字符0.12/千字符1.5 發(fā)展展望:縱向加深AI能力,橫向拓展能力邊界數(shù)據(jù)來源:CSDN、量子位、浙商證券研究所11算力ChatGPT依托微軟Azure

AI超算基礎(chǔ)設(shè)施,憑借參數(shù)量的提升帶來了模型性能的明顯增長。隨著算力設(shè)施建設(shè)規(guī)模的擴大和算力承載量的增長,或?qū)⑦M一步提升模型質(zhì)量。橫向:推動AIGC多模態(tài)技術(shù)場景發(fā)展文本生成音頻生成圖像生成視頻生成圖像、視頻、文本跨模態(tài)生成策略生成GameAI虛擬人生成ChatGPT為AIGC在文本模態(tài)下的產(chǎn)物,證明了AIGC應(yīng)用落地的可行性與先進性,或?qū)⒋呱嗟膽?yīng)用需求。ChatGPT熱烈的市場反應(yīng)以及商業(yè)收益或?qū)⒊蔀锳I行業(yè)公司大力發(fā)展其他模態(tài)的重要激勵與契機??v向:促進ChatGPT及其原模型的深化發(fā)展數(shù)據(jù)ChatGPT的訓練數(shù)據(jù)集信息更新截止2021年,隨著信息的不斷產(chǎn)生以及大量用戶的使用,模型可應(yīng)用的數(shù)據(jù)集規(guī)模進一步擴張,或?qū)⒋偈笴hatGPT的反饋更貼近實際。算法ChatGPT模型基于RLHF的預訓練機制,但仍存在輸出不良或虛假信息的現(xiàn)象,且其提供的信息也存在一定的滯后性。隨著算法的優(yōu)化改進,或?qū)⑦M一步提升模型反饋的準確性和時效性,或是簡化模型的訓練過程從而提升模型效率。0212數(shù)字內(nèi)容生產(chǎn)新方式AIGCAIGC叩響認知智能之門,向強人工智能時代邁進一步213計算智能感知智能特點機器具備超強的存儲能力和超快的計算能力,可以基于海量數(shù)據(jù)進行深度學習,利用歷史經(jīng)驗指導當前環(huán)境。人工智能發(fā)展脈絡(luò)使機器具備視覺、聽覺、觸覺等感知 機器具有主動思考和理解的能力,不能力,可以將非結(jié)構(gòu)化的數(shù)據(jù)結(jié)構(gòu)化,

用人類事先編程就可以實現(xiàn)自我學習,

并用人類的溝通方式與用戶互動。 有目的推理并與人類自然交互。2016年Google旗下Deepmind公司的AlphaGo機器人(基于深度學習)大勝世界圍棋冠軍李世石。電商平臺基于對

用戶購買習慣的

深度學習,進行

個性化商品推薦。無人駕駛是基于道路檢測、交通標志識別、車輛跟蹤、行為分析和場景理解的感知智能應(yīng)用。波士頓機器狗Big

Dog是深度利用DNN技術(shù)的感知智能機器人。AIGC意味著AI開始在現(xiàn)實內(nèi)容中承擔新角色,叩開“認知智能”之門以ChatGPT為代表,利用Transformer模型進行大規(guī)模預訓練與無監(jiān)督學習,提升與人類互動水準。數(shù)據(jù)來源:知萌咨詢、浙商證券研究所弱人工智能強人工智能認知智能AIGC典型事件AIGC——由技術(shù)驅(qū)動的數(shù)字內(nèi)容生產(chǎn)新方式內(nèi)容消費體驗2內(nèi)容生產(chǎn)總量PGC

:

Professionally-

Generated

Content內(nèi)容生產(chǎn)總量較低單人/多人專業(yè)體驗舉例:長視頻專家生成內(nèi)容用戶生成內(nèi)容UGC

:

User-Generated

Content內(nèi)容生產(chǎn)總量變多小規(guī)模多人交互舉例:小紅書、微博AI輔助生成內(nèi)容AI生成內(nèi)容AIUGC

:

AI-assisted

Generated

Content內(nèi)容生產(chǎn)總量大大規(guī)模沉浸交互舉例:語音轉(zhuǎn)文字協(xié)助紀要生成、百家號TTV協(xié)助新聞圖文生成視頻AIGC

:

AI-Generated

Content內(nèi)容生產(chǎn)總量巨大元宇宙式體驗舉例:ChatGPT、AI繪畫、AI生成視頻等人工智能技術(shù)驅(qū)動下,數(shù)字內(nèi)容生產(chǎn)方式向更高效邁進數(shù)據(jù)來源:浙商證券研究所14AIGC:產(chǎn)業(yè)鏈逐步形成,玩家百花齊放,商業(yè)模式持續(xù)探索以ChatGPT為代表的AIGC行業(yè),上游主要包括數(shù)據(jù)供給方、算法/模型機構(gòu)、創(chuàng)作者生態(tài)以及底層配合工具等,中游主要包括文字、圖像、音頻、視頻等數(shù)字內(nèi)容的處理加工方,下游主要是各類數(shù)字內(nèi)容分發(fā)平臺、消費方及相關(guān)服務(wù)機構(gòu)等。上游中游下游數(shù)據(jù)供給方(業(yè)務(wù)數(shù)據(jù)聯(lián)通、素材數(shù)據(jù)收集等,如第三方營銷公司、版權(quán)圖庫方等)數(shù)據(jù)分析及標注創(chuàng)作者生態(tài)生物資產(chǎn)及內(nèi)容素材底層配合工具渲染引擎、混音設(shè)備等相關(guān)算法/模型研究機構(gòu)相關(guān)開源算法嵌入/結(jié)合能力的業(yè)務(wù)平臺/業(yè)務(wù)生態(tài)個性化市場營銷廣告植入、品牌虛擬形象打造、營銷內(nèi)容生成等自動實時交互數(shù)據(jù)梳理內(nèi)外部數(shù)據(jù)分析及更新、數(shù)據(jù)分析及算法訓練運營增效智能客服、簡單決策等周邊售賣NFT、個性化產(chǎn)品等內(nèi)容制作工具音頻/視頻編輯工具、新聞采編、游戲制作等內(nèi)容設(shè)計視覺設(shè)計、文案設(shè)計、結(jié)構(gòu)設(shè)計等各內(nèi)容創(chuàng)作及分發(fā)平臺基于AICG激發(fā)PGC及UGC活力第三方分發(fā)渠道內(nèi)容終端生產(chǎn)廠商新聞媒體機構(gòu)、金融機構(gòu)等消費品廠商AIGC內(nèi)容檢測第三方內(nèi)容服務(wù)機構(gòu)MCN公司、公關(guān)公司等2數(shù)據(jù)來源:量子位、浙商證券研究所15按技術(shù)場景,AIGC內(nèi)容可分為文本、音頻、圖像、視頻等2按技術(shù)場景劃分AIGC內(nèi)容分為文本生成圖像生成音頻生成視頻生成跨模態(tài)生成策略生成Game

AI虛擬人生成數(shù)據(jù)來源:量子位、浙商證券研究所162.1 文本生成:NLP重要任務(wù)標之一,神經(jīng)網(wǎng)絡(luò)生成法為主流趨勢文本生成(Text

Generation)是自然語言處理(NLP)的重要任務(wù)之一,從非語言的表示生成人類可以理解的文本,文本→文本、數(shù)據(jù)→文本都是文本生成任務(wù)關(guān)注的。17傳統(tǒng)文本生成方法數(shù)據(jù)來源:CSDN、浙商證券研究所神經(jīng)網(wǎng)絡(luò)文本生成方法基于規(guī)則基于統(tǒng)計Data

AnalysisData

InterpretationDocument

PlanningMicroplanningRealisation基于卷積神經(jīng)網(wǎng)絡(luò)CNN的語言生成模型基于遞歸神經(jīng)網(wǎng)絡(luò)RNN的語言生成模型基于Transformer的語言生成模型基于生成神經(jīng)對抗網(wǎng)絡(luò)GAN的語言生成模型基于圖卷積神經(jīng)網(wǎng)絡(luò)GCN的語言生成模型InputOutputHidden2.1 文本生成:Transformer架構(gòu)實現(xiàn)并行處理,提升模型訓練效率RNN架構(gòu)局限在于無法并行運算。RNN計算是有時序依賴的,需要用到前一個時間步或者后一個時間步的信息,這導致它難以并行計算,只能串行計算。GPU的并行化能夠大大加速計算過程,如果模型不能夠并行計算,會導致運算速度很低。Transformer架構(gòu)引入Self-attention自注意力機制可取代RNN。2017年,Google發(fā)布《Attention

is

All

You

Need》Transformer模型通過采用Self-Attention

自注意力機制,完全拋棄了傳統(tǒng)RNN在水平方向的傳播,只在垂直方向上傳播,只需要不斷疊加Self-Attention層即可。這樣,每一層的計算都可以并行進行,可以使用GPU進行加速。Seif-Attention自注意力機制結(jié)構(gòu) Transformer整體結(jié)構(gòu)18數(shù)據(jù)來源:CSDN、arXiv、浙商證券研究所Encoder編碼器Decoder解碼器2.1 文本生成:或為AIGC率先應(yīng)用模態(tài),發(fā)展階段成熟于其他19數(shù)據(jù)來源:量子位、浙商證券研究所文本生成類型特色落地場景發(fā)展現(xiàn)狀未來展望代表性公司結(jié)構(gòu)化文本生成基于結(jié)構(gòu)化數(shù)據(jù)或規(guī)范格式,在特定情景類型下的文本生成,生成內(nèi)容有較強規(guī)律。新聞寫作、公司財報撰寫、客服類問答等領(lǐng)域為文本生成最早的產(chǎn)生分類,應(yīng)用廣泛且技術(shù)趨于成熟??纱娌糠州^機械化的人工寫作AutomatedInsights、NarrativeScience、textengine.io、Yseop、Arria、Retresco、瀾舟科技等非結(jié)構(gòu)化文本生成具有更高的文本開放度和自由度,需要一定的創(chuàng)意和個性化,生成內(nèi)容創(chuàng)意性更強。營銷文本和劇情創(chuàng)作等領(lǐng)域底層原理明確,發(fā)展

技術(shù)有待提升。長篇

文字在內(nèi)部邏輯上仍

然有較明顯問題,且

生成內(nèi)容穩(wěn)定性不足。未來4-5年,會出現(xiàn)較優(yōu)的長文本內(nèi)容Anyword、Phrasee、Persado、Copy.ai、Friday.ai、Retresco、Conversion.ai、Jasper

AI、Snazzy

AI、彩云小夢等交互性文本生成擁有社交屬性,對NLP處理要求更高,生成內(nèi)容需有上下文邏輯對應(yīng)。虛擬伴侶、NPC互動等領(lǐng)域處于發(fā)展初期,缺乏人倫道德感,感知力不足。以ChatGPT為革命點,1-2年會有較大發(fā)展突破小冰公司、聆心智能、Latitude.io、OpenAI

等2.2 音頻生成:TTS應(yīng)用發(fā)展成熟,AI樂曲創(chuàng)作未來可期音頻生成主要應(yīng)用于流行歌曲、樂曲、有聲書的內(nèi)容創(chuàng)作,以及視頻、游戲、影視等領(lǐng)域的配樂創(chuàng)作,目前在眾多場景已獲初步發(fā)展,在部分場景已廣泛應(yīng)用、趨于成熟。常見音頻生成中,TTS文字轉(zhuǎn)語音是最普遍使用的落地應(yīng)用,而創(chuàng)意性音頻生成有助于激發(fā)創(chuàng)作者靈感,促進樂曲二創(chuàng)、輔助編曲。常見AI音頻生成ASR語音轉(zhuǎn)文字VPR聲紋識別TTS文字轉(zhuǎn)語音通過一個模型把文字轉(zhuǎn)為語技 音的特征向量,比如MFCC,術(shù) 或者基頻、頻譜包絡(luò)、能量原 等特征組合的形式,然后再理 使用聲碼器(Vocoder)把語音特征轉(zhuǎn)換為音頻信號。智能客服、有聲讀物制作、語音播報、自媒體配音、導航播報等進步空間通過富文本信息更好表現(xiàn)語調(diào)的抑揚頓挫基于用戶較少的個性化數(shù)據(jù)得到整體的復制能力創(chuàng)意AI音頻生成樂/曲歌曲生成AI作曲AI編曲人聲錄制技 AI作曲:以語言模型為中介,對音樂數(shù)據(jù)進行雙向轉(zhuǎn)化術(shù) AI編曲:基于主旋律和創(chuàng)作者個人偏好,生成不同樂器原 對應(yīng)和弦,完成整體編配理 人聲錄制:通過端到端的聲學模型和神經(jīng)聲碼器完成進步空間弦略有突兀音樂創(chuàng)作基于前人數(shù)據(jù)分析而得,難以生成全新曲風音樂數(shù)據(jù)標注困難數(shù)據(jù)來源:CSDN、量子位、浙商證券研究所文字轉(zhuǎn)語音應(yīng)用基本成熟,關(guān)鍵突破在于如何使語調(diào)更有情緒以樂曲二創(chuàng)、輔助編曲為代表,AI樂曲創(chuàng)作將在音頻生產(chǎn)領(lǐng)域快速發(fā)展旋律走向過于隨機,部分和202.3 圖像生成:從GAN到Diffusion,技術(shù)持續(xù)迭代,能力更進一竿21數(shù)據(jù)來源:CSDN、arXiv、量子位、浙商證券研究所圖像生成傳統(tǒng)主流模型———GAN生成式對抗網(wǎng)絡(luò) 圖像生成新一代主流模型———Diffusion擴散模型生成式對抗網(wǎng)絡(luò)(GAN)的提出標志著AIGC圖像生成可實現(xiàn),進入快速發(fā)展階段。GAN由生成器和判別器兩部分組成,生成器將抓取數(shù)據(jù)、產(chǎn)生新的生成數(shù)據(jù),并將其混入原始數(shù)據(jù)中送交判別器區(qū)分。這一過程將反復進行,直到判別器無法以超50%的準確度分辨出真實樣本。GG(z)DZX隨機噪聲Z通過隨機噪聲生成的圖片G(z)真實數(shù)據(jù)XTure\Fake2014原始GANGAN的訓練是個動態(tài)的過程,是生成器G與判別器D兩者之間的相互博弈過程。生成器G 判別器D2015CGAN 2016VAEGAN 2017ACGAN 2018StyleGAN相較于2014年初現(xiàn)期,現(xiàn)有的GAN在神經(jīng)網(wǎng)絡(luò)架構(gòu)、損失函數(shù)設(shè)計、模型訓練穩(wěn)定性、模型崩潰問題上取得了相應(yīng)突破,提升了最終圖像的特定細節(jié)、內(nèi)在邏輯、生成速度等。GAN進步空間解決訓練不穩(wěn)定問題緩解GAN的模式坍塌model

collapse,即生成樣本大量重復相似GAN的結(jié)構(gòu)改善GAN可模仿“知識蒸餾”模型進行需求壓縮基于GAN的圖像翻譯(左圖為input,右圖為output)2.3 圖像生成:從GAN到Diffusion,技術(shù)持續(xù)迭代,能力更進一竿22數(shù)據(jù)來源:CSDN、

量子位、浙商證券研究所圖像生成傳統(tǒng)主流模型———GAN生成式對抗網(wǎng)絡(luò) 圖像生成新一代主流模型———Diffusion擴散模型擴散模型(Diffusion

Model)成為圖像生成領(lǐng)域的重要發(fā)現(xiàn),有望超越GAN,成為新一代圖像生成主流模型。DiffusionModel在2015年被提出,于2020年在Denoising

Diffusion

Probabilistic

Models研究中名聲大噪,目前Google的Imagine與OpenAI的DALL·E2等熱門圖像生成軟件都基于此模型。Diffusion

Model簡化模型訓練過程中數(shù)據(jù)處理的難度,解決了GAN穩(wěn)定性問題,提高生成圖片的質(zhì)量。Diffusion模型的工作原理是通過逐漸添加高斯噪聲來破壞訓練數(shù)據(jù)。通過一張神經(jīng)網(wǎng)絡(luò)“生成器”來進行逆轉(zhuǎn)破壞過程(去噪),從純噪聲中合成數(shù)據(jù),直到產(chǎn)生干凈的樣本。GAN模型在訓練過程中需要兩張神經(jīng)網(wǎng)絡(luò)“生成器”與“判別器”,穩(wěn)定性很難平衡,而Diffusion

Model只有一張神經(jīng)網(wǎng)絡(luò),解決了穩(wěn)定性問題,同時簡化了數(shù)據(jù)處理過程,且更加靈活。圖:DALL·E

2生成圖片圖:Imagine生成圖片相較其余三類模型,擴散模型亮點在由于正向與逆向過程組成擴散模型的正向過程(擴散)和反向過程(逆擴散)擴散:從X0輸入的真實圖像,經(jīng)過Diffusion模型后被漸近變換為純高斯噪聲的圖片XT逆擴散:學習逆轉(zhuǎn)后的分布,逐步地恢復樣本數(shù)據(jù)2.3 圖像生成:圖像屬性編輯普遍應(yīng)用,創(chuàng)意圖像生成應(yīng)用落地較少23數(shù)據(jù)來源:量子位、浙商證券研究所圖像生成可簡要劃分為圖像屬性編輯、圖像局部生成及更改、以及端到端的圖像生成。其中,前兩者的落地場景為圖像編輯工具,而端到端的圖像生成則對應(yīng)創(chuàng)意圖像及功能性圖像生成兩大落地場景。圖像屬性編輯大量應(yīng)用落地,圖像局部生成及更高目前有部分應(yīng)用落地,端到端圖像生成底層原理明確,未來有望規(guī)?;瘧?yīng)用。由于圖像的生成復雜度遠高于文字,在整體生成上,目前仍然難以達到穩(wěn)定可靠的生成高質(zhì)量圖像。但隨著GAN、DiffusionModel等模型的不斷迭代,圖像生成發(fā)展將非常快速。圖像屬性編輯圖像局部生成及更改端到端圖像生成代表公司美圖秀秀(美圖AI開放平放臺)、Radius5、Photokit、Imglarger、Hotpot、Remove.bg、Skylum(Mask

AI)、Photodiva更改圖像某部分構(gòu)成(如英偉達CycleGAN支持將圖內(nèi)的斑馬和馬進行更改)、修改面部某一特征等。Adobe(InsetGAN)、英偉達(EditGAN)、Metaphysics

AI、Deepfake具 基于草圖生成完整圖像、有機組合體 多張圖像生成新圖像、根據(jù)指定屬內(nèi) 性生成目標圖像等,可用于Logo、海容 報、模特圖制作。阿里鹿班、Deepdream

Generator、Rosebud

AI、AIGahakuartbreeder、Nightcafe、Starry

ai、Wombo、Deepart、Obvious、Datagrid、詩云科技、道子智能繪畫系統(tǒng)等具

可理解成經(jīng)AI簡化的Photoshop;

具體

圖片去水印、自動調(diào)整光影、設(shè)置

體內(nèi)

濾鏡、修改顏色紋理、復刻/修改圖

內(nèi)容

像風格、提升分辨率等已廣泛應(yīng)用。

容代表公司代表公司2.4 視頻生成:分幀生成圖像連接成視頻,視頻屬性編輯已普遍應(yīng)用24視頻生成強調(diào)將視頻切割成幀,再對每一幀的圖像進行處理,與圖像生成原理類似。視頻生成難度遠高于圖像生成,生成視頻的質(zhì)量與流暢度取決于很多因素,包括數(shù)據(jù)集規(guī)模、訓練模型復雜度、特征提取準確性以及合成視頻算法有效性;由于模型訓練量要求過大,目前模型只能實現(xiàn)幾秒鐘的短視頻生成,未來有望隨著模型的迭代實現(xiàn)中視頻和長視頻的生成。視頻生成應(yīng)用場景主要包括視頻屬性編輯、視頻自動剪輯、視頻部分編輯,前者已大量應(yīng)用,后兩者還處于技術(shù)嘗試階段。數(shù)據(jù)準備準備用于訓練模型的數(shù)據(jù)集。通常包括視頻、音頻、圖像和文本等多種形式的數(shù)據(jù)特征提取利用卷積神經(jīng)網(wǎng)絡(luò)CNN或循環(huán)神經(jīng)網(wǎng)絡(luò)RNN等深度學習模型對視頻中的每

一幀進行特征提取。幀間預測根據(jù)前面提取到的

特征,預測視頻中

下一幀內(nèi)容。可以

通過生成模型實現(xiàn),如VAE

、GAN等。合成視頻將生成的序列合成

為視頻。通常使用

視頻編解碼器將視

頻壓縮,并將其存

儲為可播放的格式。數(shù)據(jù)來源:CSDN、量子位、浙商證券研究所視頻生成基本流程應(yīng)用場景內(nèi)容發(fā)展情況代表公司視頻屬性編輯視頻畫質(zhì)修復、刪除畫面中特定主體、自動跟蹤主題剪輯、生成視頻特效、自動添加特定內(nèi)容、視頻自動美顏等。目前大量應(yīng)用Runway

ML

、Wisecut

、Adobe

Sensei

、Kaleido

、帝視科技、不咕剪輯等視頻自動剪輯基于視頻中的畫面、聲音等多模態(tài)信息的特征融合進行學習,按照氛圍、情緒等高級語義限定,對滿足條件片段進行檢測并合成。技術(shù)嘗試階段影譜科技、Adobe(AI視頻剪輯系統(tǒng))、IBM

Watson

、Sony

CSL(FlowMachine)

等視頻部分編輯基于目標圖像或視頻對源視頻進行編輯及調(diào)試,通過基于語音等要素逐幀復刻,能夠完成人臉替換、人臉再現(xiàn)、人臉合成甚至全身合成、虛擬環(huán)境合成等功能。技術(shù)嘗試階段騰訊云(優(yōu)圖實驗室天天P圖聯(lián)合打造的AI變臉玩法)等視頻生成流程圖示2.5 跨模態(tài)生成:目前未大規(guī)模落地,文字生成圖像取得突破25跨模態(tài)生成是指將一種模態(tài)轉(zhuǎn)換成另一種模態(tài),同時保持模態(tài)間語義一致性。主要集中在文字生成圖片、文字生成視頻及圖片/視頻生成文字。文字生成圖片:2022年被稱為“AI繪畫“之年,多款模型軟件證明基于文字提示得到效果良好的圖畫的可行性,Diffusion

Model受到廣泛關(guān)注。文字生成視頻:普遍以Token為中介,關(guān)聯(lián)文本和圖像生成,逐幀生成所需圖片,最后逐幀生成完整視頻。但由于視頻生成會面臨不同幀之間連續(xù)性的問題,對生成圖像間的長序列建模問題要求更高,以確保視頻整體連貫流程。按技術(shù)生成難度和生成內(nèi)容,可區(qū)分為拼湊式生成和完全從頭生成。圖片/視頻生成文字:具體應(yīng)用包括視覺問答系統(tǒng)、配字幕、標題生成等,這一技術(shù)還將有助于文本—圖像之間的跨模態(tài)搜索。代表模型包括METER、ALIGN等??缒B(tài)生成類型代表性公司/產(chǎn)品目前存在缺點發(fā)展展望文字生成圖片OpenAI

(CLIP、DALL-E、DALL-E2)

、Google(Imagen、AI繪畫大師Parti)、Stability

Al(Stable

diffusion)、盜夢師AI

、意間AI

、Tiamat等。生成的圖像可能會顯得有些機械和刻板缺乏人類藝術(shù)家的創(chuàng)造力和靈感基于Diffusion

Model的興起,

AI繪畫和AI生成視頻有望在將來迎來較為廣泛的規(guī)模應(yīng)用文字生成視頻Adobe

(Project

Morpheus)、Meta(Make-A-

Video)、Google

(Imagine

Video、Phenaki)、Stability

AI(研發(fā)中)由于模型限制,目前生成視頻時間較短(Make-A-Video只可生成5s視頻)幀與幀連接存可能存在動作不連貫、不協(xié)調(diào)等問題數(shù)據(jù)來源:CSDN、量子位、Meta

AI、浙商證券研究所2.6 策略生成:主要應(yīng)用展望在游戲行業(yè),其余場景發(fā)展較緩26策略生成是指生成一個可以在給定環(huán)境下執(zhí)行任務(wù)的算法。普遍采用深度強化學習技術(shù)(早期曾采用決策樹及監(jiān)督學習),其本質(zhì)原理是讓AI感知環(huán)境、自身狀態(tài)并基于特定目標決定當下需要執(zhí)行的動作,然后基于下一個狀態(tài)給到系統(tǒng)的反饋進行獎勵或懲罰,最終使系統(tǒng)在不斷的“強化”過程中優(yōu)化“策略”。策略生成可應(yīng)用于游戲智能(Game

AI)、虛擬人交互、機器人控制、智慧交通等領(lǐng)域。游戲智能是決策生成目前應(yīng)用最為廣泛和明確的場景。由于游戲本身存在于計算機虛擬環(huán)境,并產(chǎn)生大量數(shù)據(jù),因此游戲本身為AI提供了極佳的研發(fā)場景;而在其他業(yè)務(wù)場景中,還需先搭建能夠充分還原現(xiàn)實因素的虛擬環(huán)境,并合理設(shè)置Reward等關(guān)鍵因素,目前距離現(xiàn)實應(yīng)用較遠。國內(nèi)多家AI企業(yè)已在嘗試這一方向,但如何精準完成環(huán)境學習仍然具有關(guān)鍵意義。策略生成可應(yīng)用方向數(shù)據(jù)來源:量子位、浙商證券研究所游戲智能策略生成可以用于訓練游戲智能體,

使其具有在各種游戲中獲勝的能力。圖:AlphaGo戰(zhàn)勝人類世界冠軍…機器人控制策略生成可以用于設(shè)計機器人的控制策略,使其能夠執(zhí)行各種任務(wù)。圖:智能掃地機器人策略生成專利自然語言處理策略生成可以用于訓

練自然語言處理模型,使其具有更好的語言

理解和生成能力。智慧交通策略生成可以用于優(yōu)化交通信號燈的控制策略,以最大程度地減少交通擁堵和延遲。2.7 Game

AI:AI可全面賦能游戲?qū)崿F(xiàn)降本增效,行業(yè)積極布局中27AI融入游戲全生命周期,全方位賦能行業(yè)。

可在游戲前期制作環(huán)節(jié)、游戲過程運作、游戲周邊、游戲營銷等領(lǐng)域降本增效??蓪⑵涮釤挸鋈齻€核心:游戲資產(chǎn)生成、游戲操作策略生成、游戲NPC及邏輯生成。Game

AI后續(xù)的行業(yè)發(fā)展關(guān)鍵在于游戲行業(yè)能否接受,并從底層架構(gòu)開始支持提供包括客戶數(shù)據(jù)在內(nèi)的相關(guān)接口。

目前來看,國內(nèi)相關(guān)游戲廠商合作意愿良好,普遍存在內(nèi)部開發(fā)或外部測試需求。數(shù)據(jù)來源:啟元世界官網(wǎng)、量子位、浙商證券研究所游戲資產(chǎn)生成游戲人物外觀生成游戲人物動畫生成游戲人物動作生成地圖關(guān)卡設(shè)計生成游戲場景生成圖:利用Scenario

AI生成的游戲NPC、道具游戲操作策略生成前期平衡性測試

游戲跑圖/功能測試對局陪伴特定對戰(zhàn)風格模擬基于玩法教學的新型人機互動圖:啟元世界AI策略生成解決方案游戲NPC及邏輯生成個性化生成能夠帶來畫面、劇情及具體交互的個性化全新游戲體驗;而實時劇情生成則有助于在特定框架內(nèi)生成全新的可能性,增加游戲整體的敘事可能性圖:《黑客帝國:覺醒》車輛行人等將獨立于玩家操控變動2.8 虛擬人生成:多技術(shù)綜合培育下的數(shù)字化應(yīng)用數(shù)據(jù)來源:央視網(wǎng)、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟、量子位、浙商證券研究所28建模:依據(jù)形象要求繪制模型原畫及3D建模綁定關(guān)鍵點:將選定的關(guān)鍵點映射至模型中并進行綁定渲染:對圖像進行渲染以提升逼真度,生成虛擬人動捕:應(yīng)用動捕設(shè)備對真人的行動、表情等進行采集建模:掃描模特并采

集表情、姿態(tài)等數(shù)據(jù),建模、綁定關(guān)鍵點訓練模型:利用深度學習,學習模特語言、表情等參數(shù)間的潛在映射關(guān)系,形成驅(qū)動模型內(nèi)容制作:基于語音輸入或TTS技術(shù),結(jié)合訓練后的模型推理得到每幀虛擬人圖片,并與語音對應(yīng)渲染:對圖像進行渲染以提升逼真度,生成虛擬人虛擬人是應(yīng)用計算機圖形學、圖形渲染、動作捕捉、深度學習、語音合成等多種計算機技術(shù),并具多重人類特征的綜合產(chǎn)物。虛擬化:通過電子設(shè)備、VR設(shè)備或全息設(shè)備等形式呈現(xiàn),非物理形式存在數(shù)字化:是多項數(shù)字技術(shù)的綜合產(chǎn)物,相關(guān)技術(shù)的逐漸成熟是虛擬人發(fā)展的重要支撐擬人化:從外表、行動、交互等方面均高度擬人化,提升擬人化是未來虛擬人技術(shù)的核心方向技術(shù)以手繪為主1982年首位虛擬歌姬林明美出現(xiàn)20世紀80年代:萌芽階段 21世紀初:探索階段真人驅(qū)動型:基于真人行動計算機技術(shù)開始應(yīng)用2007年虛擬偶像初音未來誕生深度學習獲得突破2018年新華社發(fā)布首個仿真AI主持人近5年:初級階段 現(xiàn)在:成長階段計算驅(qū)動型:基于深度學習模型向智能化、精細化發(fā)展虛擬人應(yīng)用場景逐漸擴張2.8 虛擬人核心技術(shù):擬人化為技術(shù)發(fā)展目標數(shù)據(jù)來源:量子位、CSDN、金融界資訊、浙商證券研究所29建模&渲染深度學習模型交互技術(shù)建模是合成虛擬人的首要步驟,目前應(yīng)用較多的建模方式為儀器采集模型,或根據(jù)不同虛擬人形象,通過3D美術(shù)、改變頂點數(shù)據(jù)“捏臉”等技術(shù)構(gòu)造虛擬人基礎(chǔ)形象。渲染作為決定呈現(xiàn)效果的核心環(huán)境,可分為傳統(tǒng)渲染和神經(jīng)渲染兩類:傳統(tǒng)渲染通過包括光線、材質(zhì)等在內(nèi)的電腦計算,以物理世界為基礎(chǔ),利用虛擬相機模擬感知的方式顯示模型效果。神經(jīng)渲染則是基于統(tǒng)計學習方法,通過深度神經(jīng)網(wǎng)絡(luò),讓計算機學習并理解物體的三維空間形態(tài),實現(xiàn)圖像合成。深度學習模型應(yīng)用在計算驅(qū)動型虛擬人合成中,該模型的應(yīng)用旨在通過計算機的自動學習匹配人類在說話時人臉骨骼和肌肉的變化,使虛擬人在動態(tài)情況下的表情形態(tài)更逼真。深度學習模型輸出效果主要受到數(shù)據(jù)量、計算框架、關(guān)鍵特征點等因素影響。交互技術(shù)主要體現(xiàn)在實時互動虛擬人應(yīng)用中,例如虛擬人主播、虛擬人客服等。虛擬人的交互能力以對話能力為核心,著重應(yīng)用NLP技術(shù),此外還會受到語音識別能力、知識圖譜、預先設(shè)置知識庫等技術(shù)的影響。2021年新推出的虛擬數(shù)字人Charlie

and

Deck由GPT-3提供交互技術(shù)支撐,該類自然語言生成模型的應(yīng)用和發(fā)展或?qū)@著提升虛擬人的交互水平。圖:MetaHuman捏臉技術(shù)成熟渲染圖:渲染提升虛擬人形象擬人度圖:虛擬人主播已出現(xiàn)在各直播平臺中03新時代生產(chǎn)力工具,AIGC賦能內(nèi)容生產(chǎn)303數(shù)據(jù)來源:量子位、浙商證券研究所暢想AIGC:應(yīng)用廣泛,核心價值是優(yōu)化內(nèi)容生產(chǎn)的效率與創(chuàng)意01游戲02廣告營銷03影視04媒體05互聯(lián)網(wǎng)06娛樂ChatGPTAIGC=提升內(nèi)容生產(chǎn)效率讓創(chuàng)作者擁有一個更加高效的智能創(chuàng)作工具,優(yōu)化內(nèi)容

創(chuàng)作,大幅提升效率并降低

成本;提升創(chuàng)作效率的同時,同樣提升了反饋生成效率,

有助于實現(xiàn)實時交互內(nèi)容。其他07降低內(nèi)容生產(chǎn)成本捕捉激發(fā)創(chuàng)作靈感聯(lián)動實現(xiàn)數(shù)據(jù)優(yōu)化AIGC能夠代替人工完成聲音錄制、圖像渲染、視頻創(chuàng)作等工作,從而降低內(nèi)容生產(chǎn)的成本與門檻,使更多用戶能夠參與到高價值的內(nèi)容創(chuàng)作流程中。幫助有經(jīng)驗的創(chuàng)作者捕捉靈感,在設(shè)計初期生成大量草圖,更好的理解創(chuàng)作需求并尋找創(chuàng)作靈感。海量數(shù)據(jù)提高創(chuàng)造性和開放性,激發(fā)創(chuàng)意認知、提升生產(chǎn)多樣性。在與其他特定的數(shù)據(jù)庫(例如實時更新數(shù)據(jù)、特定主體數(shù)據(jù)等)或AI系統(tǒng)進行聯(lián)動后,AIGC能夠?qū)崿F(xiàn)更精準的未來預測或更個性化預測基礎(chǔ)上調(diào)整生成內(nèi)容。31我們認為,1)AIGC的應(yīng)用速度取決于屆時引領(lǐng)市場的游戲企業(yè)/項目組對AIGC所帶來的效益與風險之間關(guān)系的認知與決策;2)獨立游戲工作室、小規(guī)模游戲企業(yè)對AIGC的應(yīng)用持有更加靈活的觀點,更有可能率先較高程度應(yīng)用AIGC技術(shù);3.1 AIGC+游戲(1/7):推動游戲生產(chǎn)范式升級,行業(yè)新篇章IP3)以下圖示是我們綜合分析了AIGC技術(shù)發(fā)展、游戲生產(chǎn)實踐等,做出的較為樂觀的判斷。小說 影視 動漫 ……游戲開發(fā)探索階段原型階段開發(fā)階段測試階段上線階段游戲發(fā)行市場運營宣發(fā)物料廣告買量數(shù)值迭代游戲版本控制游戲分銷硬件應(yīng)用商店第三方游戲分銷商垂直游戲平臺玩家渠道對接活動策劃用戶運營市場分析產(chǎn)品核心成本、周期預估競爭分析方案策劃技術(shù)確定美術(shù)、音樂原型程序代碼編寫

美術(shù)設(shè)計音效制作測試

BUG修復數(shù)據(jù)監(jiān)控緊急情況處理數(shù)據(jù)來源:浙商證券研究所短期內(nèi)較高程度輔助3-5年內(nèi)較高程度輔助5-10年內(nèi)較高程度輔助目前來看較難應(yīng)用32游戲資產(chǎn)生成游戲方案策劃通過AI分析游戲用戶需求,協(xié)助產(chǎn)品定位及策劃方案產(chǎn)出。圖:AI編程工具GitHub

Copilot可輔助代碼編寫、圖:MidJourney生成《最終幻想17》概念原畫圖:OpenAI

Point-E技術(shù)文字生成3D模型程序代碼編寫包括自主生成基礎(chǔ)簡單代碼、協(xié)助編寫復雜代碼提供代碼編寫建議,不同代碼語言切換等。游戲地圖設(shè)計協(xié)助游戲地圖設(shè)計與生成,包括地圖設(shè)計及對應(yīng)的代碼編輯。音頻音效制作包括生成游戲背景音、游戲音效及游戲人物語音等。美術(shù)原畫設(shè)計協(xié)助美術(shù)原畫設(shè)計及游戲產(chǎn)品畫風定位,批量快

速生產(chǎn)游戲美術(shù)素材,替代重復性美術(shù)生產(chǎn)工作。游戲人物生成包括協(xié)助玩家人物制作,以及NPC的生成3D模型構(gòu)建包括3D環(huán)境的搭建、游戲內(nèi)各類3D素材模型的創(chuàng)造等。CG動畫生成包括游戲內(nèi)CG動畫的生成。3.1 AIGC+游戲(2/7):協(xié)助各類游戲資產(chǎn)生成,降低游戲開發(fā)成本數(shù)據(jù)來源:

GitHubCopilot官網(wǎng)、MidJourney、Twitter、OpenAI、GameLook、浙商證券研究所游戲開發(fā)333.1 【案例】Scenario:首個商用的AI生成游戲資產(chǎn)平臺步驟1選擇一組視覺效果選擇并上傳游戲廠商的訓練數(shù)據(jù):角色、

道具、車輛、武器、皮膚、建筑、概念圖、像素圖、草圖等。步驟2訓練定制的AI模型只需點擊幾下,即可創(chuàng)建游戲廠商自己的生成式AI引擎。100%在線;無需技術(shù)技能。步驟3產(chǎn)生優(yōu)秀資產(chǎn)只需幾句話,即可將游戲廠商的想法變?yōu)楝F(xiàn)實。資產(chǎn)創(chuàng)建從未如此簡單。首個AI生成游戲資產(chǎn)平臺:Scenario通過對文本到圖像生成模型Stable

Diffusion的微調(diào),使得用戶可通過輸入的文字和參考圖片創(chuàng)造出達到當前游戲生產(chǎn)標準的游戲資產(chǎn)。生成特定美術(shù)風格的2D游戲素材:Scenario將對以2D美術(shù)資源為主流的獨立游戲具有重大意義。

同時其AI還在不斷地更新和優(yōu)化,以適應(yīng)不同的游戲類型和風格。免費可商用:目前Scenario工具可免費使用,而生成的游戲素材也可以直接使用于商業(yè)游戲制作中。圖:

Scenario生成的美術(shù)素材34數(shù)據(jù)來源:Scenario官網(wǎng)、GameLook、浙商證券研究所3.1 AIGC+游戲(3/7):優(yōu)化玩家交互體驗,提高游戲可玩性數(shù)據(jù)來源:逆水寒官網(wǎng)、浙商證券研究所圖:游戲《逆水寒》實現(xiàn)游戲GPT游戲體驗優(yōu)化通過AI技術(shù)生成交互式文本、語音等,增強在圖:手游《逆水寒》實裝游戲GPTNPC對話及交互游戲中與NPC溝通交流的對話現(xiàn)實感;利用AI技術(shù)來讓NPC具有更高的智能和適應(yīng)性,根據(jù)玩家的行為和環(huán)境的變化來調(diào)整策略和行動。加持故事劇情AI通過學習可無限開展游戲故事的劇情互動,實現(xiàn)千人千面的個性化體驗。AI可以通過分析玩家的行為數(shù)據(jù)和游戲數(shù)據(jù),反作弊及AI托管檢測并預防游戲中的作弊行為,保護游戲的公

平性和玩家的利益,提高玩家游戲體驗。同時,AI可以接管掉線玩家角色,優(yōu)化玩家體驗。語言翻譯通過自然語言處理技術(shù),AI可以實現(xiàn)游戲語言的翻譯和本地化,為全球玩家提供更好的游戲體驗。游戲開發(fā)353.1 【案例】《逆水寒》智能NPC系統(tǒng)橫空出世,交互體驗圖:

玩家輸入對話即可與NPC互動垂直于武俠背景游戲領(lǐng)域與ChatGPT不同的是,該智能NPC系統(tǒng)更垂直應(yīng)用于逆水寒中:側(cè)重點不同:ChatGPT側(cè)重點在于歸納整理,給出結(jié)論;而逆水寒GPT的重點在于通過理解語義指導NPC的下一步行動。學習范圍不同:ChatGPT學習范圍更廣,更像搜索引擎;而逆水寒GPT學習范圍相對小,學習的是武俠小說、歷史書等內(nèi)容,它被刻意約束為“一個大宋江湖里的人”。自由度高的開放式體驗通過智能NPC系統(tǒng),玩家和NPC的交流交互不再是設(shè)定好的、流程式的。而是自由度極高、完全開放的新奇體驗。例如,在兩個女NPC正在討論與夫君相隔千里的話題時,玩家輸入“異地戀是沒有未來的”,觸發(fā)NPC放棄異地戀的相關(guān)對話。網(wǎng)易潛心打造游戲GPT《逆水寒》手游中運用了智能NPC系統(tǒng),其使用了ChatGPT同源的底層AI技術(shù)。而早在2021年10月浙江省科學技術(shù)廳發(fā)布的“尖兵”“領(lǐng)雁”高新科技研發(fā)攻關(guān)計劃中,

由雷火掌舵人葉弄舟師兄掛帥的“超大規(guī)模預訓練模型云平臺”項目就已經(jīng)入選其中。圖:

玩家對話改變了NPC行為數(shù)據(jù)來源:逆水寒公眾號、浙商證券研究所36游戲測試通常是游戲開發(fā)周期中的一大關(guān)鍵環(huán)節(jié),其目的是保證游戲質(zhì)量,減少發(fā)布后圖:需要通過大量測試人員長時間體驗以實現(xiàn)游戲測試的風險,并為玩家提供更好的游戲體驗。在游戲測試中,測試人員將會對不同的測試目標使用不同的測試技術(shù),就游戲玩法、游戲流程內(nèi)容、游戲系統(tǒng)、機型適配等進行測試,記錄游戲中發(fā)現(xiàn)的問題,并通過管理工具報告Bug,向開發(fā)人員反饋問題。圖:育碧和Mozilla合作開發(fā)的Clever-Commit具備發(fā)現(xiàn)并標記Bug的能力伴隨游戲生產(chǎn)量的增長以及游戲復雜度的提高,游戲測試的需求爆發(fā),而AI可以在游戲測試中執(zhí)行一些自動化任務(wù),如執(zhí)行基本的功能測試、性能測試、兼容性測試等,以實現(xiàn)更高效地測試。但AI目前還無法像人類測試人員那樣進行用戶體驗、情感反饋等測試。3.1 AIGC+游戲(4/7):高效輔助游戲測試,保證質(zhì)量并降低成本數(shù)據(jù)來源:新浪游戲、量子位、浙商證券研究所游戲開發(fā)輔助游戲測試373.1 【案例】日本卡牌游戲《Shadowverse》利用AI測試卡牌組合數(shù)據(jù)來源:程序員大本營、浙商證券研究所Cygames

Research用神經(jīng)網(wǎng)絡(luò)技術(shù)解決測試大量卡牌組合的問題游戲用戶游戲記錄AI模擬游戲測試測試報告Shadowverse是一款由日本Cygames發(fā)行的卡牌游戲,每三個月會加入新的卡牌包,以保持玩家的新鮮感。但是,如何測試新卡牌對游戲系統(tǒng)的影響是一個難題。即一張新卡牌被設(shè)計出來之后,它能融入舊卡牌構(gòu)成的系統(tǒng),和其他卡牌配合時沒有Bug、不會破壞數(shù)值系統(tǒng)的平衡。傳統(tǒng)的QA測試方法耗時耗力,嚴重影響游戲開發(fā)。為了解決這個問題,Cygames

Research提出了一種用神經(jīng)網(wǎng)絡(luò)技術(shù)測試卡牌組合的方法。他們通過收集游戲日志并將其轉(zhuǎn)化為可以用于訓練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)的方法,訓練出一個可以玩游戲的AI,從而可以自動化地進行游戲?qū)郑园l(fā)現(xiàn)任何可能存在的Bug和平衡問題。這種方法大大提高了效率,節(jié)省了測試開發(fā)成本。模仿學習383.1 AIGC+游戲(5/7):分析游戲數(shù)值,并協(xié)助版本迭代數(shù)據(jù)來源:浙商證券研究所游戲運營數(shù)值分析及版本迭代根據(jù)當前版本游戲產(chǎn)生的用戶數(shù)據(jù)及運營目標,AI能夠通過模型分析游戲數(shù)值并調(diào)試、檢驗、篩選,協(xié)助提高運營人員的分析結(jié)果與游戲產(chǎn)品的迭代效率。版本管理方面,AI可以協(xié)助運營人員就版本內(nèi)容、人力、開發(fā)進度實時規(guī)劃并調(diào)整排期,敏捷提示風險,為版本運營提供準確、可信的信息參照。游戲用戶記錄AI現(xiàn)有游戲版本模仿學習日常運營提交游戲強化學習AIAIAI產(chǎn)生報告修改數(shù)值優(yōu)化數(shù)值后的新版本游戲用戶記錄393.1 AIGC+游戲(6/7):協(xié)助舉辦游戲賽事,拓寬產(chǎn)品影響力數(shù)據(jù)來源:

Ponzu官網(wǎng)

、浙商證券研究所游戲運營游戲賽事協(xié)辦,賽事分析AICG廣泛用于賽前陣容分析、賽后數(shù)據(jù)分析和賽事回放并以最快的速度獲得最優(yōu)解,減少賽訓壓力。除了基礎(chǔ)的數(shù)據(jù)以外,包括AI預測的一系列游戲觀察工具已經(jīng)逐漸進入賽事直播過程中,更有利于觀眾沉浸觀賽。電競解說AICG通過對游戲內(nèi)對局情況的各種數(shù)據(jù)的收集與處理,

實時運算游戲事件,生成多個解說文案,進行內(nèi)容決策,并選取最優(yōu)文案進行實時解說,幫助觀眾了解比賽,降

低成本,大大降低辦賽門檻。集AIGC分析賽場事件建立起相應(yīng)的數(shù)據(jù)模型,通過算法實現(xiàn)在比賽結(jié)束后的最短時間內(nèi)篩選、剪輯出視頻素材,

剪輯速度快、節(jié)省人力。錦自動生產(chǎn)AI圖電競賽事分析AI圖電競解說AI圖集錦自動生產(chǎn)403.1 AIGC+游戲(7/7):全流程賦能游戲買量,實現(xiàn)降本增效數(shù)據(jù)來源:手游那點事、浙商證券研究所游戲發(fā)行游戲營銷買量買一方面,近年來游戲行業(yè)買量素材投放生命周期變短,素材創(chuàng)意消耗加速,對買量素材的需求增量長;另一方面,買量素材需要經(jīng)過創(chuàng)意構(gòu)思、內(nèi)素材容制作、反饋優(yōu)化等流程,人工制作相較AI需要制較長的周期。AIGC的應(yīng)用可以優(yōu)化創(chuàng)意產(chǎn)出、作內(nèi)容制作環(huán)節(jié),從而成倍地賦能廣告買量。投AI具備快速跟蹤并分析投放效果的能力,能夠整合投放端及內(nèi)部轉(zhuǎn)化數(shù)據(jù),分析各素材投放效果,放進一步優(yōu)化投放素材及投放策略,提升投放效率效果及ROI。此外,基于海外買量經(jīng)驗在國內(nèi)行業(yè)并分不普及的現(xiàn)狀,我們認為AI在對海外市場的買量析投放中有更大的效率提升空間。買AI能夠快速提升廣告投放的速度和效率,實現(xiàn)投放業(yè)務(wù)“7*24小時”批量化與自動化操作。量投放執(zhí)行圖:三七互娛AI投放系統(tǒng)使用哪些素材使用什么樣的人群包使用哪些賬號投放

競價方式如何何時創(chuàng)建計劃什么條件下關(guān)停計劃何時調(diào)整計劃海量數(shù)據(jù)計劃智能化創(chuàng)建優(yōu)選和維護循環(huán)反饋機器學習產(chǎn)生模型無需人工,更優(yōu)的選擇圖:游戲買量素材413.2 AIGC+廣告營銷(1/4):AIGC有望貫穿營銷全流程資料收集整理編排廣告效果分析文案寫作素材選擇與制作市場調(diào)研客戶需求分析廣告素材迭代廣告投放數(shù)據(jù)來源:浙商證券研究所投放與管理內(nèi)容生產(chǎn)前期準備短期內(nèi)較高程度輔助 3-5年內(nèi)較高程度輔助 目前來看較難應(yīng)用423.2 AIGC+廣告營銷(2/4):加快案頭工作效率,提供廣告營銷思路數(shù)據(jù)來源:藍色光標公眾號、浙商證券研究所AI技術(shù)支持能快速縮短耗時,較大提升前期準備效率前期準備過程中時間占比70%的資料收集整理等案頭工作可通過ChatGPT等模型抓取大數(shù)據(jù)縮短耗時;占比20%的調(diào)研訪談、頭腦風暴產(chǎn)生靈感等創(chuàng)意工作可以通過AI運算快速實現(xiàn)。案頭工作(時間占比70%)靈感刺激(時間占比20%)賦予意義(時間占比10%)大數(shù)據(jù)抓取AI提供方向思考AI運算生成傳統(tǒng)BIG

IDEA輸出流程CREATECH輸出創(chuàng)意實現(xiàn)案頭工作的快速完成433.2 AIGC+廣告營銷(3/4)

:專業(yè)化營銷助力廣告內(nèi)容生產(chǎn)AIGC出現(xiàn)前AI生成專業(yè)營銷文案。廣告文案寫作門檻較高:文案寫作目的之一是提高轉(zhuǎn)化效率,非專業(yè)人士難以完成廣告文案人工生成效率較低:廣告主和廣告商匹配及生成效率低。廣告主可借用Jasper.AI等平臺生成符合營銷理論的專業(yè)文案,降低營銷寫作門檻,提高匹配效率,降低成本。合格廣告素材批量生成廣告素材相對不足:廣告素材一般來源于公司產(chǎn)品、無版權(quán)網(wǎng)絡(luò)素材、代言人等,可用材料有限。廣告素材成本高:采購廣告素材,如版權(quán)素材,代言人素材需要支出一定成本。AI可根據(jù)廣告主需求,目標人群,進行素材分析、摳圖、配色等項目,制作多種類型的廣告素材,并一定程度上節(jié)省廣告素材成本。拼接編排自動化,專業(yè)化廣告素材拼接混亂,重點不清:廣告商難以根據(jù)市場熱點、目標人群喜好、產(chǎn)品核心賣點等進行最優(yōu)化編排處理。AI可基于算法推薦,對廣告文案及廣告素材進行拼接編排,生成廣告海報、廣告視頻、廣告軟文等營銷產(chǎn)品。AIGC出現(xiàn)后數(shù)據(jù)來源:浙商證券研究所44營銷垂類優(yōu)勢顯著:相較于ChatGPT,Jasper具有專業(yè)營銷人員訓練的小模型,對營銷理解更出色,其基于營銷理論形成了五十多個模板,集成了日常生活內(nèi)容的方方面面,可對文本實現(xiàn)多種功能,如擴寫,續(xù)寫,撰寫。產(chǎn)品交互體驗上乘:Jasper產(chǎn)品邏輯以效率為核心,同時對用戶使用場景的理解較好,在界面及UI等上做到簡潔,易于上手。配套體系完善:Jasper有一套完整的培訓課程,用于教授用戶如何用AI做營銷;并開放社區(qū),方便用戶進行討論如何使用AI進行營銷。文本生成獨角獸抬頭為AI文本生成專家。Jasper成立于2021年,是AI領(lǐng)域的獨角獸內(nèi)容平臺,基于GPT-3模型,用戶可以在Jasper中生成具有豐富關(guān)鍵詞、搜索引擎優(yōu)化的原創(chuàng)文本。通過文字描述讓Jasper幫助完成文章的創(chuàng)作、創(chuàng)建廣告話術(shù)。用戶也可以在其中尋找創(chuàng)作思路、突破語言壁壘。商業(yè)成績斐然。Jasper目前擁有7萬多名客戶,包括Airbnb、IBM等企業(yè)。2021年一年便創(chuàng)造了4000萬美元的收入,2022年預估收入為9000萬美元,

Jasper在最新一輪的融資里獲得了1.25億美元資金,目前估值為15億美元。3.2 【案例】獨角獸Jasper.AI,革新廣告文案寫作數(shù)據(jù)來源:Jasper官網(wǎng)、

TechCrunch+、浙商證券研究所深耕營銷領(lǐng)域,垂直龍頭可期圖:Jasper界面簡單易懂,交互體驗良好453.2 【案例】Meta自動生成廣告系統(tǒng)Advantage+,加速廣告迭代數(shù)據(jù)來源:金融時報、智東西、浙商證券研究所蘋果新政影響傳統(tǒng)大數(shù)據(jù)營銷新型廣告系統(tǒng)拯救Meta供給增長加速廣告實時迭代蘋果隱私新政:蘋果在iOS14.5版本中新增了廣告追蹤權(quán)限功能,使得互聯(lián)網(wǎng)企業(yè)無法直接獲取用戶信息。廣告商受打擊:這對很大幅度依靠大數(shù)據(jù)算法進行精準營銷的廣告商,尤其打擊了2022全年廣告收入占比99.02%的Meta。在蘋果版本更新后的九個月內(nèi),Meta損失了近100億美元的收入。AI廣告開辟精準營銷新路徑:Meta推出了一項名為Advantage+的自動生成廣告系統(tǒng),利用AI并根據(jù)營銷人員的具體目的自動生成多個廣告,算法可以對潛在的眾多廣告進行測試,并根據(jù)用戶喜好及轉(zhuǎn)化率,選擇最為有效的廣告。廣告實時迭代未來可期:隨著技術(shù)更加進步,Advantage+只需要通過收集用戶在使用行為中的反應(yīng)迅速調(diào)整廣告活動中的圖文,以使得廣告匹配效率得到全面提高。463.2 AIGC+廣告營銷(4/4):24小時虛擬客服,專業(yè)可靠智能數(shù)據(jù)來源:浙商證券研究所03千人千面,個性化營銷推薦ChatGPT可結(jié)合數(shù)據(jù)及客戶的訴求,進行個性化推薦系統(tǒng)的應(yīng)用給出用戶的營銷線索,實現(xiàn)更標準、更貼心的用戶服務(wù)。01全天候24小時在線ChatGPT可作為AI驅(qū)動的虛擬客服,在廣告營銷領(lǐng)域為客戶提供24小時全天候的客服服務(wù),同時亦能減輕商家人工客服的營銷成本。02穩(wěn)定可靠,快速解答ChatGPT作為虛擬客服相比人工客服更加穩(wěn)定可靠,能夠快速解答客戶問題、傳遞標準化營銷話術(shù)等,并提升問題解答的準確程度。473.3 AIGC+影視(1/4):AI融合影視生產(chǎn),全管線加速提效數(shù)據(jù)來源:

Edward

Jay

Epstein、浙商證券研究所創(chuàng)意提出劇本創(chuàng)作項目團隊建立后期制作中期拍攝宣發(fā)發(fā)行美術(shù)設(shè)計特效制作市場調(diào)研劇本初創(chuàng) 預算方案劇本打磨 拍攝方案…制片廠審核音效制作剪輯…宣傳物料制作營銷推廣…院線上映流媒體發(fā)行版權(quán)授權(quán)分鏡制作演員拍攝 作畫/CG…48短期內(nèi)較高程度輔助3-5年內(nèi)較高程度輔助5-10年內(nèi)較高程度輔助目前來看較難應(yīng)用3.3 AIGC+影視(2/4):高效劇本創(chuàng)作,激發(fā)人類創(chuàng)意影視劇本文稿歸納提煉一句話梗概 標題特征細節(jié)1細節(jié)2情景1情節(jié)元素位置沖突情節(jié)情景2情節(jié)元素位置沖突情景N情節(jié)元素位置沖突位置細節(jié)1細節(jié)2對話……細節(jié)3…細節(jié)3AI可以對海量劇本數(shù)據(jù)進行分析歸納,并按照預設(shè)風格快速生產(chǎn)劇本,激發(fā)創(chuàng)作者的靈感,再由創(chuàng)作者進行篩選和二次加工,縮短創(chuàng)作周期。49案例:DramatronDramatron是DeepMind推出的聯(lián)合寫作工具,只需要一句話梗概以描述中心戲劇沖突,就能自動寫出標題、角色、場景描述和對話。Dramatron擅長電影腳本輸出。其功能與ChatGPT相近,但它的輸出更容易被改寫成電影腳本。應(yīng)用效果已受到驗證,TheatreSports

公司已經(jīng)改編了Dramatron參與創(chuàng)作的劇本并將其搬上了舞臺。使用Dramatron的劇作家們表示其有助于他們產(chǎn)生更具創(chuàng)意的想法。數(shù)據(jù)來源:Dramatron、浙商證券研究所3.3 AIGC+影視(3/4):助力中期電影拍攝,場景繪制較為成熟數(shù)據(jù)來源:機器之能公眾號、Netflix、中關(guān)村科技會展公眾號、浙商證券研究所數(shù)字人技術(shù)應(yīng)用數(shù)字人替代群演,節(jié)省成本,優(yōu)化效果本世紀初,《指環(huán)王:護戒使者》使用Massive“虛擬環(huán)境群體模擬系統(tǒng)”

制作數(shù)十萬個數(shù)字人之間真實的互動對抗,讓不同的個體在特征與動作上產(chǎn)生變化。新技術(shù)持續(xù)賦能,虛擬角色愈發(fā)鮮活隨著建模、綁定,動捕,渲染、圖像識別等技術(shù)開始應(yīng)用于影視角色,數(shù)字人表現(xiàn)更為出色AI人臉替換與聲音替換AI人臉合成、聲音合成實現(xiàn)數(shù)字復活已故演員、替換“劣跡藝人”、更換演員角色形象、高難度動作合成等,減少演員自身局限對影視作品的影響【案例】《流浪地球2》大量采取AI技術(shù)進行拍攝:使用AI

換臉技術(shù),將吳孟達“復活”。通過AI特效,使吳京和劉德華變“年輕”;利用AI聲音技術(shù),修復李雪健的聲音。場景及分鏡制作通過AI繪制場景將極大減少動畫電影的開發(fā)周期和成本,同時可以優(yōu)化真人電影中的分鏡設(shè)計環(huán)節(jié)?!景咐俊度c少年》采用了rinna開發(fā)的AI輔助背景進行制作,極大地簡化了從導演分鏡表到Layout“設(shè)計圖”的工序環(huán)節(jié)——將手工著色的“設(shè)計圖”提交至AI生成細化并優(yōu)化背景,再對AI生成的背景圖進行修正,進而通過人工智能技術(shù)繪制完整動畫場景。圖:《指環(huán)王》數(shù)字人群演技術(shù)圖:《流浪地球2》AI讓劉德華變“年輕”圖:《犬與少年》AI背景設(shè)計503.3 AIGC+影視(4/4):后期剪輯加速,視頻處理門檻降低數(shù)據(jù)來源:英偉達、Runway官網(wǎng)、浙商證券研究所AI檢索:預告片生成機器學習圖像識別片段檢索《摩根》預告片快速生成:類似剪輯,預告片往往都是在影片中選取部分精

彩片段,又不能過分劇透。美國IBM

旗下的AI系統(tǒng)Watson在學習了上百部驚悚預告片的視聽手法后,從90分鐘的《摩根》電影中挑選出符合驚悚預告片特點的電影鏡頭,并制作出一段6分鐘的預告片。成功的將預告片的制作周期從以往的一個月左右壓縮到一天。圖:《摩根》預告片AI剪輯:自動分段、拼接AI建模:2D到3D基于音頻解析和畫面識別進行視頻分

成不同片段,可以完成自動添加字幕、自動拼接視頻等工作。圖:使用ArctimeAI工具切分句子圖:“一幀秒創(chuàng)”通過文案生成視頻3D

MoMa:英偉達推出了一種名為3DMoMa的AI,可以將靜態(tài)2D照片轉(zhuǎn)換為可輕松編輯的3D模型。據(jù)英偉達介紹,3DMoMa可供建筑師、設(shè)計師、藝術(shù)家和游戲開發(fā)者將圖像轉(zhuǎn)換的3D模型快速導入圖形引擎,使用過程中還可以修改比例、更改材料或嘗試不同的照明效果。圖:英偉達2D圖片轉(zhuǎn)3D建模AI特效:視頻處理Runway:Runway是國外一家在線視頻剪輯制作網(wǎng)站,致力于降低視頻創(chuàng)作的門檻。公司目前已經(jīng)開發(fā)了30多個AI魔法工具,比如我們熟悉的根據(jù)文本生

成圖像、根據(jù)圖像生成風格化變體、圖像延展外繪、根據(jù)文本生成3D貼圖紋理、視頻局部無損放大等技術(shù),在Runway內(nèi)都可以實現(xiàn)。圖:AI視頻特效513.4 AIGC+媒體:推進人機協(xié)作共生,媒體效率提升數(shù)據(jù)來源:中國信息通信研究院、浙商證券研究所新聞采編環(huán)節(jié)提高內(nèi)容制作效率新聞傳播環(huán)節(jié)播報高效智能化新聞主體影響智媒影響產(chǎn)業(yè)及生活實現(xiàn)采訪錄音語

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論