AI Agent在角色扮演場景研究進展_第1頁
AI Agent在角色扮演場景研究進展_第2頁
AI Agent在角色扮演場景研究進展_第3頁
AI Agent在角色扮演場景研究進展_第4頁
AI Agent在角色扮演場景研究進展_第5頁
已閱讀5頁,還剩31頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

AIAgent在角色扮DataFunsummit2025目錄目錄角色扮演AIAgent在一般智能體的基礎(chǔ)上遵循在一般智能體的基礎(chǔ)上遵循指定的角色任務(wù)與職責(zé)(任務(wù)目標(biāo)、服務(wù)要求)角色扮演智能體應(yīng)用場景角色扮演智能體應(yīng)用場景[1]TsengYM,HuangYC,HsiaoTY,etal.TwoTalesofPersonainLLMs:ASurveyofRole-PlayingandPersonalization[C].FindingsofEMNLP2024.角色扮演AIAgent構(gòu)建方式:單模型+PromptVS工作流外部存儲檢索向量檢索關(guān)鍵詞檢索知識優(yōu)點:快捷通用、可以通過微調(diào)強化單個角色扮演能力缺點:知識、記憶能力有限,完全依賴底層模型優(yōu)點:快捷通用、可以通過微調(diào)強化單個角色扮演能力缺點:知識、記憶能力有限,完全依賴底層模型缺點:設(shè)計復(fù)雜,耗時久,定制化單模型Agent框架[1]ZhouJ,ChenZ,WanD,etal.CharacterGLM:CustomizingChineseConversationalAICharacterswithLargeLanguageModels[A/OL].arXiv,2023.角色扮演智能體的挑戰(zhàn)構(gòu)建角色智能體的關(guān)鍵挑戰(zhàn):如何提升角色忠實度、維持長期記憶、評估角色扮演表現(xiàn)長期記憶是提升智能體角色扮演擬人性、功能性的關(guān)鍵大模型有限上下文處理長度(表現(xiàn)和效率)下的必要手段智能體角色扮演的表現(xiàn)在對話能力長期記憶是提升智能體角色扮演擬人性、功能性的關(guān)鍵大模型有限上下文處理長度(表現(xiàn)和效率)下的必要手段智能體角色扮演的表現(xiàn)在對話能力基礎(chǔ)上涉及更多維度如角色屬性、性格、行為、知識等大模型自身的幻覺問題使智能體角色扮演更容易出戲角色忠實度長期記憶評估方式角色忠實度長期記憶[1]TuQ,FanS,TianZ,etal.CharacterEval:AChineseBenchmarkforRole-PlayingConversationalAgentEvaluation[C].ACL2024.[2]ParkJS,O’BrienJ,CaiCJ,etal.GenerativeAgents:InteractiveSimulacraofHumanBehavior[C].UIST2023.挑戰(zhàn)一:如何提升角色忠實度喜愛度熟悉度針對針對HarryPotter構(gòu)建標(biāo)注詳細的數(shù)據(jù)關(guān)系與屬性隨時間變化通過Prompt向模型傳達不同時間、[1]ChenN,WangY,JiangH,etal.LargeLanguageModelsMeetHarryPotter:ADatasetforAligningDialogueAgentswithCharacters[C].FindingsofEMNLP2023.挑戰(zhàn)一:如何提升角色忠實度思路二:構(gòu)建示例對話庫,利用當(dāng)前用戶發(fā)言檢索合適的對話示例作為參考從預(yù)設(shè)對話庫中檢索相似的示例對話從文學(xué)作品、影視腳本中預(yù)抽取角色對話[1][1]LiC,LengZ,YanC,etal.ChatHaruhi:RevivingAnimeCharacterinRealityviaLargeLanguageModel[A/OL].arXiv,2023.挑戰(zhàn)一:如何提升角色忠實度思路三:通過模型訓(xùn)練的方式,構(gòu)建通用的角色扮演大模型人工扮演“用戶”和“角色”對話大模型直接合成文學(xué)作品抽取人工-原型機交互模擬[1][1]ZhouJ,ChenZ,WanD,etal.CharacterGLM:CustomizingChineseConversationalAICharacterswithLargeLanguageModels[A/OL].arXiv,2023.挑戰(zhàn)一:如何提升角色忠實度思路四:通過場景重構(gòu)的方式模擬生成角色經(jīng)歷數(shù)據(jù),針對單個角色進行模型整體流程從“扮演”角色轉(zhuǎn)向“成為”角色整體流程正常場景:模擬經(jīng)歷角色的生活保護場景:主動“遺忘”不該具備的知識經(jīng)歷經(jīng)歷構(gòu)造與上傳[1][1]ShaoY,LiL,DaiJ,etal.Character-LLM:ATrainableAgentforRole-Playing[C].ACL2023.基于檢索增強的長期記憶知識庫知識庫召回知識知識知識1大語言模型大語言模型檢索增強基本范式基于檢索增強的長期記憶長期記憶的存儲策略核心:如何更好地對原始記憶進行結(jié)構(gòu)化對原始對話歷史進行總結(jié),形成不同層次的記憶信息,如MemoryBank層次化記憶層次化記憶將原始對話轉(zhuǎn)換為信息密度更高的結(jié)構(gòu)化三元組,如MemLLM[1]ZhongW,GuoL,GaoQ,etal.MemoryBank:EnhancingLargeLanguageModelswithLong-TermMemory:17[C]//AAAI2024.[2]ModarressiA,K?ksalA,ImaniA,etal.MemLLM:FinetuningLLMstoUseAnExplicitRead-WriteMemory[A/OL].arXiv,2025.長期記憶的檢索策略長期記憶的檢索策略和存儲策略直接相關(guān)檢索手段:可以在常見的向量檢索、關(guān)鍵詞檢索基檢索時機:固定檢索時機、自適應(yīng)確定檢索時機最近訪問情況+重要性+相關(guān)性最近訪問情況+重要性+相關(guān)性基于混合指標(biāo)檢索基于混合指標(biāo)檢索[1]ParkJS,O’BrienJ,CaiCJ,etal.GenerativeAgents:InteractiveSimulacraofHumanBehavior[C].UIST2023.[2]ModarressiA,K?ksalA,ImaniA,etal.MemLLM:FinetuningLLMstoUseAnExplicitRead-WriteMemory[A/OL].arXiv,2025.長期記憶的管理策略長期記憶管理的核心目的是保證記憶的質(zhì)量常見手段:合并相似記憶、解決沖突記憶、遺忘不并在記憶被調(diào)用時候重置系數(shù),模擬艾賓浩斯遺忘曲線基于記憶強度的管理基于記憶強度的管理LyfeAgents在構(gòu)建長期記憶入長期記憶時通過向量相似度匹配的方法遺忘相似舊記憶基于相似度的管理基于相似度的管理[1]ZhongW,GuoL,GaoQ,etal.MemoryBank:EnhancingLargeLanguageModelswithLong-TermMemory[C].AAAI2024.[2]KaiyaZ,NaimM,KondicJ,etal.LyfeAgents:Generativeagentsforlow-costreal-timesocialinteractions[A/OL].arXiv,2023.建立完善的評測指標(biāo)體系不同工作提出的評測體系不同但核心是在基礎(chǔ)對話能力基礎(chǔ)上引入對角色一致性和類人性的評測角色一致性:關(guān)注屬性、行為、知識、性格等方面是否與角色一致類人性:關(guān)注記憶能力、擬人性、吸引力等[1][1]ZhouJ,HuangY,WenB,etal.CharacterBench:BenchmarkingCharacterCustomizationofLargeLanguageModels[C].AAAI2025.[2]TuQ,FanS,TianZ,etal.CharacterEval:AChineseBenchmarkforRole-PlayingConversationalAgentEvaluation[C].ACL2024.靜態(tài)評測:構(gòu)建評測數(shù)據(jù),進行主觀、客觀評測對話腳本構(gòu)建方法:人工扮演;文學(xué)作品抽??;人-原型角色智能體交互合成;多角色智能體交互合成評測問題構(gòu)建方法:針對想要評測的維度生成相應(yīng)的問題評分方法:基于人工打分或裁判模型打分進行主觀評測,基于選擇題進行客觀評測[1]ZhouJ,HuangY,WenB,etal.CharacterBench:BenchmarkingCharacterCustomizationofLargeLanguageModels[C].AAAI2025.動態(tài)評測:動態(tài)選擇環(huán)境生成評測數(shù)據(jù),或觀察智能體在沙盒中的行為進行評測和靜態(tài)評測相比,動態(tài)評測方法關(guān)注智能體在不同環(huán)境下的角色扮演能力評測更充分,但很難通過人工方式進行標(biāo)準(zhǔn)答案構(gòu)建和答案評估,對自動評測PersonaGym[1][1]SamuelV,ZouHP,ZhouY,etal.PersonaGym:EvaluatingPersonaAgentsandLLMs[A/OL].arXiv,2024.[2]WangL,LianJ,HuangY,etal.CharacterBox:EvaluatingtheRole-PlayingCapabilitiesofLLMsinText-BasedVirtualWorlds[A/OL].arXiv,2024.從文本記憶到參數(shù)化記憶通過知識編輯改變知識邊界[1][1]WeiJ,YingX,GaoT,etal.AI-nati

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論