CN120144724A 一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法 (之江實驗室)_第1頁
CN120144724A 一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法 (之江實驗室)_第2頁
CN120144724A 一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法 (之江實驗室)_第3頁
CN120144724A 一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法 (之江實驗室)_第4頁
CN120144724A 一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法 (之江實驗室)_第5頁
已閱讀5頁,還剩24頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

地址311121浙江省杭州市余杭區(qū)中泰街周天舒李勁松司33200一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法(57)摘要本發(fā)明公開一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法,系統(tǒng)包括交互模塊、展示;模型數(shù)據(jù)庫用于儲存n個大模型的信息集計算子模塊基于用戶提出的問題和各個大模型的信息,計算各個大模型對于用戶問題的權(quán)重;用戶用戶交互模塊21.一種基于多模型并行推理的可交互問答系統(tǒng),其特征在于,包括交互模塊、模型數(shù)據(jù)庫和答案整合模塊;所述交互模塊用于接收用戶的輸入,發(fā)送至所述答案整合模塊,并進行信息展示;所述模型數(shù)據(jù)庫用于儲存n個大模型的信息集合;所述答案整合模塊包括權(quán)重計算子模塊、答案整合子模塊和統(tǒng)計信息計算及可視化子所述權(quán)重計算子模塊內(nèi)置受用戶偏好調(diào)節(jié)的模型加權(quán)算法,基于用戶提出的問題和各個大模型的信息,計算各個大模型對于用戶提出的問題的權(quán)重;所述答案整合子模塊內(nèi)置受用戶偏好調(diào)節(jié)的答案整合算法,基于各個大模型針對用戶提出的問題給出的答案、由權(quán)重計算子模塊傳遞來的各個模型權(quán)重以及用戶的偏好設(shè)置參所述統(tǒng)計信息計算及可視化子模塊基于最終整合答案和各個模型對于用戶提出的問題的答案,計算最終整合答案中每個詞匯在所有模型答案中的統(tǒng)計信息,并將其可視化處2.根據(jù)權(quán)利要求1所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述權(quán)重計算子模塊的具體執(zhí)行過程如下:S1.1:對所有大模型的用戶評分初始化為無偏好的評分,并根據(jù)用戶輸入調(diào)整對應(yīng)大模型的評分為用戶輸入值;S1.2:通過機器學(xué)習(xí)方法將模型數(shù)據(jù)庫中所有大模型標簽組成的集合tags中的每個大模型標簽t;轉(zhuǎn)換為向量表示v,構(gòu)建模型標簽向量集合tags;其中,tags={t?,t?,…,標簽,構(gòu)建模型標簽矩陣Ym;=[vm·…’ma],其中a為所有標簽的數(shù)量;S1.3:通過自然語言處理中基于神經(jīng)網(wǎng)絡(luò)的方法提取用戶問題中的關(guān)鍵字詞,基于所有大模型標簽組成的集合tags給出該問題的分類標簽,根據(jù)算法結(jié)果中標簽概率值排序選出概率最大的k個標簽,構(gòu)建問題標簽矩陣Vq=[vq?…2qk],并記錄每個標簽的概率值S1.4:將提取到的用戶問題的分類標簽在模型數(shù)據(jù)庫中對所有大模型擁有的標簽進行匹配,計算相似度矩陣S,并將匹配成功的模型按照匹配度從高到低進行排序,并對匹配度進行歸一化處理,得到匹配權(quán)重值Pc={Pc?…,Pc?…,Pcn};S1.5:根據(jù)用戶選擇,使用大模型在網(wǎng)絡(luò)的公開評分或用戶自定義評分,將所有大模型的評分構(gòu)建集合并進行歸一化處理,記模型評分為scorenorm={s?,…,si,…,s},計算針對當前用戶提出的問題第i個大模型的權(quán)重w,并將計算得到的權(quán)重w;傳遞至答案整合子模塊用于后續(xù)的計算。3.根據(jù)權(quán)利要求2所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述步驟S1.4中,將提取到的用戶問題的分類標簽在模型數(shù)據(jù)庫中對所有大模型擁有的標簽進行匹配的具體匹配過程如下:將問題標簽向量V。與模型數(shù)據(jù)庫中每一個大模型M的模型標簽矩陣Vm;計算加權(quán)余弦向量相似度矩陣S,若S中每一行都存在不小于用戶設(shè)置的相似度閾值h的值,則認為模型3M匹配成功,并記錄S中每一行中不小于h的值的數(shù)量作為模型匹配度。4.根據(jù)權(quán)利要求2所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述其中,z為用戶設(shè)置的偏好系數(shù),用于整體控制系統(tǒng)對于決策的傾向性。5.根據(jù)權(quán)利要求2所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述答案整合子模塊計算出最終整合答案的過程如下:S2.1:首先從模型數(shù)據(jù)庫讀取針對本次問題各個大模型輸出的答案,并逐一進行標準化處理;S2.2:將每個大模型輸出的答案映射到高維語義空間中,生成對應(yīng)的語義嵌入向量;然后,基于余弦相似度計算所有答案對之間的語義相似性,構(gòu)建一個對稱的相似度矩陣,記為Sim(i,j),其中i和j表示不同的答案,Sim(i,j)表示答案i和答案j的語義相似度;S2.3:綜合各個大模型的權(quán)重w:和語義相似性,計算每個答案的最終整合權(quán)重:其中,αi表示第i個答案的整合權(quán)重,n表示答案的數(shù)量,λ為超參數(shù),取值范圍[0,1];∈為語義相似度閾值;f(Sim(i,j),∈)是一個分段函數(shù);S2.4:選擇一個具備上下文理解,推理及文本生成能力的大模型作為最終答案整合模型,通過輸入各個大模型的原始答案和最終整合權(quán)重生成邏輯連貫、語法流暢的答案,并接收用戶輸入的與提出問題相關(guān)有關(guān)的關(guān)鍵詞、語義相似度閾值調(diào)整最終整合答案的語義傾向;所述答案整合子模塊還將最終整合答案中的每個詞映射回原始答案。6.根據(jù)權(quán)利要求1所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述交互模塊具體包括:初始化階段:接收用戶提出的問題、用戶選擇的默認模型數(shù)據(jù)或自定義模型數(shù)據(jù),分類展示模型信息;整合答案的交互階段:接收用戶輸入的與提出問題相關(guān)有關(guān)的關(guān)鍵詞、語義相似度閾值、修改的模型信息、偏好系數(shù),展示從答案整合模塊獲取的整合答案,以及展示用戶問題參數(shù)和整合答案用到的各個大模型的信息;最終整合答案確定后:接收用戶的劃詞操作,展示與所述最終整合答案相關(guān)的溯源、統(tǒng)計信息。7.根據(jù)權(quán)利要求1所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述模型數(shù)據(jù)庫中每個大模型的信息集合用一個元組來表示:M:=(namei,sourcei,parametersi,score_originali,score_cliorginal,domain_client;,tags_original,tags_clienti,w其中,name,表示第i個大模型的名稱;source,表示第i個大模型的來源(由哪家公司、機4構(gòu)或高校發(fā)布);parameters;表示第i個大模型的參數(shù)量;score_original表示第i個大模型的在網(wǎng)絡(luò)的公開評分;score_client;表示用戶對第i個大模型的評分;domain_orginal;表示第i個大模型的發(fā)布者為其定位的應(yīng)用領(lǐng)域;domain_client;是用戶根據(jù)自身需要認為第i個大模型合適的應(yīng)用領(lǐng)域;tags_original表示第i個大模型的發(fā)布者為其標記的標簽;tags_client:是用戶根據(jù)自身偏好為第i個大模型標記的標簽;weight;表示第i個大模型的權(quán)重得分(由受用戶偏好調(diào)節(jié)的模型加權(quán)算法得出);description;表示發(fā)布者對第i個大模型的描述,用戶也可自行更改;answer:用于存儲第i個大模型對于用戶提出問題推理得到的答案。8.根據(jù)權(quán)利要求1所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,語義相似度閾值∈的初始值為0.5,提高∈取值,則答案整合過程中篩選相關(guān)性更高的答案,降低∈取值,則答案整合過程中引入更多潛在的相關(guān)答案。9.根據(jù)權(quán)利要求5所述的基于多模型并行推理的可交互問答系統(tǒng),其特征在于,所述標10.一種基于多模型并行推理的可交互問答方法,其特征在于,該方法由權(quán)利要求1所述的基于多模型并行推理的可交互問答系統(tǒng)來實現(xiàn),該方法包括如下步驟:問題發(fā)送給模型集群中的所有大模型進行回答;步驟二:答案整合模塊中的權(quán)重計算子模塊對用戶問題進行分類和定位,計算模型數(shù)據(jù)庫中每個大模型對用戶的問題的權(quán)重;步驟三:答案整合模塊中的答案整合子模塊根據(jù)各個模型針對用戶提出的問題給出的答案、由權(quán)重計算子模塊傳遞來的各個模型權(quán)重以及用戶的偏好設(shè)置參數(shù),輸出整合答案;步驟四:輸出的整合答案通過所述交互模塊實時展示給用戶,并接收用戶的指示,確認所述答案整合子模塊重新輸出整合答案;步驟五;答案整合模塊中的統(tǒng)計信息計算及可視化子模塊根據(jù)最終整合答案和各個大模型的答案,計算最終整合答案中每個詞匯在所有模型答案中的統(tǒng)計信息,并進行可視化處理后,并由交互模塊進行展示。5技術(shù)領(lǐng)域[0001]本發(fā)明設(shè)計大模型應(yīng)用領(lǐng)域,具體涉及一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法。背景技術(shù)[0002]GPT-3的發(fā)布讓社會和市場認識到了大語言模型(下簡稱大模型)的價值和潛力。幾年間,世界各地的公司、實驗室、研究所以獨立或合作的方式陸續(xù)推出了幾百款大模型產(chǎn)品。最初發(fā)布的大模型通?;诤A康亩嘣串悩?gòu)數(shù)據(jù)進行訓(xùn)練,這些數(shù)據(jù)來源廣泛,如新聞報道、社交媒體、百科全書等,訓(xùn)練出的模型重點在于獲得廣泛的知識和語言模式,這類模型成為通用模型。在通用模型的基礎(chǔ)上,將訓(xùn)練數(shù)據(jù)集中在特定領(lǐng)域內(nèi),例如醫(yī)學(xué)專業(yè)模型的訓(xùn)練數(shù)據(jù)可能來自醫(yī)療記錄、醫(yī)學(xué)研究論文、臨床影像等,這樣訓(xùn)練出的模型在專業(yè)領(lǐng)域內(nèi)的性能則會顯著高于通用模型,稱為專業(yè)模型。對于普通用戶,大模型可以在工作學(xué)習(xí)生活中提供很多幫助。但目前大模型種類繁多,適配的應(yīng)用場景各不相同,即使是高性能模型,在某些應(yīng)用場景下的輸出波動依然很大,令用戶難以采信。而用戶對眾多大模型一一提[0003]為了能夠讓用戶快速獲得置信度較高的答案,目前采用多個大模型協(xié)作的方法,其實現(xiàn)方式為融合(Merge)、集成(Ensemble)和合作(Cooperate)三類。其中集成方式的大模型協(xié)作分為推理前集成、推理中集成及推理后集成三種:[0004](1)推理前集成方式[0005]推理前集成方式是在進行推理操作之前,對大語言模型進行集成,從眾多的大模型中選擇出最適合當前任務(wù)或輸入的大模型。具體的實現(xiàn)方式為:訓(xùn)練一個外部的路由器(router),這個路由器的作用是在推理之前,根據(jù)一定的標準或規(guī)則,選擇一個合適的大模型進行本次推理任務(wù)。[0006](2)推理中集成方式[0007]推理中集成方式在進行推理的過程中,即解碼步驟中,對多個大模型的輸出進行組合。[0009]推理后集成方式是讓多個大模型分別進行推理,生成各自的輸出,然后在推理完成之后對這些輸出進行集成操作,具體為:將多個大模型按照性能指標(如參數(shù)量、[0010]現(xiàn)有的集成方式存在如下的不足:[0011]1)通過推理前集成雖然可以提前對大語言模型進行篩選和集成決策,避免在推理過程中因使用不合適的大語言模型而導(dǎo)致性能不佳的情況,但選出的單一大模型未必能夠給出最為全面準確的答案,并且該大模型的選擇受到路由器的影響很大,當路由器性能不佳,會導(dǎo)致最后輸出的答案質(zhì)量不佳。[0012]2)采用推理后集成的方式得到的最終答案雖然整合了不同大模型給出的答案,但6整合過程中用戶無法根據(jù)自身的需求干預(yù)整合過程,這可能導(dǎo)致某些對用戶重要的信息被發(fā)明內(nèi)容[0013]針對現(xiàn)有技術(shù)的不足,本發(fā)明提出一種基于多模型并行推理的可交互問答系統(tǒng)及問答方法,結(jié)合推理前和推理后集成兩種方式,具體技術(shù)方案如下:[0014]一種基于多模型并行推理的可交互問答系統(tǒng),包括交互模塊、模型數(shù)據(jù)庫和答案整合模塊;[0015]所述交互模塊用于接收用戶的輸入,發(fā)送至所述答案整合模塊,并進行信息展示;[0016]所述模型數(shù)據(jù)庫用于儲存n個大模型的信息集合;[0017]所述答案整合模塊包括權(quán)重計算子模塊、答案整合子模塊和統(tǒng)計信息計算及可視[0018]所述權(quán)重計算子模塊內(nèi)置受用戶偏好調(diào)節(jié)的模型加權(quán)算法,基于用戶提出的問題和各個大模型的信息,計算各個大模型對于用戶提出的問題的權(quán)重;[0019]所述答案整合子模塊內(nèi)置受用戶偏好調(diào)節(jié)的答案整合算法,基于各個大模型針對用戶提出的問題給出的答案、由權(quán)重計算子模塊傳遞來的各個模型權(quán)重以及用戶的偏好設(shè)[0020]所述統(tǒng)計信息計算及可視化子模塊基于最終整合答案和各個模型對于用戶提出的問題的答案,計算最終整合答案中每個詞匯在所有模型答案中的統(tǒng)計信息,并將其可視[0021]進一步地,所述權(quán)重計算子模塊的具體執(zhí)行過程如下:[0022]S1.1:對所有大模型的用戶評分初始化為無偏好的評分,并根據(jù)用戶輸入調(diào)整對應(yīng)大模型的評分為用戶輸入值;[0023]S1.2:通過機器學(xué)習(xí)方法將模型數(shù)據(jù)庫中所有大模型標簽組成的集合tags中的每個大模型標簽t;轉(zhuǎn)換為向量表示v,構(gòu)建模型標簽向量集合tags;其中,tags={t?,t?,…,t;,…,t},tags={v?,V?,…,vi,…,v};另外,對模型數(shù)據(jù)庫中每一個大模型M對應(yīng)的所有標簽,構(gòu)建模型標簽矩陣Vm;=[Vmi…,Vm;a],其中a為所有標簽的數(shù)量;[0024]S1.3:通過自然語言處理中基于神經(jīng)網(wǎng)絡(luò)的方法提取用戶問題中的關(guān)鍵字詞,基于所有大模型標簽組成的集合tags給出該問題的分類標簽,根據(jù)算法結(jié)果中標簽概率值排序選出概率最大的k個標簽,構(gòu)建問題標簽矩陣Vq=[vq?,…vqk],并記錄每個標簽的概率值Pq={P??…,PLk};[0025]S1.4:將提取到的用戶問題的分類標簽在模型數(shù)據(jù)庫中對所有大模型擁有的標簽進行匹配,計算相似度矩陣S,并將匹配成功的模型按照匹配度從高到低進行排序,并對匹配度進行歸一化處理,得到匹配權(quán)重值Pc={Pc?,…Pc?…,Pcn};[0026]S1.5:根據(jù)用戶選擇,使用大模型在網(wǎng)絡(luò)的公開評分或用戶自定義評分,將所有大模型的評分構(gòu)建集合并進行歸一化處理,記模型評分為scorenorm={s?,…,s;,…,sn},計算針對當前用戶提出的問題第i個大模型的權(quán)重w,并將計算得到的權(quán)重w;傳遞至答案整合子模塊用于后續(xù)的計算。[0027]進一步地,所述步驟S1.4中,將提取到的用戶問題的分類標簽在模型數(shù)據(jù)庫中對所有大模型擁有的標簽進行匹配的具體匹配過程如下:[0028]將問題標簽向量V與模型數(shù)據(jù)庫中每一個大模型M的模型標簽矩陣Vm;計算加權(quán)余弦向量相似度矩陣S,若S中每一行都存在不小于用戶設(shè)置的相似度閾值h的值,則認為模型M匹配成功,并記錄S中每一行中不小于h的值的數(shù)量作為模型匹配度。[0032]進一步地,所述答案整合子模塊計算出最終整合答案的過程如下:[0033]S2.1:首先從模型數(shù)據(jù)庫讀取針對本次問題各個大模型輸出的答案,并逐一進行標準化處理;[0034]S2.2:將每個大模型輸出的答案映射到高維語義空間中,生成對應(yīng)的語義嵌入向量;然后,基于余弦相似度計算所有答案對之間的語義相似性,構(gòu)建一個對稱的相似度矩陣,記為Sim(i,j),其中i和j表示不同的答案,Sim(i,j)[0035]S2.3:綜合各個大模型的權(quán)重w和語義相似性,計算每個答案的最終整合權(quán)重:[0038]其中,αi表示第i個答案的整合權(quán)重,n表示答案的數(shù)量,λ為調(diào)節(jié)語義相似性影響力的超參數(shù),取值范圍[0,1];∈為語義相似度閾值;f(Sim(i,j),∈)是一個分段函數(shù);[0039]S2.4:選擇一個具備上下文理解,推理及文本生成能力的大模型作為最終答案整合模型,通過輸入各個大模型的原始答案和最終整合權(quán)重生成邏輯連貫、語法流暢的答案,并接收用戶輸入的與提出問題相關(guān)有關(guān)的關(guān)鍵詞、語義相似度閾值調(diào)整最終整合答案的語[0041]初始化階段:接收用戶提出的問題、用戶選擇的默認模型數(shù)據(jù)或自定義模型數(shù)據(jù),分類展示模型信息;[0042]整合答案的交互階段:接收用戶輸入的與提出問題相關(guān)有關(guān)的關(guān)鍵詞、語義相似度閾值、修改的模型信息、偏好系數(shù),展示從答案整合模塊獲取的整合答案,以及展示用戶問題參數(shù)和整合答案用到的各個大模型的信息;[0043]最終整合答案確定后:接收用戶的劃詞操作,展示與所述最終整合答案相關(guān)的溯[0044]進一步地,所述模型數(shù)據(jù)庫中每個大模型的信息集合用一個元組來表示:domain_orginali,domain_clienti,tags_originali,ta[0046]其中,name表示第i個大模型的名稱;source表示第i個大模型的來源(由哪家公司、機構(gòu)或高校發(fā)布);parameters;表示第i個大模型的參數(shù)量;score_original表示第i個]8大模型的在網(wǎng)絡(luò)的公開評分;score_client;表示用戶對第i個大模型的評分;domain_orginal表示第i個大模型的發(fā)布者為其定位的應(yīng)用領(lǐng)域;domain_client;是用戶根據(jù)自身需要認為第i個大模型合適的應(yīng)用領(lǐng)域;tags_original表示第i個大模型的發(fā)布者為其標記的標簽;tags_client;是用戶根據(jù)自身偏好為第i個大模型標記的標簽;weight;表示第i個大模型的權(quán)重得分,由受用戶偏好調(diào)節(jié)的模型加權(quán)算法得出;description;表示發(fā)布者對第i個大模型的描述,用戶也可自行更改;answer;用于存儲第i個大模型對于用戶提出問題推理得到的答案。[0047]進一步地,語義相似度閾值∈的初始值為0.5,提高∈取值,則答案整合過程中篩選相關(guān)性更高的答案,降低∈取值,則答案整合過程中引入更多潛在的相關(guān)答案。[0049]一種基于多模型并行推理的可交互問答方法,該方法由基于多模型并行推理的可交互問答系統(tǒng)來實現(xiàn),該方法包括如下步驟:用戶問題發(fā)送給模型集群中的所有大模型進行回答;[0051]步驟二:答案整合模塊中的權(quán)重計算子模塊對用戶問題進行分類和定位,計算模型數(shù)據(jù)庫中每個大模型對用戶的問題的權(quán)重;[0052]步驟三:答案整合模塊中的答案整合子模塊根據(jù)各個模型針對用戶提出的問題給出的答案、由權(quán)重計算子模塊傳遞來的各個模型權(quán)重以及用戶的偏好設(shè)置參數(shù),輸出整合答案;[0053]步驟四:輸出的整合答案通過所述交互模塊實時展示給用戶,并接收用戶的指示,確認是否為最終整合答案;若為是,則執(zhí)行步驟五;若為否,則接收用戶修改的偏好設(shè)置參數(shù),由所述答案整合子模塊重新輸出整合答案;[0054]步驟五;答案整合模塊中的統(tǒng)計信息計算及可視化子模塊根據(jù)最終整合答案和各個大模型的答案,計算最終整合答案中每個詞匯在所有模型答案中的統(tǒng)計信息,并進行可視化處理后,并由交互模塊進行展示。[0055]本發(fā)明的有益效果如下:[0056](1)本發(fā)明的系統(tǒng)及方法,在用戶每一次提出問題后,每一個模型都會接收到用戶的問題并給出推理答案,系統(tǒng)根據(jù)用戶的問題和系統(tǒng)中模型的各項參數(shù)指標,對所有大模型賦予權(quán)重,該權(quán)重僅針對用戶本次提問的問題,本發(fā)明能夠考慮和保留某些總體評分不夠高的模型所提供的有價值答案。[0057](2)本發(fā)明的系統(tǒng)及方法,使得用戶能夠根據(jù)自身需要個性化干預(yù)答案整合過程(如設(shè)置關(guān)鍵詞,設(shè)定詞頻閾值等),整合答案會隨著用戶的干預(yù)變化,使得最終答案與用戶需求匹配度更高。[0058](3)本發(fā)明的系統(tǒng)及方法,能夠?qū)ψ罱K整合答案的每個詞句進行標識,便于用戶可以隨時查詢最終整合答案中任意詞句來自哪一個或一些模型,更便于用戶溯源。[0059](4)本發(fā)明的系統(tǒng)及方法,為用戶提供可視化的答案差異展示,使得用戶能夠方便地查看任意模型的答案與最終整合答案的一致度、差異度、差異點等信息,降低了閱讀評價各個大模型答案的時間成本,提高了使用效率。9附圖說明[0060]圖1為本發(fā)明的基于多模型并行推理的可交互問答系統(tǒng)的組成,及其與用戶、模型集群的關(guān)系示意圖。[0061]圖2為交互模塊初始化狀態(tài)示意圖。[0062]圖3為整合答案的交互過程示意圖。[0064]圖5為本發(fā)明的可交互問答方法的流程圖,其中實線箭頭為首次運行流程,虛線箭頭為用戶根據(jù)偏好干預(yù)答案的流程。具體實施方式[0065]下面根據(jù)附圖和優(yōu)選實施例詳細描述本發(fā)明,本發(fā)明的目的和效果將變得更加明白,應(yīng)當理解,此處所描述的具體實施例僅僅用以[0067]GloVe:GlobalVectorsforWordRepresentation,全局向量的詞嵌入[0068]Word2vec:Wordtovector,Google于2013年開源推出的一個用于獲取詞向量預(yù)訓(xùn)練語言模型;[0070]Sentence-BERT:SentenceBidirectionalTransformers,句嵌入表征模型;[0071]GPT:GenerativePre-trainedTransformer,生成式預(yù)訓(xùn)練變換器。[0072]一方面,本發(fā)明提供一種基于多模型并行推理的可交互問答系統(tǒng),如圖1所示,該系統(tǒng)包括交互模塊、模型數(shù)據(jù)庫和答案整合模塊三部分。[0074]交互模塊用于接收用戶的輸入,并將其發(fā)送至答案整合模塊,同時從答案整合模塊獲取最終整合答案并進行展示。用戶的輸入在問答的不同階段是不同的,共分為:[0075]初始化階段:交互模塊接收用戶提出的問題、用戶選擇的默認模型數(shù)據(jù)或自定義模型數(shù)據(jù),并將其發(fā)送給答案整合模塊,并將模型群中的各個模型及其參數(shù)進行分類展示。[0076]整合答案的交互階段:當用戶對整合答案不滿意時,交互模塊接收用戶輸入的與提出問題有關(guān)的關(guān)鍵詞、語義相似度閾值、修改的模型信息、偏好系數(shù)等,發(fā)送給答案整合模塊,然后從答復(fù)整合模塊獲取重新生成的整合答案并進行展示,同時展示用戶問題參數(shù)和整合答案用到的各個模型的信息。[0077]最終整合答案確定后:交互模塊接收用戶的劃詞操作,并可視化展示劃詞的溯源信息和統(tǒng)計信息。區(qū)域為輸入交互區(qū)域,該區(qū)域作為用戶問題的入口,采用文本輸入框形式,為后續(xù)問答流程提供原始輸入數(shù)據(jù)。B區(qū)域用于模型數(shù)據(jù)庫管理,使用雙模式切換機制,支持默認模型數(shù)據(jù)與自定義模型數(shù)據(jù)庫兩種加載模式,其中默認模型數(shù)據(jù)直接調(diào)用系統(tǒng)預(yù)設(shè)的模型評分、標簽等元數(shù)據(jù);自定義模型數(shù)據(jù)允許用戶修改模型基礎(chǔ)信息(如評分權(quán)重、領(lǐng)域標簽),其修改結(jié)果將作為模型答案權(quán)重計算的輸入?yún)?shù)。C區(qū)域用于展示模型信息,包含模型名稱、版本號等靜態(tài)信息以及領(lǐng)域標簽、評分權(quán)重等可配置信息。D區(qū)域用于模型篩選,提供領(lǐng)域、標[0079]如圖3所示,整合答案的交互階段,交互模塊接收到用戶提出的問題后,從答案整合模塊獲取整合答案并進行展示。其中,A區(qū)域用于顯示最終整合答案,整合過程遵循用戶配置的模型權(quán)重與篩選條件。B區(qū)域用于進行參數(shù)干預(yù)操作,首先展示最終整合答案的生成過程中使用的參數(shù),提供修改功能以滿足用戶對參數(shù)修改的需求,同時接收用戶輸入的與用戶問題相關(guān)的關(guān)鍵詞、語義相似度閾值、修改的模型信息、偏好系數(shù)等參數(shù),參數(shù)修改后發(fā)送至答案整合模塊進行計算,A區(qū)域顯示的答案內(nèi)容隨參數(shù)變化實時更新。[0080]如圖4所示,當最終整合答案確定后,即用戶滿意后,交互模塊提供劃詞溯源功能,接收用戶的劃詞操作,啟動數(shù)據(jù)溯源和統(tǒng)計流程,B區(qū)域用于展示該詞的溯源信息和統(tǒng)計信[0082]模型數(shù)據(jù)庫用于儲存n個大模型的信息集合M={M?,M?,M?,…,M,,…,M},其中任一大模型M的信息使用一個元組來表示:[0083]M=(namei,source;,paramedomain_orginali,domain_clienti,tags_originali,ta[0084]其中,name表示第i個大模型的名稱;source表示第i個大模型的來源(由哪家公司、機構(gòu)或高校發(fā)布);parameters;表示第i個大模型的在網(wǎng)絡(luò)的公開評分;score_client;表示用戶對第i個大模型的評分;domain_orginal;表示第i個大模型的發(fā)布者為其定位的應(yīng)用領(lǐng)域;domain_client;是用戶根據(jù)自身需要認為第i個大模型合適的應(yīng)用領(lǐng)域;tags_original表示第i個大模型的發(fā)布者為其標記的標簽;tags_client;是用戶根據(jù)自身偏好為第i個大模型標記的標簽;weight;表示第i個大模型的權(quán)重得分,由受用戶偏好調(diào)節(jié)的模型加權(quán)算法得出;description;表示發(fā)布者對第i個大模型的描述,用戶也可自行更改;answer;用于存儲第i個大模型對于用戶提出問題推理得到的答案。[0086]答案整合模塊分為權(quán)重計算子模塊、答案整合子模塊和統(tǒng)計信息計算及可視化子[0087]3.1.權(quán)重計算子模塊[0088]權(quán)重計算子模塊的輸入為用戶提出的問題和各個大模型的信息,輸出為各個大模型對于用戶提出的問題的權(quán)重w;,權(quán)重計算子模塊內(nèi)置受用戶偏好調(diào)節(jié)的模型加權(quán)算法計算各個大模型對于用戶提出的問題的權(quán)重w,,具體實現(xiàn)過程如下:[0090]先對所有大模型的用戶評分score_client;初始化為5.0(代表無偏好),并根據(jù)用戶輸入調(diào)整對應(yīng)大模型的評分為用戶輸入值。[0091](2)模型標簽的向量表示[0092]通過機器學(xué)習(xí)方法(如Word2vec或GloVe)將模型數(shù)據(jù)庫中所有大模型標簽組成的集合tags中的每個大模型標簽t;轉(zhuǎn)換為向量表示v,構(gòu)建模型標簽向量集合tags;其中,[0094]通過自然語言處理中基于神經(jīng)網(wǎng)絡(luò)的方法(如BERT模型)提取用戶問題中的關(guān)鍵概率值排序選出概率最大的k個標簽(k由用戶輸入,默認為3,k≤x),構(gòu)建問題標簽矩陣Vq=[va?…vqk],并記錄每個標簽的概率值Pq={Pl,…P?k}。[0096]將提取到的用戶問題的分類標簽在模型數(shù)據(jù)庫中對所有大模型擁有的標簽進行值Pc={Pc?…,Pc?…Pcn}。分構(gòu)建集合并進行歸一化處理,記模型評分為scorenorm={s?,…,si,…,s},計算針對當前[0102]針對當前用戶提出的問題第i個模型的權(quán)重值w的計算公式如下:[0105]3.2答案整合子模塊模塊會將最終整合答案中的每個詞映射回原始答案(保留原始答案和最終整合答案的映射關(guān)系),以實現(xiàn)答案追溯功能,即最終整合答案中的每個詞都可以追溯到其主要貢獻模型。[0121]統(tǒng)計信息計算及可視化子模塊的輸入為最終整合答案和各個模型對于用戶提出[0122]另一方面,本發(fā)明還提供一種基于多模型并行推

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論