版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
深度神經(jīng)網(wǎng)絡(luò)于不確定性量化的應(yīng)用及精度對(duì)比 2第二章基于MATLAB的有限元分析 32.1引言 4 42.2.1加權(quán)余量法 42.2.2變分方法 72.3彈性力學(xué)基本方程 8 2.4.1前處理部分 112.4.2計(jì)算單元矩陣及單元節(jié)點(diǎn)載荷向量 12 122.4.4施加約束條件 132.5算例分析 183.1引言 18 19 3.3.2全連接神經(jīng)網(wǎng)絡(luò)反向傳播算法 213.3.3損失函數(shù)討論與分析 21 交叉熵?fù)p失函數(shù) 3.3.4激活函數(shù)討論與分析 22 23 25 26LeakyReLU激活函數(shù) 26 27 28 28 32 344.1引言 34 3424.2.2循環(huán)神經(jīng)網(wǎng)絡(luò)原理 35如上圖所示,定義輸出層神經(jīng)元公式為 354.3基于循環(huán)神經(jīng)網(wǎng)絡(luò)的不確定性量化 4.3.1自變量,低精度解與高精度解 4.3.2自變量與高精度解 39第五章基于貝葉斯神經(jīng)網(wǎng)絡(luò)的不確定性量化 41 415.2貝葉斯神經(jīng)網(wǎng)絡(luò)概論 5.2.1變分推斷 425.3基于貝葉斯神經(jīng)網(wǎng)絡(luò)的不確定性量化 5.3.1自變量,低精度解與高精度解 5.3.2自變量與高精度解 45參考文獻(xiàn) 從真實(shí)世界中的物理系統(tǒng)到計(jì)算機(jī)科學(xué)中的仿真模型,每一個(gè)系統(tǒng)或者模型都存在不確定性。如圖1-1所示為不確定性分類(lèi)圖??陀^存在的,可以通過(guò)概率方法進(jìn)行統(tǒng)計(jì)分析,也稱(chēng)為客觀不確定性。隨機(jī)不確定性又可以分為同方差不確定性和異方差不確定性。同方差不確定性是指輸出的不確定性不隨輸入的不同而改變,異方差不確定性是指隨著輸入的改變,輸出的不確定性將發(fā)生改變,實(shí)際問(wèn)題中異方差不確定性往往占據(jù)多數(shù),降低了模型的認(rèn)知不確定性往往是由于知識(shí)不夠,數(shù)據(jù)不足,認(rèn)知有限等因素造成的不確定性。認(rèn)知不確定性主要包括參數(shù)的不確性和結(jié)構(gòu)的不確定性,對(duì)于參數(shù)不確定性往往先假設(shè)參數(shù)服從某一分布,再根據(jù)給定的數(shù)據(jù)觀察參數(shù)分布的變化,也就是估計(jì)后驗(yàn)分布,進(jìn)而得到參數(shù)的概率估計(jì)來(lái)表征參數(shù)的不確定性。結(jié)構(gòu)不確定性是選擇模型時(shí)所帶入的誤差(謝澤楷,傅雅萍,2022)[1]。而不確定性量化(UncertaintyQuantification,UQ),就是一門(mén)在計(jì)算應(yīng)用領(lǐng)域進(jìn)行定量表征和降低不確定性的科學(xué)。KarenWillcox和YoussefMarzouk定義:在實(shí)際應(yīng)用中,不確定性量化主要包括定量表征和不確定性管理。它涵蓋了數(shù)據(jù)觀測(cè),理論分析和計(jì)算機(jī)模型等領(lǐng)域(王宇鵬,劉洛兮,2023)。以當(dāng)前的背景條件為基不確定性量化涵蓋許多任務(wù),包括靈敏度分析,不確定性傳播,統(tǒng)計(jì)推因此,不確定性量化從應(yīng)用數(shù)學(xué)和統(tǒng)計(jì)學(xué)中引用了許多基礎(chǔ)性知識(shí)及概念,例如:誤差估計(jì),近似理論,蒙特卡羅方法和隨即建模{2]。不確定性量化不僅可以應(yīng)用于工程領(lǐng)域,而且也可以延伸到金融領(lǐng)域,使這些行業(yè)受益匪淺。當(dāng)系統(tǒng)某些方面無(wú)法準(zhǔn)確確定的情況下,不確定性量化可以應(yīng)用在量化和確定系統(tǒng)某個(gè)輸入或者輸出的可能性有多大的問(wèn)題中,以上面各項(xiàng)分析情況為據(jù)在自然災(zāi)害預(yù)測(cè),股市漲跌預(yù)測(cè),保險(xiǎn)業(yè)務(wù),產(chǎn)品可靠性估計(jì)等實(shí)際應(yīng)用中發(fā)揮著舉足輕重的作用(秦思遠(yuǎn),許君浩,2021)[3]。而深度學(xué)習(xí)是一種高效的非線性高維數(shù)據(jù)處理方法6,應(yīng)用于不確定性量化中,可以有效實(shí)現(xiàn)高維度數(shù)據(jù)分析,進(jìn)而確定不確定性的來(lái)源,對(duì)比線性回歸模型和自回歸模型,深度學(xué)習(xí)模型有更強(qiáng)的能力剔除變量中的可預(yù)測(cè)的確定性成分進(jìn)而得到不確定性的量化(謝俊朗,郭曉婷,2020)。所以研究基于深度神經(jīng)網(wǎng)絡(luò)的不確定性量化的方法是很有價(jià)值和意義的。第二章基于MATLAB的有限元分析4本章主要實(shí)現(xiàn)基于MATLAB的有限元分析,為后文深度神經(jīng)網(wǎng)絡(luò)的搭建提供數(shù)據(jù)和算例。在現(xiàn)實(shí)工程與系統(tǒng)的分析中,人們已經(jīng)可以得到相應(yīng)系統(tǒng)所遵循的基本方程和得到定解所需要的約束條件,但是因?yàn)檫@些方程往往都是偏微分方程或者常微分方程,用解析方法求得高精度解的難度很大,對(duì)于大多數(shù)問(wèn)題來(lái)說(shuō),還是依賴于用數(shù)值方法求解,鑒于當(dāng)前狀況看而有限元方法就是一種行之有效的數(shù)值求解方法(白逸凡,熊馨月,2023)。有限元方法的基本思想是將連續(xù)的求解區(qū)域通過(guò)網(wǎng)格離散為有限個(gè),按照一定順序排列的單元,單元與單元之間通過(guò)節(jié)點(diǎn)連接,單元又有不同的劃分方式,以此實(shí)現(xiàn)用單元內(nèi)的近似函數(shù)來(lái)分片表示整個(gè)求解區(qū)域上未知的場(chǎng)函數(shù)。如此一來(lái),未知場(chǎng)函數(shù)或者其導(dǎo)數(shù)在各個(gè)節(jié)點(diǎn)處的數(shù)值成為了新的自變量,而且由于單元是有限的,故新的自變量數(shù)目也是有限而且由于單元?jiǎng)澐址绞讲灰恢?,解的精度也是可以控制的。如果單元滿足收斂條件,解的精確度是和單元的密度成正比的,單元足夠密集,近似解將收斂于精確解(馬飛,肖俊杰,2021)。2.2建立有限元方程的基本方法從確定單元的方法和求解方程的理論基礎(chǔ)出發(fā),最早的有限元方法是直接剛度法,其理論基礎(chǔ)來(lái)源于結(jié)構(gòu)分析中的剛度法。后來(lái),有限元方法被證明其只是基于變分原理的Ritz方法的變形方法,現(xiàn)有結(jié)果為我們的推論提供了堅(jiān)實(shí)支撐以此確認(rèn)了有限元方法在求解連續(xù)介質(zhì)問(wèn)題上的普適性(周建強(qiáng),孫澤宇,2021)。不需要滿足任何邊界條件,而后者是在全局假設(shè)和建立近似函數(shù)。故而有限元方法可以用來(lái)處理很復(fù)雜的連續(xù)介質(zhì)問(wèn)題。至于后來(lái)出現(xiàn)的加權(quán)余量法主要應(yīng)用的加權(quán)余量法是一種基于微分方程等效積分的求解微分方程近似解的有效方法,可以用來(lái)建立有限元方程。一般的工程分析問(wèn)題是用未知場(chǎng)函數(shù)應(yīng)該滿足的微分方程(2-1)和邊界條件(2-2)來(lái)表示的式中,域Ω可以代表體積域,也可以代表面積域等等;而T是域Ω的邊界。未知來(lái)核實(shí)數(shù)據(jù)的有效性,且識(shí)別出潛在的異常數(shù)值。通過(guò)對(duì)數(shù)據(jù)分布特性的透徹分析,本文能夠切實(shí)排除那些明顯脫離正常區(qū)間的數(shù)據(jù)點(diǎn),并且保留富有代表性的樣本情況。此外,本文還運(yùn)用敏感性分析去衡量不同參數(shù)改變給研究結(jié)論帶來(lái)的由于式(2-1)在域Ω中的點(diǎn)均滿足為0的條件,故得到其中V={v?v?…}是函數(shù)向量,是一組與微分方程的個(gè)數(shù)完全相等的任意函數(shù)。對(duì)于所有的向量函數(shù)V和V成立,而且等效于式(2-1)和式(2-2)。這里要求式(2-5)是可以計(jì)算的,故V和V必須滿足可積的條件。這在一定層面上展現(xiàn)如果場(chǎng)函數(shù)u是精確解,那么上面各式必然滿足,但是由于精確解u往往很難得到,對(duì)于上面所描述的問(wèn)題,可以用有待定參數(shù)的近似函數(shù)來(lái)表示,近似函數(shù)可6滿足邊界條件和連續(xù)性的要求。一邊情況下,由于n為有限值,故精確解與近似解之間會(huì)存在殘差R和R,我們將其定義為余量,如式(2-7)所示(陳雨倩,黃俊對(duì)于式(2-5),用n個(gè)已經(jīng)選定的函數(shù)來(lái)進(jìn)行近似代替這樣就可以得到近似的積分等效形式j(luò)=1,2,L,n)由式(2-8)和式(2-9)可知,當(dāng)待定參數(shù)α取一定值時(shí)可以使余量在平均意義上接近于0,我們將W;和W,稱(chēng)之為權(quán)函數(shù)。通過(guò)將余量的加權(quán)積分設(shè)置為0得到一組方程組,用這組方程組來(lái)求解未確定的待定系數(shù),進(jìn)而得到近似解,將式(2-8)展開(kāi)為方程組得上面所示方程中權(quán)函數(shù)W和W,的函數(shù)陣列的階數(shù)分別與A,B中的元素個(gè)數(shù)相同。近似函數(shù)取的項(xiàng)數(shù)n越多,近似解與精確解之間的殘差越小。當(dāng)n趨近于無(wú)窮時(shí),近似解將收斂于精確解(高俊杰,何雨琪,2021)。這種采用余量積分為0的方法就稱(chēng)之為加權(quán)余量法。本文以已有的理論為依托構(gòu)建起框架模型。在信息流的各個(gè)流程以及數(shù)據(jù)分析的方法運(yùn)用上,都體現(xiàn)出對(duì)前人研究成果的敬重與繼承,同時(shí)也實(shí)現(xiàn)了創(chuàng)新與拓展。在信息流的設(shè)計(jì)方面,本文借鑒經(jīng)典的信息處理理論,保證信息從采集、傳輸?shù)椒治龅拿恳粋€(gè)環(huán)節(jié),都能高效且準(zhǔn)確地進(jìn)行。通過(guò)對(duì)數(shù)據(jù)來(lái)源的嚴(yán)格篩選,執(zhí)行標(biāo)準(zhǔn)化的處理流程,使信息質(zhì)量得以有效保障,從而更2.2.2變分方法對(duì)于連續(xù)介質(zhì)問(wèn)題,可以定義未知函數(shù)u的泛函為其中F和E都是特定的算子,Ω和T分別為泛函Ⅱ?qū)ξ⑿∽兓痮u取駐值來(lái)得到連續(xù)介質(zhì)問(wèn)題的解u,即泛函Ⅱ的變分等于零同樣的,對(duì)于用變分方法求解的問(wèn)題,還是可以通過(guò)用帶有待定參數(shù)的試探 (鄭建華,黃健雄,2023)。而泛函的變分為零,實(shí)質(zhì)上就是將泛函對(duì)所有的待定參數(shù)取全微分,并且令其等于零,如式(2-13)所示通過(guò)式(2-14)可求得待定參數(shù)α。及其導(dǎo)數(shù)的最高階次為二,稱(chēng)泛函Ⅱ?yàn)槎畏汉?。二次泛函進(jìn)一步可以將其改寫(xiě)再將式(2-15)進(jìn)行變分得到8又因?yàn)榫仃嘖的子矩陣文綜述中的結(jié)論基本吻合,這一現(xiàn)象首先凸顯了本研究所采用方法在有效性與可靠性方面的顯著優(yōu)勢(shì)。這種高度的一致性不僅對(duì)先前研究結(jié)論進(jìn)行了有力驗(yàn)證,同時(shí)也為當(dāng)前的理論框架增添了更為堅(jiān)實(shí)的支撐。憑借嚴(yán)謹(jǐn)?shù)难芯吭O(shè)計(jì)、系統(tǒng)的數(shù)據(jù)收集以及科學(xué)的數(shù)據(jù)分析,本文成功復(fù)現(xiàn)了前人研究中的核心發(fā)現(xiàn),并在此基礎(chǔ)上展開(kāi)了更為深入的探究。這一過(guò)程不僅進(jìn)一步鞏固了本文對(duì)研究假設(shè)的信通過(guò)式(2-15),可以將泛函表示為因?yàn)閐α為任意的,故由式(2-15)可得又因?yàn)閷?duì)式(2-19)進(jìn)行變分可以得到在線彈性力學(xué)中,當(dāng)載荷作用于彈性體內(nèi)任意一點(diǎn)時(shí),該點(diǎn)的應(yīng)力狀態(tài)可以由6個(gè)應(yīng)力分量進(jìn)行表示應(yīng)變狀態(tài)可以由6個(gè)應(yīng)變分量進(jìn)行表示在彈性體V域內(nèi)的平衡方程為上式中X,Y,Z分別為單位體積的體積力在坐標(biāo)軸上的分力。上式中1,m,n為彈性體邊界外發(fā)現(xiàn)的方向余弦,X,Y,Z為單位面積的面積力在坐標(biāo)軸上的分量。(姜立軍,陸曉峰,2021)幾何方程定義為位移邊界條件本構(gòu)關(guān)系為如果為各向同性材料,則2.4MATLAB有限元法基本步驟在MATLAB進(jìn)行有限元分析不同于用商用有限元分析軟件程完成分析,而且處理方法也不同于其他軟件。相較于其他專(zhuān)業(yè)的有限元分析軟作而言,本文主要通過(guò)一系列嚴(yán)格的方法和措施,確保數(shù)據(jù)的準(zhǔn)確程度以及結(jié)果的可靠程度。精心構(gòu)建了詳細(xì)的研究方案,對(duì)可能引發(fā)誤差的各類(lèi)因素,包括環(huán)境變量、人為操作的差異,以及數(shù)據(jù)計(jì)算的精度等,進(jìn)行了全面的分析與權(quán)衡。采用規(guī)范化的操作流程和技術(shù)手段,保障數(shù)據(jù)的一致性和可重復(fù)性。為進(jìn)一步優(yōu)化數(shù)據(jù)質(zhì)量,還建立了雙重?cái)?shù)據(jù)錄入和交叉驗(yàn)證的制度,有效避免了因人為的疏2.4.1前處理部分在這一部分,主要工作是定義變量,對(duì)網(wǎng)格劃分,模型建立進(jìn)行闡述,雖然MATLAB支持不定義變量就可以使用,但是為了程序的嚴(yán)謹(jǐn)和代碼的可讀性,還在整個(gè)分析過(guò)程中,單元的劃分是最復(fù)雜的一部分。但是因?yàn)橐话愕纳虡I(yè)軟件已經(jīng)可以做到單元的細(xì)致劃分,在這樣的條件背景下可以推知其事態(tài)如果是為了追求有限元分析的精確,建議還是使用專(zhuān)業(yè)軟件如:AN王思遠(yuǎn),劉錦濤。MATLAB主要用于理論探索與驗(yàn)證,沒(méi)有必要停留(9)element_damping_matrix:單元阻尼矩陣(10)element_load_vector:單元載荷向量矩陣(12)structural_mass_matrix:系統(tǒng)質(zhì)量矩陣(13)structural_damping_matrix:系統(tǒng)阻尼矩陣除此之外還需要的定義一些循環(huán)變量和材料的屬性變量。因?yàn)橛?jì)算單元矩陣與選擇的單元類(lèi)型息息相關(guān),所以這一部分將在章節(jié)2.5算例中將詳細(xì)介紹。系統(tǒng)的剛度矩陣,質(zhì)量矩陣,阻尼矩陣和節(jié)點(diǎn)的載荷向量都是由相對(duì)應(yīng)的單元矩陣組裝而成。整個(gè)裝配過(guò)程中所遵循的關(guān)系是單元位移編號(hào)和系統(tǒng)整體位移編號(hào)之間的對(duì)應(yīng)關(guān)系(許睿達(dá),孔嘉誠(chéng),2022)。當(dāng)進(jìn)行數(shù)據(jù)分析方法的抉擇時(shí),本文不但采用了傳統(tǒng)的統(tǒng)計(jì)分析手段,例如描述性統(tǒng)計(jì)、回歸分析等,還引入了近些年發(fā)展迅速的數(shù)據(jù)挖掘技術(shù)和算法。例如,通過(guò)聚類(lèi)分析尋找數(shù)據(jù)中的潛在模式,或者利用決策樹(shù)算法對(duì)未來(lái)趨勢(shì)加以預(yù)測(cè)。這些先進(jìn)的方法為深入剖析復(fù)雜現(xiàn)象提供了有力的支撐,助力揭示海量數(shù)據(jù)背后的深層次聯(lián)系。再者,本文特別強(qiáng)調(diào)混合方法的運(yùn)用,將定量研究與定性研究相結(jié)合,以獲取更全面的研究視實(shí)際應(yīng)用中,首先對(duì)節(jié)點(diǎn)位移進(jìn)行排序編號(hào),使得單元矩陣中元素的排列和單元各節(jié)點(diǎn)位移編號(hào)相對(duì)應(yīng),以上面各項(xiàng)分析情況為據(jù)如果我們?cè)诮卧仃嚨倪^(guò)程中使用的是單元坐標(biāo)系,在組裝系統(tǒng)矩陣之前,需要將單元坐標(biāo)系轉(zhuǎn)換為系統(tǒng)坐標(biāo)系(吳志豪,鄭雅晴,2019)。以系統(tǒng)剛度矩陣的組裝為例,上述轉(zhuǎn)換過(guò)程可以表示為上式中Ke為系統(tǒng)坐標(biāo)系下的單元?jiǎng)偠染仃?,K°為單元坐標(biāo)系下的單元?jiǎng)偠染仃?,T則為一個(gè)坐標(biāo)轉(zhuǎn)換公式。如果單元矩陣也是建立在系統(tǒng)坐標(biāo)系下的,那么在組裝由于系統(tǒng)剛度矩陣是由單元?jiǎng)偠染仃嚱M裝而成,所以兩者之間存在著相似的物理意義。主要性質(zhì)有以下幾點(diǎn):(1)帶狀特性:一般情況下,將連續(xù)的實(shí)體離散化后,每個(gè)節(jié)點(diǎn)周?chē)膯卧皇巧贁?shù)幾個(gè),而通過(guò)單元與之有關(guān)系的其他節(jié)點(diǎn)也只是少數(shù),所以可以把其余的節(jié)點(diǎn)位移定義為零,相當(dāng)于只在求解的節(jié)點(diǎn)和相關(guān)節(jié)點(diǎn)上施加節(jié)點(diǎn)力。這樣一來(lái)每一列中必然有大多數(shù)的元素為0,依上述分析可得出即使結(jié)構(gòu)總單元數(shù)和總節(jié)點(diǎn)數(shù)編序是合理的,相鄰節(jié)點(diǎn)之間的編號(hào)相差不是很多,這些占少數(shù)的非零元素將主要集中在主對(duì)角線附近的帶狀區(qū)域。考慮到時(shí)間因素的關(guān)鍵意義,在此暫不詳盡論述上文結(jié)論的驗(yàn)證過(guò)程??茖W(xué)研究一般呈現(xiàn)為一個(gè)漫長(zhǎng)的過(guò)程,特別是在攻克復(fù)雜問(wèn)題或者探索新興領(lǐng)域時(shí),需要足夠的時(shí)間去觀察現(xiàn)象、剖析數(shù)據(jù),進(jìn)而得出可靠的結(jié)論。盡管本研究已取得一定的初步成果,然而要對(duì)所有結(jié)論進(jìn)行全面且細(xì)致的驗(yàn)證,還需要長(zhǎng)期的跟蹤研究以及反復(fù)的實(shí)驗(yàn)操作。這不僅有助于消除偶然因素的干擾,還能確保研究成果擁有更高的可信度和廣泛的應(yīng)用價(jià)值。再者,技術(shù)手段的發(fā)展水平對(duì)結(jié)論的驗(yàn)證進(jìn)程有著重要的影響。(2)對(duì)稱(chēng)性:這是由于單元?jiǎng)偠染仃噷?duì)稱(chēng)性導(dǎo)致的。(3)稀疏:如(1)中所討論的,非零元素只是占少部分,大多數(shù)元素都是0?;谏鲜鎏匦裕贛ATLAB中可以使用稀疏矩陣來(lái)存儲(chǔ)此類(lèi)矩陣,節(jié)約所占空間,進(jìn)一步的,利用對(duì)稱(chēng)性可以只存儲(chǔ)非零元素的一半。不過(guò)在使用稀疏矩陣之前,需要先定義矩陣變量為稀疏矩陣。在上文中,通過(guò)模型的離散化得到了近似函數(shù),所選擇的函數(shù)在單元內(nèi)部滿足幾何方程,但是在選擇試探函數(shù)時(shí)候,并沒(méi)有將邊界上的唯一約束條件加上,故還需要將約束條件引入有限元方程。一般問(wèn)題處理過(guò)程中,以當(dāng)前的背景條件為基幾何邊界條件通常為若干個(gè)節(jié)點(diǎn)上的場(chǎng)函數(shù)的給定值來(lái)引入的。在靜力學(xué)問(wèn)題中,必須使系統(tǒng)的剛體位移足以2.5算例分析問(wèn)題:圖2-1所示為一受豎直向上集中載荷的懸臂梁,集中載荷F=1000N,梁長(zhǎng)8米,高1米,鑒于當(dāng)前狀況看梁材料的彈性模量E=1.0×10?pa,泊松比為0.3,用二維等參單元進(jìn)行靜力分析。在有限元分析中,精度會(huì)隨著單元節(jié)點(diǎn)數(shù)目的加而提高,但是插值函數(shù)的階次也會(huì)隨之增高。想要用較少的形狀規(guī)則的單元進(jìn)行復(fù)雜幾何體的離散具有一定的困難,但是如果使用的單元的邊界是曲線或者是曲面,這個(gè)問(wèn)題就可以得到很好的解決了。所以要做的就是將形狀規(guī)則的單元進(jìn)行轉(zhuǎn)化,使之成為曲線或者曲面,這就是等參變換。對(duì)于理論框架的核實(shí)與改進(jìn)工作,本文搜集到充裕且詳實(shí)的數(shù)據(jù)資源。這些數(shù)據(jù)覆蓋了廣泛的研究對(duì)象范圍,在不同時(shí)間點(diǎn)以及多元的社會(huì)背景下都有涉及,為理論框架的全面驗(yàn)證提供了堅(jiān)實(shí)支撐。利用統(tǒng)計(jì)分析工具對(duì)量化數(shù)據(jù)進(jìn)行細(xì)致處理,能夠有效檢驗(yàn)原理論框架中的各項(xiàng)假設(shè),發(fā)現(xiàn)其中的薄弱環(huán)節(jié)。后續(xù)研究將考慮納入更多變量參數(shù),或者選用更大規(guī)模的樣本集合,以此進(jìn)一步提升理論框架的解釋能力與預(yù)測(cè)精準(zhǔn)性。為解決上述問(wèn)題我選用四邊形等參單元求解。如圖2-2所示為四邊形單元的等參變換,等參變換的實(shí)質(zhì)是從一個(gè)坐標(biāo)系到另外一個(gè)坐標(biāo)系的映射,前者是自然坐標(biāo)系,看得出趨勢(shì)來(lái)后者是物理坐標(biāo)系??梢詫⑵浔磉_(dá)為式(2-31)在本問(wèn)題中,取坐標(biāo)系中的單元均為雙線性單元,定義單元的形函數(shù)如式(2-32)現(xiàn)有結(jié)果為我們的推論提供了堅(jiān)實(shí)支撐建立單元自然坐標(biāo)系與物理坐標(biāo)系之間的聯(lián)系方程如式(2-33)(武景云,魯啟銘,2023)且在進(jìn)行坐標(biāo)變換時(shí)必須保證單元兩個(gè)坐標(biāo)系下的節(jié)點(diǎn)編號(hào)保持一致。根據(jù)上文所述,定義形函數(shù)進(jìn)行插值運(yùn)算,如式(2-34)上式中,i,j為物理坐標(biāo)系下的單元坐標(biāo)向量,將式(2-42)代入式(2-40)得故而將懸臂梁結(jié)構(gòu)劃分別劃分為8個(gè)單元,16個(gè)單元,32個(gè)單元,64個(gè)單元進(jìn)行計(jì)算,利用MATLAB編程求解得到懸臂梁自由端X,Y方向的位移如表2-1所示自由端位移8單元16單元32單元而是在一定的范圍內(nèi)波動(dòng),如果可以量化自由端位移的不確定性,將對(duì)懸臂梁設(shè)神經(jīng)網(wǎng)絡(luò)并不是一種算法,而是一種架構(gòu)或者模型。神經(jīng)網(wǎng)絡(luò)的產(chǎn)生是受生物大腦神經(jīng)元結(jié)構(gòu)的啟發(fā),建立計(jì)算機(jī)網(wǎng)絡(luò)來(lái)模擬生物大腦神經(jīng)元之間的信息處理與傳遞,作為一種高度簡(jiǎn)化的模型,這種結(jié)構(gòu)也被稱(chēng)之為人工神經(jīng)網(wǎng)絡(luò)。在本章節(jié)中,將主要討論全連接神經(jīng)網(wǎng)絡(luò)應(yīng)用于不確定性量化,聯(lián)合前一章節(jié)中的算例進(jìn)行分析(賀博遠(yuǎn),齊明杰,2019)。主要內(nèi)容包括全連接神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),全連接神經(jīng)網(wǎng)絡(luò)前向傳播算法推導(dǎo),反向傳播算法推導(dǎo),損失函數(shù)的分析與討論,從這個(gè)角度來(lái)看我們認(rèn)識(shí)到以及算例實(shí)現(xiàn)基于有限元分析的多精度不確定3.2全連接神經(jīng)網(wǎng)絡(luò)概述神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)是神經(jīng)元。如圖3-1所示,類(lèi)似于權(quán)重激活函數(shù)f()(w,w?,W?,w4,…,wn)與之相乘,同時(shí)存在一個(gè)閾值θ,當(dāng)輸入值與權(quán)重相乘求和之后如果小于閾值,神經(jīng)元的輸出值較小,稱(chēng)之為抑制狀態(tài),當(dāng)輸入值與權(quán)重相乘因?yàn)橐粋€(gè)神經(jīng)元中參數(shù)很少,其實(shí)現(xiàn)的功能只能是對(duì)數(shù)據(jù)進(jìn)行線性分析,學(xué)習(xí)能力不足。為了實(shí)現(xiàn)更加復(fù)雜的功能,往往是把許多個(gè)神經(jīng)元結(jié)合到一起來(lái)使用,使之成為一個(gè)網(wǎng)絡(luò),如圖3-2所示(葉宇澤,劉家銘,2020)。通常來(lái)說(shuō)一個(gè)神經(jīng)網(wǎng)絡(luò)包含輸入層,隱藏層和輸出層,第一層為輸入層,最后一層為輸出層,中間的為隱藏層。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力主要有隱藏層賦予,隱藏層可以為任意層數(shù),每一個(gè)隱藏層都可以有若干個(gè)神經(jīng)元白逸凡,熊馨月。這在某種程度上映射了每一層之間的神經(jīng)元之間不存在連接關(guān)系,不同層之間的神經(jīng)元也不存在連接關(guān)系,只有層與層之間存在連接關(guān)系。本文構(gòu)建的框架模型,其關(guān)鍵特點(diǎn)之一是靈活性與可擴(kuò)展性??紤]到研究背景和需求的廣泛多樣性,本文在設(shè)計(jì)模型時(shí),著重確保各組件的模塊化特性。這使得本文能夠根據(jù)實(shí)際情況,靈活地對(duì)特定部分進(jìn)行調(diào)整或替換,而不影響整體架構(gòu)的穩(wěn)定與有效。這種設(shè)計(jì)方法,不僅增強(qiáng)了模型在實(shí)際應(yīng)用中的意義,還為后續(xù)研究者提供了一個(gè)開(kāi)放的平臺(tái),鼓勵(lì)他們?cè)诂F(xiàn)有基礎(chǔ)上進(jìn)行二次開(kāi)發(fā),實(shí)現(xiàn)模型的創(chuàng)新發(fā)展。層的類(lèi)型多種多樣,但是本文中的神經(jīng)網(wǎng)絡(luò)都采用線性層,因?yàn)榫€性層是最重要,最基礎(chǔ)的層,其原理是線性變化,如式(3-2)所示。在神經(jīng)網(wǎng)絡(luò)中,每一層的輸出的都會(huì)被當(dāng)作下一層的輸入,每一層都有自己的學(xué)習(xí)參數(shù)。在神經(jīng)網(wǎng)絡(luò)的命名時(shí),通常不計(jì)入輸入層,只計(jì)入隱藏層和輸出層,圖3-2所示神經(jīng)網(wǎng)絡(luò)就是一個(gè)四層神經(jīng)網(wǎng)絡(luò)(陳睿思,劉子航,2021)。上圖所示也是一個(gè)典型的全連接神經(jīng)網(wǎng)絡(luò),全連接神經(jīng)網(wǎng)絡(luò)其實(shí)就是除了輸在該部分中,還是以線性層為例推導(dǎo)。全連接神經(jīng)網(wǎng)絡(luò)底層的算法運(yùn)算過(guò)程程中:輸入數(shù)據(jù)首先經(jīng)過(guò)隱藏層,經(jīng)過(guò)線性變換之后再經(jīng)過(guò)激活函數(shù),之后每個(gè)隱藏層的輸出將作為下一個(gè)隱藏層的輸入,直到最后的輸出層。反向傳播過(guò)程中:通過(guò)損失函數(shù)計(jì)算損失值,再經(jīng)過(guò)優(yōu)化器更新每一層網(wǎng)絡(luò)的權(quán)重和誤差。反復(fù)重復(fù)這兩個(gè)過(guò)程,在這樣的條件背景下可以推知其事態(tài)直到損失函數(shù)值足夠小何明華,高偉強(qiáng)。優(yōu)化器一般是用梯度下降算法來(lái)優(yōu)化權(quán)重和誤差。層變換后的數(shù)據(jù)層以圖3-2所示的四層神經(jīng)網(wǎng)絡(luò)為例,推導(dǎo)神經(jīng)網(wǎng)絡(luò)的前向傳播過(guò)程。當(dāng)神經(jīng)網(wǎng)絡(luò)層數(shù)為其他層數(shù)時(shí),原理不變,推而廣之即可馬飛,肖俊杰。在數(shù)據(jù)分析的工作中,已有的研究經(jīng)驗(yàn)提醒本文要著重強(qiáng)化對(duì)新興分析工具和技術(shù)的應(yīng)用。伴隨著信息技術(shù)的高速發(fā)展,諸如大數(shù)據(jù)分析方法、機(jī)器學(xué)習(xí)算法等先進(jìn)工具,正逐步在科學(xué)研究中發(fā)揮重要作用。這些技術(shù)不僅能夠讓本文更高效地處理海量的數(shù)據(jù),還能挖掘出傳統(tǒng)方法難以察覺(jué)到的深層次信息和獨(dú)特模式。所以,在后續(xù)研究里,本文需要積極探索怎樣把這些先進(jìn)技術(shù)融入到分析框架中,以增強(qiáng)研究結(jié)果的精準(zhǔn)度和對(duì)數(shù)據(jù)背后信息的洞察能力。定義從輸入層到第一層隱藏層的公式上標(biāo)均為[1],以上面各項(xiàng)分析情況為據(jù)第一層隱藏層到第二層隱藏層的公式上標(biāo)均為[2],激活函數(shù)定義為f,以此類(lèi)推。則全連接神經(jīng)網(wǎng)絡(luò)的正向傳播過(guò)程可以表示為式(3-3)A"=f(Z")A2=f(Z2)A3=f(Z3)A?]=f(Z?)3.3.2全連接神經(jīng)網(wǎng)絡(luò)反向傳播算法對(duì)變量命名規(guī)則與前向傳播過(guò)程保持一致,f表示激活函數(shù)的導(dǎo)數(shù)。則全連接神經(jīng)網(wǎng)絡(luò)的反向傳播過(guò)程可以表示為式(3-4)dZ?]=A?]-Ydwl?]=dZ?]A3]TdWl2]=dz2]A[JTdW1]=dZ2]x[ITdbl=dZl]3.3.3損失函數(shù)討論與分析在神經(jīng)網(wǎng)絡(luò)中我們需要對(duì)神經(jīng)網(wǎng)路訓(xùn)練出的神經(jīng)元參數(shù)進(jìn)行測(cè)試優(yōu)化,這個(gè)時(shí)候就要用到損失函數(shù)了。人們總是希望自己的神經(jīng)網(wǎng)絡(luò)可以最大程度上提取數(shù)據(jù)特征,為了直觀看到神經(jīng)網(wǎng)絡(luò)訓(xùn)練的效果,依上述分析可得出可以將神經(jīng)網(wǎng)絡(luò)訓(xùn)練的結(jié)果與真是的結(jié)果進(jìn)行匹配,再經(jīng)過(guò)損失函數(shù)計(jì)算神經(jīng)網(wǎng)絡(luò)的損失,以此作為網(wǎng)絡(luò)訓(xùn)練好壞的評(píng)判標(biāo)準(zhǔn)周建強(qiáng),孫澤宇。如果損失值不能達(dá)到滿意度,那么就需要繼續(xù)使用梯度下降算法對(duì)網(wǎng)絡(luò)中參數(shù)進(jìn)行權(quán)重和偏差的更新,直到擬合效果達(dá)到要求?,F(xiàn)有的損失函數(shù)主要有兩類(lèi):均方誤差函數(shù)和交叉熵?fù)p失函數(shù),具體介紹如下。均方損失函數(shù)均方損失函數(shù)主要應(yīng)用在回歸問(wèn)題中:以當(dāng)前的背景條件為基計(jì)算真實(shí)值和預(yù)測(cè)值之間的平方差的平均值。例如在房?jī)r(jià)預(yù)測(cè)的問(wèn)題中,輸出的預(yù)測(cè)值為一個(gè)實(shí)數(shù),可以將預(yù)測(cè)的房?jī)r(jià)與真實(shí)的房?jī)r(jià)進(jìn)行對(duì)比,取平方差的均值作為神經(jīng)網(wǎng)絡(luò)的損失值。交叉熵?fù)p失函數(shù)主要應(yīng)用在分類(lèi)問(wèn)題中。如果神經(jīng)網(wǎng)絡(luò)執(zhí)行的是二分類(lèi)問(wèn)題,神經(jīng)網(wǎng)絡(luò)的輸出層必須使用Sigmoid激活函數(shù),但是只需要一個(gè)輸出神經(jīng)元就夠了,將輸出值介于(0,1)之間,以0.5作為分界線,鑒于當(dāng)前狀況看大于0.5的作為一個(gè)標(biāo)簽輸出,小于0.5的作為另外一個(gè)標(biāo)簽輸出。Sigmoid激活函數(shù)將在下一章節(jié)詳細(xì)討論。如果是多分類(lèi)問(wèn)題,還需要再多家一步one-hot處理,同樣的輸出層選用Sigmoid激活函數(shù)邵子杰,樊慧琳。3.3.4激活函數(shù)討論與分析在神經(jīng)網(wǎng)絡(luò)中,輸入數(shù)據(jù)分為線性可分和線性不可分?jǐn)?shù)據(jù),如圖3-4所示。對(duì)于線性可分的數(shù)據(jù),輸入與輸出滿足線性關(guān)系,公式表達(dá)為用最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)就可以得到很好的學(xué)習(xí)效果。但是對(duì)于線性不可分的數(shù)據(jù),這種方法學(xué)習(xí)能力不高。這時(shí),加入激活函數(shù),看得出趨勢(shì)來(lái)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到平滑的曲線,將大大提高神經(jīng)網(wǎng)絡(luò)處理非線性數(shù)據(jù)的能力,如圖3-5所示。常見(jiàn)函數(shù)和Maxout函數(shù),下面將—一介紹付旭東,成嘉寧。輸入輸入Sigmoid函數(shù)定義式如下Sigmoid函數(shù)圖像如圖3-6所示XSigmoid函數(shù)在神經(jīng)網(wǎng)絡(luò)中被頻繁使用,該函數(shù)作用是將數(shù)據(jù)壓縮在0到1之間,當(dāng)輸入非常大時(shí),被壓縮在1附近,當(dāng)數(shù)據(jù)很小時(shí)被壓縮在0附近,當(dāng)輸入數(shù)據(jù)為一個(gè)很大的負(fù)數(shù)時(shí),被壓縮在0附近,該函數(shù)很好地解釋了神經(jīng)元是否被激活的狀態(tài),當(dāng)壓縮后的值接進(jìn)0時(shí)表示神經(jīng)元沒(méi)有被激活,當(dāng)壓縮后的值接進(jìn)1表示神經(jīng)元被激活張志華,陳天佑,成怡萱。但是Sigmoid函數(shù)也有自己的缺點(diǎn),它容易出現(xiàn)梯度消失的問(wèn)題,在使用反向傳播算法時(shí),隨著傳播深度的增加,該激活函數(shù)會(huì)導(dǎo)致淺層神經(jīng)網(wǎng)絡(luò)的權(quán)重值更新變慢,降低了學(xué)習(xí)效率,這樣地特點(diǎn)帶來(lái)的直接后果就是,對(duì)于一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò),由于前幾層的參數(shù)更新很慢,現(xiàn)有結(jié)果為我們的推論提供了堅(jiān)實(shí)支撐只改變后面幾層的參數(shù),間接的將深度神經(jīng)網(wǎng)絡(luò)變成了一個(gè)淺層神經(jīng)網(wǎng)絡(luò)。于數(shù)據(jù)收集時(shí)期,本文采納了多種途徑,像是問(wèn)卷調(diào)查、實(shí)地勘察以及文獻(xiàn)查閱等,期望從不同視角獲取豐富且詳實(shí)的數(shù)據(jù)素材。通過(guò)對(duì)這些數(shù)據(jù)的條理化分析與處置,本文能夠切實(shí)地證實(shí)研究假設(shè),并探尋其中隱藏的規(guī)律性和潛在聯(lián)系。然而,即便本研究取得了一定成效,本文也明白,任何研究都有其固有的短板。未來(lái)針對(duì)該領(lǐng)域的研究可以在當(dāng)前的基礎(chǔ)上進(jìn)一步延伸深化,尤其是在樣本的挑選、研究其次,Sigmoid函數(shù)處理數(shù)據(jù)的方式導(dǎo)致該函數(shù)的輸出值均值不為0。導(dǎo)致了下一層網(wǎng)絡(luò)的輸入不是以0為均值的數(shù)據(jù),這樣的數(shù)據(jù)在后面的反向傳播過(guò)程中tanh函數(shù)圖像如圖3-7所示XTanh函數(shù)是一個(gè)奇函數(shù),該函數(shù)圖像位于一三象限,函數(shù)值被限制在-1到1之間,嚴(yán)格單調(diào)遞增。對(duì)面上面所述的Sigmoid函數(shù),該函數(shù)解決了Sigmoid函數(shù)輸出值均值不為0的問(wèn)題,相較于Sigmoid函數(shù)有了一定的改進(jìn),應(yīng)用范圍更廣,ReLU函數(shù)圖像如圖3-8所示。ReLU函數(shù)在近年來(lái)在深度神經(jīng)網(wǎng)絡(luò)中應(yīng)用很廣泛。該函數(shù)很好地解決了上面兩個(gè)激活函數(shù)梯度消失的問(wèn)題,相較于Sigmoid函數(shù)和tanh函數(shù),該函數(shù)的導(dǎo)數(shù)為1或者0,求解梯度時(shí)很方便。這樣的梯度特點(diǎn)該激活函數(shù)可以使得一些神經(jīng)元的輸出為0,使得網(wǎng)絡(luò)比較稀疏,有效降低了網(wǎng)絡(luò)但是同樣的該激活函數(shù)也有自己的缺點(diǎn)。該激活函數(shù)比較脆弱,容易造成神經(jīng)元死亡,比如一個(gè)較大的梯度經(jīng)過(guò)一個(gè)神經(jīng)元后,會(huì)導(dǎo)致該神經(jīng)元不能再被激活,這樣導(dǎo)致的結(jié)果就是從此刻開(kāi)始,該神經(jīng)元產(chǎn)生的梯度將一直為0,導(dǎo)致神經(jīng)元在網(wǎng)絡(luò)中不可逆的消失死亡了鄭建華,黃健雄。當(dāng)然神經(jīng)元的死亡很大程度上取決于學(xué)習(xí)率的設(shè)定,學(xué)習(xí)率越大,神經(jīng)元越容易死亡,這在一定層面上展現(xiàn)只XElu函數(shù)定義式如下Elu函數(shù)圖像如圖3-9所示XElu函數(shù)在x>0時(shí)為x本身,因?yàn)樘荻仁冀K為1,與ReLU函數(shù)相似,有效避免了梯度消失的問(wèn)題,減小了正常梯度與單位梯度之間的差距,有助于神經(jīng)網(wǎng)絡(luò)快速收斂。當(dāng)x<0時(shí),該激活函數(shù)在輸入數(shù)據(jù)較小時(shí)有軟飽和性,有效提升了對(duì)LeakyReLU函數(shù)定義式如下LeakyReLU函數(shù)圖像如圖3-10所示X如上圖所示,類(lèi)似于ReLU函數(shù),當(dāng)x>0時(shí),梯度為1,避免了梯度消失的問(wèn)題。但是當(dāng)x<0時(shí)該激活函數(shù)允許一個(gè)非零的梯度存在,這無(wú)疑解決了ReLU函數(shù)造成神經(jīng)元死亡的問(wèn)題。Maxout函數(shù)定義式如下數(shù)和LeakyReLU函數(shù)的泛化版本,當(dāng)上式中w?,b?為0時(shí),該激活函數(shù)便成了ReLU函數(shù)。因此,Maxout函數(shù)具有ReLU函數(shù)的優(yōu)點(diǎn),同時(shí)解決了梯度消失的問(wèn)題。本文能夠發(fā)現(xiàn)一系列可以優(yōu)化和革新的領(lǐng)域。之前的研究階段為本文提供了寶貴的經(jīng)驗(yàn),也讓本文看到了方法上的局限,明確了哪些方法有效,哪些方法需要改進(jìn)。就數(shù)據(jù)收集而言,本文應(yīng)當(dāng)更加注重樣本的多樣性與代表性,確保所選取的樣本能夠全面體現(xiàn)目標(biāo)群體的整體特點(diǎn)。此外,針對(duì)不同的研究問(wèn)題,靈活運(yùn)用對(duì)比上面所述的幾種激活函數(shù),sigmoid函數(shù)由于輸出值在(0,1)之間,在3.4基于全連接神經(jīng)網(wǎng)絡(luò)的不確定性量化本章節(jié)選用本文第二章所做的懸臂梁有限元分析進(jìn)行進(jìn)一步的工作。由于在實(shí)際工程中,因?yàn)橹圃旃に嚕牧咸匦缘葪l件的制約,懸臂梁長(zhǎng)寬,材料的彈性模量,所受載荷并不是一個(gè)確定值,而是隨機(jī)變量,這造成了有限元解也是一個(gè)得到高精度的解就需要將單元?jiǎng)澐值谋容^密集,從這個(gè)角度來(lái)看我們認(rèn)識(shí)到但是這也會(huì)帶來(lái)時(shí)間成本過(guò)高的問(wèn)題,相反的,低精度的解所耗用的時(shí)間比較少。如果我們能建立自變量,低精度解,高精度解之間的聯(lián)系,通過(guò)低精度解來(lái)估計(jì)高精度解,并且量化高精度解的不確定性,那么就可以做到以最小的成本得到滿意我們的最終目的是通過(guò)自變量的不確定性來(lái)估計(jì)量化高精度解的不確定性。再通過(guò)該預(yù)測(cè)模型產(chǎn)生樣本量比較多的預(yù)測(cè)高精度解。最后用預(yù)測(cè)的高精度解代替真實(shí)的高精度解,這在某種程度上映射了建立自變量與高精度解之間模型,量本章所有神經(jīng)網(wǎng)絡(luò)算例程序都是基于python3.7環(huán)境,選用的庫(kù)為PyTorch,軟件平臺(tái)為JetBrainsPyCharm2019.1.1x64。PyTorch是一個(gè)基于Torch的Python開(kāi)源機(jī)器學(xué)習(xí)庫(kù),用于自然語(yǔ)言處理等應(yīng)用程序。PyTorch的優(yōu)點(diǎn)有:支持GPU;如上所述,在有限元模型中我將集中載荷,彈性模量,懸臂梁的長(zhǎng)寬設(shè)置為在一定范圍內(nèi)的隨機(jī)數(shù)。將單元數(shù)為8時(shí)產(chǎn)生的懸臂梁自由端豎直方向位移解定義為低精度解,將單元數(shù)為16時(shí)產(chǎn)生的懸臂梁自由端豎直方向位移解定義為高精度解,產(chǎn)生兩組解的自變量保持一致。在上述條件下共產(chǎn)生低精度解1000個(gè),對(duì)應(yīng)1000組自變量;產(chǎn)生高精度解100個(gè),對(duì)應(yīng)自變量與低精度解前100個(gè)對(duì)應(yīng)的自變量一致,以此作為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練集;另外重新產(chǎn)生低精度解和高精度解各100個(gè)作為神經(jīng)網(wǎng)絡(luò)的測(cè)試集。部分結(jié)果如表3-1所示。F=1000+1000*rand;%集中載荷high_L=1+0.2*rand;%懸臂梁寬度E=le6+1000*rand;%彈性模量低精度解(m)高精度解(m)利用產(chǎn)生的結(jié)果,首先選取100個(gè)粗略解與其相對(duì)應(yīng)的四個(gè)自變量和高精度解為訓(xùn)練數(shù)據(jù),以四個(gè)自變量和低精度解作為輸入集,高精度解作為輸出集,放入已經(jīng)搭建好的神經(jīng)網(wǎng)絡(luò)中訓(xùn)練網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)模型如圖3-11所示。在訓(xùn)練過(guò)程中,為了保持量綱一致,提高神經(jīng)網(wǎng)絡(luò)的精度,需要對(duì)訓(xùn)練集原始數(shù)據(jù)進(jìn)行了歸圖3-11全連接神經(jīng)網(wǎng)絡(luò)模型在網(wǎng)絡(luò)的超參數(shù)設(shè)置中,將全連接神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)設(shè)置為兩層,第一層包含40個(gè)神經(jīng)元,在這樣的條件背景下可以推知其事態(tài)第二層包含20個(gè)神經(jīng)元,循環(huán)次數(shù)epoch取3000,激活函數(shù)為ReLU函數(shù),損失函數(shù)為均方差函數(shù),優(yōu)化算法為Adam算法。經(jīng)過(guò)多次調(diào)試,最終確定學(xué)習(xí)率Ir=0.1。損失函數(shù)值變化圖如圖3-12所示迭代次數(shù)由于自變量有多個(gè),取其中一個(gè)自變量(集中載荷)為橫坐標(biāo),以高精度解為縱坐標(biāo),得到訓(xùn)練后的模型效果如圖3-13所示上圖中,藍(lán)色線代表訓(xùn)練集中,集中載荷與懸臂梁自由端豎直方向位移之間的關(guān)系,黃色線表示集中載荷與模型預(yù)測(cè)的高精度解之間的關(guān)系,兩者擬合效果很好,損失函數(shù)值為1.2206e-6。以上面各項(xiàng)分析情況為據(jù)將測(cè)試集數(shù)據(jù)代入已經(jīng)訓(xùn)練好的模型得到圖3-14所示結(jié)果趙宇昊,李佳琳上圖中,藍(lán)色的點(diǎn)表示測(cè)試集中的原始高精度解,黃色的點(diǎn)表示通過(guò)訓(xùn)練好的模型預(yù)測(cè)出的高精度解,兩者擬合良好。通過(guò)原始高精度解和預(yù)測(cè)高精度解之間的誤差來(lái)檢驗(yàn)?zāi)P偷木?,誤差函數(shù)選用均方根誤差函數(shù)(RootMeanSquaredError,RMSE),如式(3-13)所示。得到誤差為0.0069,誤差在可以接受的范圍3.4.2自變量與高精度解上述結(jié)果是建立了自變量,低精度解與高精度解之間的關(guān)系,是一個(gè)多精度模型,已經(jīng)達(dá)到較好地效果。依上述分析可得出為了達(dá)到最終通過(guò)自變量估計(jì)和量化高精度解不確定性的目的,將訓(xùn)練集中的1000個(gè)樣本代入已經(jīng)建立的多精度模型得到了1000個(gè)預(yù)測(cè)的精確解,用這1000個(gè)預(yù)測(cè)的精確解代替真正的精確解,再次采用相同結(jié)構(gòu)的全連接神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,取全連接神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)為激活函數(shù)為ReLU函數(shù),損失函數(shù)為均方差函數(shù),優(yōu)化算法為Adam算法。經(jīng)過(guò)多次調(diào)試,最終確定學(xué)習(xí)率Ir=0.2。以當(dāng)前的背景條件為基取其中一個(gè)自變量(載荷)為橫坐標(biāo),以高精度解為縱坐標(biāo),得到結(jié)果如圖3-15所示王浩宇,張婉清懸臂梁自由端豎直位移懸臂梁自由端豎直位移上圖中藍(lán)色線代表多精度模型預(yù)測(cè)出的高精度解,黃色線表示通過(guò)自變量預(yù)測(cè)出的高精度解,兩者擬合效果良好。為了保證在低精度解不參與預(yù)測(cè)情況下得到的預(yù)測(cè)高精度解誤差滿足精度要求,將測(cè)試集原始數(shù)據(jù)代入自變量與高精度解的模型,得到結(jié)果如圖3-16所示懸臂梁自由端豎直位移懸臂梁自由端豎直位移如上圖所示,預(yù)測(cè)高精度解與原始高精度解誤差為0.0042,擬合效果良好,精度在接受范圍內(nèi)。故可以用預(yù)測(cè)的高精度解代替真實(shí)的高精度解進(jìn)行高精度解的不確定性量化 (溫志強(qiáng),莫宇航,2021)。以預(yù)測(cè)出的1000個(gè)高精度解為樣本,鑒于當(dāng)前狀況看計(jì)算得到當(dāng)自變量為隨機(jī)變量時(shí),高精度解的均值,方差,標(biāo)準(zhǔn)差,變異系數(shù),95%置信區(qū)間如表3-2所示,再取測(cè)試集高精度解真實(shí)值進(jìn)行對(duì)比,結(jié)果如表3-2所示??梢园l(fā)現(xiàn)預(yù)測(cè)值的均值比真實(shí)值的均值大0.0098mm,預(yù)測(cè)值的方差,標(biāo)準(zhǔn)差和變異系數(shù)都要比真實(shí)值小,預(yù)測(cè)值的置信區(qū)間的上限與真實(shí)值置信區(qū)間的上限接近,看得出趨勢(shì)來(lái)但是下限與真實(shí)值有較大差距。總體來(lái)看,通過(guò)全連接神經(jīng)網(wǎng)絡(luò)進(jìn)行不確定性量化在均值,方差,標(biāo)準(zhǔn)差,變異系數(shù)等指標(biāo)上表現(xiàn)良好,但是在置信區(qū)間這一指標(biāo)上還是有所欠缺。95%置信區(qū)間(m)第四章基于循環(huán)神經(jīng)網(wǎng)絡(luò)的不確定性量化本文第三章詳細(xì)介紹了全連接神經(jīng)網(wǎng)絡(luò)和基于全連接神經(jīng)網(wǎng)絡(luò)的不確定性量化。本章節(jié)主要是為了對(duì)比不同的神經(jīng)網(wǎng)絡(luò)在進(jìn)行不確定性量化時(shí)的效果,采用循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)第三章節(jié)所介紹的算例進(jìn)行不確定量化。在本章節(jié)將詳細(xì)介紹循環(huán)神經(jīng)網(wǎng)絡(luò)和使用循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行不確定性量化的過(guò)程,主要包括循環(huán)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí),不確定性量化這兩個(gè)方面。在章節(jié)三中已經(jīng)詳細(xì)推導(dǎo)了神經(jīng)網(wǎng)絡(luò)前向傳播過(guò)程和反向傳播過(guò)程,詳細(xì)介紹了常見(jiàn)的損失函數(shù)和激活函數(shù),由于循環(huán)神經(jīng)網(wǎng)絡(luò)和全連接神經(jīng)網(wǎng)絡(luò)在這些方面是一致的,故在這一章節(jié)將不再贅述,主要介紹循環(huán)神經(jīng)網(wǎng)絡(luò)自己的特點(diǎn)。循環(huán)神經(jīng)網(wǎng)絡(luò)命名是因?yàn)槠鋫鬟f信息的方式特別,如圖4-1所示為一般前饋型神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)處理信息的對(duì)比圖。如上圖所示在前饋神經(jīng)網(wǎng)絡(luò)中,信息的流向只有一個(gè)方向,那就是從輸入層到隱藏層,最后到輸出層;但是在循環(huán)神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元的輸入有兩個(gè)信息,一個(gè)是過(guò)去學(xué)習(xí)到的信息,現(xiàn)有結(jié)果為我們的推論提供了堅(jiān)實(shí)支撐另外一個(gè)信息是自身現(xiàn)在接受到的信息。所以循環(huán)神經(jīng)網(wǎng)絡(luò)做決定的時(shí)候,不僅要考慮當(dāng)前的輸入而且還會(huì)保留通過(guò)以前的輸入信息學(xué)習(xí)得到的信息(秦思遠(yuǎn),許君浩,2021)。這與前饋神經(jīng)網(wǎng)絡(luò)形成了鮮明的對(duì)比,這也是循環(huán)神經(jīng)網(wǎng)絡(luò)獨(dú)一無(wú)二的特點(diǎn)。由第四章基于循環(huán)神經(jīng)網(wǎng)絡(luò)的不確定性量化于具有這樣的特點(diǎn),循環(huán)神經(jīng)網(wǎng)絡(luò)特別適合處理與時(shí)間有關(guān)的問(wèn)題,常見(jiàn)的應(yīng)用領(lǐng)域如:機(jī)器翻譯,文本生成,視頻圖像處理,語(yǔ)音識(shí)別,文本相似度計(jì)算,推4.2.2循環(huán)神經(jīng)網(wǎng)絡(luò)原理與以前的輸入也有關(guān)。具體來(lái)說(shuō)就是循環(huán)神經(jīng)網(wǎng)絡(luò)自身會(huì)存儲(chǔ)之前的信息,和當(dāng)前的輸入一起輸入,然后得到新的輸出,相當(dāng)于隱藏層各單元之間是有連接的。如圖4-2所示為循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單示意圖y⑥x?x?x?圖4-2循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單示意除此之外,循環(huán)神經(jīng)網(wǎng)絡(luò)中的信息是可以前向傳遞或者前后雙向傳遞。如圖4-3和圖4-4所示分別為前向循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和雙向循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。在前向循環(huán)神經(jīng)網(wǎng)絡(luò)中,信息從前到后依次傳遞,這在一定層面上展現(xiàn)特點(diǎn)是信息單向流動(dòng),后面的信息受前面信息影響,但是無(wú)法反過(guò)來(lái)影響前面的信息(謝俊朗,郭曉婷,2020)。相反的在雙向循環(huán)神經(jīng)網(wǎng)絡(luò)中,信息先正向傳遞,完成之后再反向傳遞一遍,將兩次的信息混合之后再傳入神經(jīng)網(wǎng)絡(luò)一遍,這樣既考慮了前面ytyt4.3.1自變量,低精度解與高精度解在算例中,繼續(xù)使用本文章節(jié)3.4.1中的有限元分析數(shù)據(jù)定性量化,數(shù)據(jù)前處理過(guò)程與全連接神經(jīng)網(wǎng)絡(luò)中數(shù)據(jù)處理過(guò)程一致。搭建的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖如圖4-5所示。在循環(huán)神經(jīng)網(wǎng)絡(luò)的超參數(shù)設(shè)置中,我將循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)設(shè)置為一層,包含5個(gè)神經(jīng)元,循環(huán)次數(shù)epoch取2000,激活函數(shù)為ReLU函數(shù),損失函數(shù)為均方差函數(shù),這無(wú)疑地揭示了本質(zhì)優(yōu)化算法為Adam算法(白逸凡,熊馨月,2023)。經(jīng)過(guò)多次調(diào)試,最終確定學(xué)習(xí)率Ir=0.02。損失函數(shù)值變化圖如圖4-6所示由于自變量有多個(gè),取其中一個(gè)自變量(集中載荷)為橫坐標(biāo),以高精度解為縱坐標(biāo),得到訓(xùn)練后的模型效果如圖4-7所示懸臂梁自由端豎直位移懸臂梁自由端豎直位移如圖所示,藍(lán)色線代表訓(xùn)練集中,集中載荷與懸臂梁自由端豎直方向位移之間的關(guān)系,黃色線表示集中載荷與模型預(yù)測(cè)的高精度解之間的關(guān)系,兩者擬合效果很好,損失函數(shù)值很小。將測(cè)試集數(shù)據(jù)代入已經(jīng)訓(xùn)練好的模型得到圖4-8所示結(jié)果上圖中,藍(lán)色的點(diǎn)表示測(cè)試集中的原始高精度解,黃色的點(diǎn)表示通過(guò)訓(xùn)練好的模型預(yù)測(cè)出的高精度解,兩者擬合效果良好。通過(guò)原始高精度解和預(yù)測(cè)高精度解之間的誤差來(lái)檢驗(yàn)?zāi)P偷木?,從這個(gè)角度來(lái)看我們認(rèn)識(shí)到同樣采用RMSE誤差函數(shù),得到誤差為0.0056,誤差在可以接受的范圍內(nèi),模型精度良好。對(duì)比全連接神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò)精度更好,數(shù)據(jù)擬合效果明顯優(yōu)于全連接神經(jīng)網(wǎng)絡(luò)。同樣地,上述結(jié)果是自變量,低精度解與高精度解之間的關(guān)系,采用與本文3.4.2中相同的方法,取循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)為一層,隱藏層包含10個(gè)神經(jīng)元,循環(huán)次數(shù)epoch取2000,激活函數(shù)為ReLU函數(shù),這在某種程度上映射了損失函取其中一個(gè)自變量(集中載荷)為橫坐標(biāo),以高精度解為縱坐標(biāo),得到結(jié)果如圖4-9所示懸臂梁自由端豎直位移懸臂梁自由端豎直位移上圖中藍(lán)色線代表多精度模型預(yù)測(cè)出的高精度解,黃色線表示通過(guò)自變量預(yù)測(cè)出的高精度解,兩者擬合效果良好。為了保證在低精度解不參與預(yù)測(cè)情況下得到的預(yù)測(cè)高精度解誤差滿足精度要求,我將測(cè)試集原始數(shù)據(jù)代入自變量與高精度解的模型,得到結(jié)果如圖4-10所示,采用RMSE誤差函數(shù)得到預(yù)測(cè)高精度解與原始高精度解誤差均值為0.0056,擬合效果良好,精度在接受范圍內(nèi)。本研究各階段所取得的研究成果及計(jì)算數(shù)據(jù)與前文綜述中的結(jié)論基本吻合,這一現(xiàn)象首先凸顯了本研究所采用方法在有效性與可靠性方面的顯著優(yōu)勢(shì)。這種高度的一致性不僅對(duì)先前研究結(jié)論進(jìn)行了有力驗(yàn)證,同時(shí)也為當(dāng)前的理論框架增添了更為堅(jiān)實(shí)的支撐。憑借嚴(yán)謹(jǐn)?shù)难芯吭O(shè)計(jì)、系統(tǒng)的數(shù)據(jù)收集以及科學(xué)的數(shù)據(jù)分析,本文成功復(fù)現(xiàn)了前人研究中的核心發(fā)現(xiàn),并在此基礎(chǔ)上展開(kāi)了更為深入的探究。這一過(guò)程不僅進(jìn)一步鞏固了本文對(duì)研究假設(shè)的信心,同時(shí)也充分證明了所選研究方法的科學(xué)性與合理性。故可以用預(yù)測(cè)的高精度解代替原始的高精度解進(jìn)行高精度解的不確定性量化。以預(yù)測(cè)出的1000個(gè)高精度解為樣本,計(jì)算得到當(dāng)自變量為隨機(jī)變量時(shí),高精度解的均值,方差,標(biāo)準(zhǔn)差,變異系數(shù),95%置信區(qū)間如表4-1所示。對(duì)比全連接神經(jīng)網(wǎng)絡(luò)和真實(shí)值各個(gè)指標(biāo),發(fā)現(xiàn)相較于全連接神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò)得到的均值,方差,標(biāo)準(zhǔn)差,變異系數(shù)和置信區(qū)間都更加接近真實(shí)值。所以使用循環(huán)神經(jīng)網(wǎng)絡(luò)不僅可以達(dá)到量化不確定性的目標(biāo),而且不確定性量化的整體效果都要優(yōu)于全連接神經(jīng)網(wǎng)絡(luò)。方差(m)標(biāo)準(zhǔn)差(m)變異系數(shù)95%置信區(qū)間(m)第五章基于貝葉斯神經(jīng)網(wǎng)絡(luò)的不確定性量化本文第三章和第四章詳細(xì)介紹了全連接神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)在不確定性量化中的應(yīng)用。本章節(jié)同樣是為了對(duì)比不同的神經(jīng)網(wǎng)絡(luò)在進(jìn)行不確定性量化時(shí)的效果,采用貝葉斯神經(jīng)網(wǎng)絡(luò)對(duì)第三章節(jié)所介紹的算例進(jìn)行不確定量化(馬飛,肖俊杰,2021)。在這樣的條件背景下可以推知其事態(tài)在本章節(jié)將詳細(xì)介紹貝葉斯神經(jīng)網(wǎng)絡(luò)和使用貝葉斯神經(jīng)網(wǎng)絡(luò)進(jìn)行不確定性量化的過(guò)程,主要包括貝葉斯神經(jīng)貝葉斯神經(jīng)網(wǎng)絡(luò)與上文所述的全連接神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)上并無(wú)太大的差別,主要的區(qū)別在于全連接神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的參數(shù)這樣的設(shè)置實(shí)質(zhì)是神經(jīng)網(wǎng)絡(luò)在概論方向的拓展,一方面保留了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),具有很強(qiáng)的可擴(kuò)展性,同時(shí)隨機(jī)變化的參數(shù)方便了通過(guò)參數(shù)的分布進(jìn)行模型×OOvOZO對(duì)于給定的一個(gè)神經(jīng)網(wǎng)絡(luò)訓(xùn)練樣本,包含自變量X和輸出Y,貝葉斯神經(jīng)網(wǎng)絡(luò)的構(gòu)成包括兩部分:參數(shù)空間上的先驗(yàn)分布p(w)和貝葉斯回歸的似然函數(shù)(5-1)參數(shù)w由輸入的X,Y經(jīng)過(guò)模型訓(xùn)練之后確定,參數(shù)的后驗(yàn)分布可以表示為除此之外貝葉斯神經(jīng)網(wǎng)絡(luò)與一般的神經(jīng)網(wǎng)絡(luò)在訓(xùn)練和測(cè)試過(guò)程上并無(wú)區(qū)別,不再贅述。由于貝葉斯神經(jīng)網(wǎng)絡(luò)在反向傳播過(guò)程中需要計(jì)算梯度,而網(wǎng)絡(luò)的參數(shù)都是隨機(jī)變量,這給推理帶來(lái)了不小的麻煩,故現(xiàn)在主要使用的方法是變分推斷 (VariationalInference,VI)方法來(lái)近似。以上面各項(xiàng)分析情況為據(jù)該方法的核心思想是假設(shè)一個(gè)簡(jiǎn)單的分布來(lái)近似參數(shù)的后驗(yàn)分布,以此來(lái)減小運(yùn)算量,如正態(tài)分布或者伯努利分布。接式(5-2)進(jìn)行如下變分推導(dǎo)(周建強(qiáng),孫澤宇,2021)。在實(shí)際的計(jì)算中p(w|X,Y)通常是計(jì)算不出的,不妨定義一個(gè)參數(shù)為θ的近似分布q(O),該近似分布應(yīng)該盡可能的接近原來(lái)的p(w|X,Y),再通過(guò)最小化Kullback-Leibler(KL)散度檢驗(yàn)近似分布與原分布之間的相似性,如式(5-3)假設(shè)以q8(の)作為優(yōu)化的目標(biāo)值,得到訓(xùn)練集外的點(diǎn)x的輸出為:對(duì)式(5-3)進(jìn)一步推導(dǎo)得依據(jù)上式,定義最小化目標(biāo)函數(shù)為由于上式計(jì)算量巨大,不妨對(duì)上式進(jìn)行轉(zhuǎn)化得上式中Sc{X,Y},是一個(gè)大小為M的隨機(jī)索引集合。5.3基于貝葉斯神經(jīng)網(wǎng)絡(luò)的不確定性量化在算例中,繼續(xù)使用本文3.4.1中的有限元分析數(shù)據(jù)進(jìn)行高精度解的不確定性量化,數(shù)據(jù)前處理過(guò)程與循環(huán)神經(jīng)網(wǎng)絡(luò)和全連接神經(jīng)網(wǎng)絡(luò)中數(shù)據(jù)處理過(guò)程一致。搭建的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖如圖5-2所示。依上述分析可得出在貝葉斯神經(jīng)網(wǎng)絡(luò)的超參數(shù)設(shè)置中,我將貝葉斯神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)設(shè)置為一層,包含15個(gè)神經(jīng)元,每個(gè)神經(jīng)元的參數(shù)都服從標(biāo)準(zhǔn)正態(tài)分布,循環(huán)次數(shù)epoch取2000,激活函數(shù)為ReLU函數(shù),損失函數(shù)為均方差函數(shù),優(yōu)化算法為概率模型庫(kù)PYRO中的Adam算法(付如圖5-3所示圖5-3貝葉斯神經(jīng)網(wǎng)絡(luò)Adam損失函數(shù)值變化圖由于自變量有多個(gè),取其中一個(gè)自變量(集中載荷)為橫坐標(biāo),以高精度解為縱坐標(biāo),得到訓(xùn)練后的模型效果如圖5-4所示懸臂梁自由端豎直位移懸臂梁自由端豎直位移圖5-4貝葉斯神經(jīng)網(wǎng)絡(luò)訓(xùn)練效果圖如圖所示,藍(lán)色線代表訓(xùn)練集中,集中載荷與懸臂梁自由端豎直方向位移之間的關(guān)系,黃色線表示集中載荷與模型預(yù)測(cè)的高精度解之間的關(guān)系,兩者擬合效果很好,損失函數(shù)值很小。將測(cè)試集數(shù)據(jù)代入果懸臂梁自由端豎直位移懸臂梁自由端豎直位移上圖中,藍(lán)色的點(diǎn)表示測(cè)試集中的原始高精度解,黃色的點(diǎn)表示通過(guò)訓(xùn)練好的模型預(yù)測(cè)出的高精度解,兩者擬合良好。通過(guò)原始高精度解和預(yù)測(cè)高精度解之間的誤差來(lái)檢驗(yàn)?zāi)P偷木?,得到誤差為0.0061,誤差在可以接受的范圍內(nèi),模型精度良好。雖然對(duì)比全連接神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),以當(dāng)前的背景條件為基貝葉斯神經(jīng)網(wǎng)絡(luò)精度要略遜一籌,但是整體的精度還在可以接受的范圍內(nèi)(張志華,同樣地,上述結(jié)果是自變量,低精度解與高精度解之間的關(guān)系,采用與本文3.4.2中相同的方法,取貝葉斯神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)為一層,隱藏層包含20個(gè)神經(jīng)元,每個(gè)神經(jīng)元的參數(shù)都服從標(biāo)準(zhǔn)正態(tài)分布,循環(huán)次數(shù)epoch取2000,激活函數(shù)為ReLU函數(shù),損失函數(shù)為均方差函數(shù),優(yōu)化算法為概率模型庫(kù)PYRO中的Adam算法。經(jīng)過(guò)多次調(diào)試,最終確定學(xué)習(xí)率Ir=0.03。取其中一個(gè)自變量(集中載荷)為橫坐標(biāo),以高精度解為縱坐標(biāo),得到結(jié)果如圖5-6所示懸臂梁自由端豎直位移懸臂梁自由端豎直位移上圖中藍(lán)色線代表多精度模型預(yù)測(cè)出的高精度解,黃色線表示通過(guò)自變量預(yù)測(cè)出的高精度解,兩者擬合效果良好。鑒于當(dāng)前狀況看為了保證在低精度解不參與預(yù)測(cè)情況下得到的預(yù)測(cè)高精度解誤差滿足精度要求,將測(cè)試集原始數(shù)據(jù)代入自變量與高精度解的模型,得到結(jié)果如圖5-7所示如上圖所示,預(yù)測(cè)高精度解與原始高精度解誤差均值為0.0053,擬合效果良好,精度在接受范圍內(nèi)。類(lèi)似的可以用預(yù)測(cè)的高精度解代替原始的高精度解進(jìn)行高精度解的不確定性量化。以預(yù)測(cè)出的1000個(gè)高精度解為樣本,計(jì)算得到當(dāng)自變量為隨機(jī)變量時(shí),高精度解的均值,方差,標(biāo)準(zhǔn)差,變異系數(shù),95%置信區(qū)間如表5-1所示。根據(jù)全連接神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)結(jié)果,發(fā)現(xiàn)三者在各個(gè)指標(biāo)上相差不大,但是循環(huán)網(wǎng)絡(luò)明顯擬合效果最好,看得出趨勢(shì)來(lái)各個(gè)指標(biāo)與真實(shí)值的誤差也要最小。而貝葉斯神經(jīng)網(wǎng)絡(luò)相較于全連接神經(jīng)網(wǎng)絡(luò),在各個(gè)指標(biāo)上更加符合真實(shí)值的數(shù)字特征。所以總的來(lái)說(shuō)在本文量化高精度解的問(wèn)題中,循環(huán)神經(jīng)網(wǎng)絡(luò)表現(xiàn)最好,其次表5-1高精度解不確定性量化結(jié)果方差(m)標(biāo)準(zhǔn)差(m)變異系數(shù)95%置信區(qū)間(m)貝葉斯神經(jīng)網(wǎng)絡(luò)[1]謝澤楷,傅雅萍.基于深度學(xué)習(xí)和不確定性量化的數(shù)據(jù)驅(qū)動(dòng)剩余壽命預(yù)測(cè)方法研究[D].中[2]王宇鵬,劉洛兮etal.Large-scaleinverseproblemsandquantificationofuncertainty[M].John[3]KeynesJM.Thegeneraltheoryofemployment,interest,andmoney[J].EconomicRecord,1964,[4]溫志強(qiáng),莫宇航.故障預(yù)測(cè)與健康管理技術(shù)綜述明.電子測(cè)量與儀器學(xué)報(bào)[J].2010(1):1-9.[5]PaceNG,JensenF.Impactoflittoralenvironmentalvariabilityofacousticpredictionsandsonarperformance[J].SpringerNetherlands,2002,11(12):213-218.[6]HintonGE,SalakhutdinovRR.Reducingthedimensionalityofdatawithneuralnetworks[J].Science,2006,313(5786):504-507.[7]秦思遠(yuǎn),許君浩.高斯過(guò)程回歸在不確定性量化中的應(yīng)用[D].上海交通大學(xué),2018.ProceedingsoftheThirty-FourthConferenceonUncertaintyin[9]KlirG,YuanB.Fuzzysetsa[10]GuanJW,BellDA.Evidencetheoryanditsapplications[M][11]JaulinL.Appliedinter
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年川北幼兒師范高等專(zhuān)科學(xué)校單招綜合素質(zhì)考試備考試題含詳細(xì)答案解析
- 2026年天津城市建設(shè)管理職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)技能考試模擬試題含詳細(xì)答案解析
- 2026年南通師范高等專(zhuān)科學(xué)校單招綜合素質(zhì)考試備考題庫(kù)含詳細(xì)答案解析
- 2026貴州護(hù)理職業(yè)技術(shù)學(xué)院招聘事業(yè)單位14人參考考試題庫(kù)及答案解析
- 2026鷹潭市第四幼兒園招聘參考考試題庫(kù)及答案解析
- 2026上半年貴州事業(yè)單位聯(lián)考貴州省農(nóng)業(yè)農(nóng)村廳招聘4人參考考試題庫(kù)及答案解析
- 2026年湖南郵電職業(yè)技術(shù)學(xué)院?jiǎn)握芯C合素質(zhì)考試備考題庫(kù)含詳細(xì)答案解析
- 2026年信陽(yáng)涉外職業(yè)技術(shù)學(xué)院?jiǎn)握芯C合素質(zhì)筆試模擬試題含詳細(xì)答案解析
- 2026上半年安徽事業(yè)單位聯(lián)考蕪湖市招聘287人考試重點(diǎn)題庫(kù)及答案解析
- 2026年山東力明科技職業(yè)學(xué)院?jiǎn)握芯C合素質(zhì)筆試備考試題含詳細(xì)答案解析
- 2026云南保山電力股份有限公司校園招聘50人筆試參考題庫(kù)及答案解析
- 《智能網(wǎng)聯(lián)汽車(chē)先進(jìn)駕駛輔助技術(shù)》課件 項(xiàng)目1 先進(jìn)駕駛輔助系統(tǒng)的認(rèn)知
- 2024-2025學(xué)年北京清華附中高一(上)期末英語(yǔ)試卷(含答案)
- 引水壓力鋼管制造及安裝工程監(jiān)理實(shí)施細(xì)則
- 2025年全行業(yè)薪酬報(bào)告
- 輔助生殖項(xiàng)目五年發(fā)展計(jì)劃
- 河北省石家莊第二中學(xué)2025-2026學(xué)年高一上數(shù)學(xué)期末聯(lián)考試題含解析
- (2025年)qc培訓(xùn)考試試題(含答案)
- DBJ50-T-271-2017 城市軌道交通結(jié)構(gòu)檢測(cè)監(jiān)測(cè)技術(shù)標(biāo)準(zhǔn)
- 中醫(yī)醫(yī)院等級(jí)評(píng)審材料準(zhǔn)備全攻略
- 腫瘤科普宣傳課件
評(píng)論
0/150
提交評(píng)論