【改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷準(zhǔn)確率提升研究16000字(論文)】_第1頁(yè)
【改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷準(zhǔn)確率提升研究16000字(論文)】_第2頁(yè)
【改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷準(zhǔn)確率提升研究16000字(論文)】_第3頁(yè)
【改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷準(zhǔn)確率提升研究16000字(論文)】_第4頁(yè)
【改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷準(zhǔn)確率提升研究16000字(論文)】_第5頁(yè)
已閱讀5頁(yè),還剩42頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷準(zhǔn)確率提升研究摘要本文調(diào)研了循環(huán)神經(jīng)網(wǎng)絡(luò)在故障診斷分類(lèi)領(lǐng)域中的實(shí)際應(yīng)用現(xiàn)狀及其研究背景,學(xué)習(xí)了循環(huán)神經(jīng)網(wǎng)絡(luò)現(xiàn)有的各種改進(jìn)方法及其應(yīng)用方法。在LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)原理的基礎(chǔ)上,采用對(duì)額外門(mén)控運(yùn)算進(jìn)行改進(jìn)的方法對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)的模型進(jìn)行改進(jìn)。其次,選用基于python語(yǔ)言的Tensorflow深度學(xué)習(xí)數(shù)據(jù)庫(kù),利用Pycharm編譯器進(jìn)行循環(huán)神經(jīng)網(wǎng)絡(luò)的建模與編程實(shí)現(xiàn)。通過(guò)運(yùn)用Mnist數(shù)據(jù)集的分類(lèi)案例初步驗(yàn)證了對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn)額外門(mén)控運(yùn)算部分的改進(jìn)效果。第三,通過(guò)編程將原始的CWRU軸承數(shù)據(jù)集進(jìn)行了二維方陣化處理,實(shí)現(xiàn)改進(jìn)前后循環(huán)神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和故障數(shù)據(jù)的診斷。最后,將改進(jìn)前后循環(huán)神經(jīng)網(wǎng)絡(luò)的故障診斷效果進(jìn)行對(duì)比,結(jié)果顯示,改進(jìn)模型后網(wǎng)絡(luò)的故障診斷效果優(yōu)于原神經(jīng)網(wǎng)絡(luò)。關(guān)鍵詞:深度學(xué)習(xí)技術(shù),故障診斷分類(lèi),循環(huán)神經(jīng)網(wǎng)絡(luò)RNN,額外門(mén)控運(yùn)算第頁(yè)目錄1緒論 11.1論文研究背景及目的 11.1.1論文背景 11.1.2目的 21.2國(guó)內(nèi)外研究狀況 21.2.1深度學(xué)習(xí)技術(shù) 21.2.2循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展簡(jiǎn)述 31.2.3故障診斷方法 41.3論文研究方法 51.4論文構(gòu)成及研究?jī)?nèi)容 51.4.1循環(huán)神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 61.4.2循環(huán)神經(jīng)網(wǎng)絡(luò)改進(jìn)研究 61.4.3故障診斷技術(shù)的實(shí)現(xiàn) 62.循環(huán)神經(jīng)網(wǎng)絡(luò)算法的實(shí)現(xiàn) 82.1循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 82.1.1SimpleRNN網(wǎng)絡(luò)結(jié)構(gòu)模型及原理 82.1.2LSTM網(wǎng)絡(luò)結(jié)構(gòu)模型及原理 92.1.3GRU網(wǎng)絡(luò)結(jié)構(gòu)模型及原理 122.2額外門(mén)控運(yùn)算簡(jiǎn)介 132.3循環(huán)神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 143.循環(huán)神經(jīng)網(wǎng)絡(luò)改進(jìn)研究 183.1基于額外門(mén)控運(yùn)算的算法改進(jìn) 183.2數(shù)據(jù)來(lái)源 243.3判斷指標(biāo) 243.3.1分類(lèi)準(zhǔn)確率 243.3.2函數(shù)損失值 253.4改進(jìn)循環(huán)神經(jīng)網(wǎng)絡(luò)效果對(duì)比分析 254.改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)故障診斷應(yīng)用研究 284.1故障診斷流程 284.2數(shù)據(jù)來(lái)源 284.3數(shù)據(jù)的選取與處理 304.4改進(jìn)循環(huán)神經(jīng)網(wǎng)絡(luò)軸承故障診斷應(yīng)用研究 314.4.1已有循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試 314.4.2改進(jìn)LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練和測(cè)試 354.5不同循環(huán)神經(jīng)網(wǎng)絡(luò)故障診斷效果對(duì)比分析 36結(jié)論與展望 39參考文獻(xiàn) 41附錄 451緒論故障診斷的精準(zhǔn)時(shí)設(shè)備能夠及時(shí)維修的根本保證,因此首先需要根據(jù)故障診斷結(jié)果判斷工業(yè)設(shè)備的運(yùn)行狀況后,才能更加迅速的發(fā)現(xiàn)工業(yè)運(yùn)行過(guò)程中設(shè)備的故障,才能對(duì)其進(jìn)行早期的維修來(lái)避免故障的發(fā)生。只有保證硬件水平維持在高層次,才能對(duì)設(shè)備的狀態(tài)進(jìn)行實(shí)時(shí)的數(shù)據(jù)提取,這清楚地揭示了真相同時(shí)對(duì)這些由硬件設(shè)備提取到的實(shí)時(shí)數(shù)據(jù)進(jìn)行高效的利用,才能對(duì)復(fù)雜設(shè)備進(jìn)行保護(hù),使其能夠有效高速的運(yùn)行。隨著人工智能技術(shù)發(fā)展,國(guó)內(nèi)外學(xué)出提出了許多故障診斷方法,其中包括以下三種方法:人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork)、支持向量機(jī)(SupportVectorMachine)和極限學(xué)習(xí)機(jī)(ExtremeLearningMachine)等(李華東,王志宏,2022)。但是這三種故障診斷方法在實(shí)際應(yīng)用中都有極大的缺陷,其中人工神經(jīng)網(wǎng)絡(luò)具有收斂速度較慢和不穩(wěn)定易發(fā)生震蕩的缺點(diǎn)。而支持向量機(jī)在對(duì)處理算法分類(lèi)進(jìn)行互補(bǔ)和對(duì)模型進(jìn)行預(yù)測(cè)訓(xùn)練時(shí)呈現(xiàn)出了較好的效果,但在面對(duì)數(shù)據(jù)出現(xiàn)不平衡問(wèn)題時(shí),支持向量機(jī)無(wú)法很好的對(duì)其進(jìn)行處理,且該方法的訓(xùn)練需要采用含有標(biāo)簽的大量樣本,同時(shí)又因?yàn)槠涓叱杀镜脑?,從這些規(guī)則中看出無(wú)法很好地利用在工業(yè)生產(chǎn)中。極限學(xué)習(xí)機(jī)和人工神經(jīng)網(wǎng)絡(luò)有同樣的問(wèn)題,即不穩(wěn)定(張文博,劉玉婷,2023)。這三種方法都是較為淺層的機(jī)器學(xué)習(xí)方法,有限的學(xué)習(xí)能力很難支撐工業(yè)生產(chǎn)中的故障診斷。因此,在這個(gè)大背景下,深度學(xué)習(xí)的出現(xiàn)為這一問(wèn)題的解決提供了新的思路和途徑(陳凱琳,王俊杰,2021)。深度學(xué)習(xí)在訓(xùn)練時(shí)采用無(wú)監(jiān)督機(jī)器學(xué)習(xí)的方法,避開(kāi)了人工干預(yù)和專(zhuān)家經(jīng)驗(yàn)容易導(dǎo)致的錯(cuò)誤診斷,而且因著其優(yōu)良的學(xué)習(xí)能力,引發(fā)了研究學(xué)者對(duì)其在故障診斷領(lǐng)域中應(yīng)用的思考。其中因著循環(huán)神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)——梯度爆炸問(wèn)題,該算法在一段時(shí)間以來(lái)都處于研究停滯狀態(tài)(林曉東,趙瑤慧,2021)。然而目前已有部分文獻(xiàn)提出改進(jìn)思路,并且循環(huán)神經(jīng)網(wǎng)絡(luò)可以利用大量不含標(biāo)簽的樣本來(lái)對(duì)模型的進(jìn)行訓(xùn)練,通過(guò)模型參數(shù)進(jìn)行優(yōu)化從而提高模型對(duì)軸承故障數(shù)據(jù)進(jìn)行診斷分類(lèi)的準(zhǔn)確度,以及它有特有的時(shí)間相關(guān)性,目前已經(jīng)能夠較好的應(yīng)用于故障診斷領(lǐng)域中(高雨晨,蘇逸凡,2020)。在故障診斷這一領(lǐng)域,基于循環(huán)神經(jīng)網(wǎng)絡(luò)的故障診斷方法,在對(duì)大量復(fù)雜時(shí)序數(shù)據(jù)進(jìn)行處理時(shí)所取得的成效已經(jīng)遠(yuǎn)遠(yuǎn)超過(guò)了傳統(tǒng)手段。這在一部分程度上揭示了而本次畢業(yè)設(shè)計(jì)正是考慮到循環(huán)神經(jīng)網(wǎng)絡(luò)的系統(tǒng)性研究在故障診斷領(lǐng)域較少,從而對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行模型改進(jìn)與故障診斷分類(lèi)識(shí)別研究,使其與故障診斷更相適應(yīng)。2.循環(huán)神經(jīng)網(wǎng)絡(luò)算法的實(shí)現(xiàn)2.1循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介2.1.1SimpleRNN網(wǎng)絡(luò)結(jié)構(gòu)模型及原理隨著發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)的強(qiáng)大處理和預(yù)測(cè)序列數(shù)據(jù)能力被不斷重視,它解決了傳統(tǒng)機(jī)器學(xué)習(xí)對(duì)輸入輸出數(shù)據(jù)的限制問(wèn)題,并被應(yīng)用于多個(gè)領(lǐng)域之中。同時(shí)因?yàn)镽NN在實(shí)際應(yīng)用中的各種問(wèn)題,經(jīng)過(guò)許多研究者對(duì)RNN的結(jié)構(gòu)改進(jìn)工作,許多RNN的變體模型也陸續(xù)出現(xiàn)(孫佳怡,胡建國(guó),2020)。最簡(jiǎn)單的SimpleRNN結(jié)構(gòu)上主要分為三部分:輸入層、隱藏層及全連接層。SimpleRNN可以看做是深度FNN,這在某種程度上表征但在FNN基礎(chǔ)上SimpleRNN在各隱藏層之間進(jìn)行了權(quán)重共享,它通過(guò)模型內(nèi)部各個(gè)隱藏層之間的回路進(jìn)行連接,將個(gè)隱藏層前一時(shí)刻狀態(tài)保存下來(lái)并傳遞給當(dāng)前網(wǎng)絡(luò)狀態(tài),即擁有參數(shù)共享性(楊昊宇,許心怡,2020)。通過(guò)時(shí)間序列,RNN先前向計(jì)算,然后再使用BPTT算法對(duì)模型網(wǎng)絡(luò)中的各個(gè)參數(shù)進(jìn)行更新。因而相比于FNN,RNN沒(méi)有輸入序列和輸出序列的長(zhǎng)度限制(鄭瑞宇,陳思思,2023)。圖2.1SimpleRNN結(jié)構(gòu)圖 從圖2.1的SimpleRNN結(jié)構(gòu)圖可以看出,如果把W這一循環(huán)去掉,SimpleRNN就變成了最為普通的全連接網(wǎng)絡(luò)。X是代表輸入層值的向量,s則是代表一個(gè)狀態(tài)下隱藏層值的向量(趙子銘,孫天宇,2022)。U和V都是一個(gè)矩陣,從這些資料中可看出分別代表著輸入層到對(duì)應(yīng)隱藏層的權(quán)重與對(duì)應(yīng)隱藏層到輸出層的權(quán)重,o代表的則是最終輸出層值的向量,而W代表的就是前一狀態(tài)的隱藏層值作為當(dāng)前狀態(tài)的輸入所占權(quán)重。這些資料的選擇基于其權(quán)威性、時(shí)效性和代表性,以確保能夠從多個(gè)角度全面地反映研究主題發(fā)展的真實(shí)情況。因此,隱藏層s向量的值,既與當(dāng)前狀態(tài)的輸入有關(guān),還受上一狀態(tài)隱藏層的值影響。用公式表示如下(李梓萱,高宇翔,2022):OtSt2.1.2LSTM網(wǎng)絡(luò)結(jié)構(gòu)模型及原理在實(shí)際應(yīng)用中,SimpleRNN會(huì)出現(xiàn)許多訓(xùn)練方面的難題,當(dāng)模型深度不斷增加時(shí),RNN會(huì)出現(xiàn)長(zhǎng)距離依賴(lài)問(wèn)題,從而導(dǎo)致梯度爆炸的現(xiàn)象,同時(shí)也會(huì)影響神經(jīng)網(wǎng)絡(luò)的魯棒性導(dǎo)致學(xué)習(xí)能力下降(王澤洋,朱玉潔,2020)。為了解決這個(gè)問(wèn)題,經(jīng)過(guò)大量的研究工作,學(xué)者專(zhuān)門(mén)設(shè)計(jì)并提出了SimpleRNN的變體模型——長(zhǎng)短期記憶人工神經(jīng)網(wǎng)絡(luò)(LSTM)。在長(zhǎng)距離依賴(lài)的訓(xùn)練過(guò)程中,它能有效解決SimpleRNN在故障診斷分類(lèi)中存在的各種問(wèn)題,并且能精確對(duì)存在長(zhǎng)短期依賴(lài)的數(shù)據(jù)進(jìn)行建模(張宇和,劉丹萱,2022)。遞歸神經(jīng)網(wǎng)絡(luò)模塊所采用的鏈?zhǔn)叫问剑嬖谟谒械难h(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中。在標(biāo)準(zhǔn)的SimpleRNN中,在此特定環(huán)境中審視不難看出其本質(zhì)這種模塊的結(jié)構(gòu)不僅唯一且較為簡(jiǎn)易。雖然LSTM也包含這一結(jié)構(gòu),但是其中所包含的模塊形式不同于單一的SimpleRNN循環(huán)神經(jīng)網(wǎng)絡(luò)層,LSTM擁有四層結(jié)構(gòu),且在結(jié)構(gòu)之間以一種較為特別的方法進(jìn)行交互(黃志杰,李芷萱,2022)。圖2.2LSTM結(jié)構(gòu)圖門(mén)結(jié)構(gòu)是能選擇性地讓有價(jià)值的信息通過(guò),即對(duì)信息進(jìn)行篩選,它由Sigmoid層和點(diǎn)乘法運(yùn)算兩者組成(田雪婷,吳俊宇,2023)。LSTM中一共有三個(gè)門(mén):遺忘門(mén)、更新門(mén)和輸出門(mén),用于控制和維持循環(huán)神經(jīng)網(wǎng)絡(luò)層的狀態(tài)。LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)中的第一步是選擇性地從循環(huán)神經(jīng)網(wǎng)絡(luò)細(xì)胞狀態(tài)中刪除(遺忘)信息。這段文字的創(chuàng)新之處主要在于其視角的獨(dú)特性,特別是在對(duì)研究問(wèn)題的新穎切入點(diǎn)。本研究擺脫了傳統(tǒng)研究中相對(duì)有限的視角,從宏觀和微觀兩個(gè)層次進(jìn)行探討,既關(guān)注整體模式也注重個(gè)體特征,為理解復(fù)雜現(xiàn)象提供了新的思考路徑。從這個(gè)角度來(lái)看我們認(rèn)識(shí)到該選擇由Sigmoid層實(shí)現(xiàn),被稱(chēng)為遺忘門(mén)。遺忘門(mén)查看前一個(gè)輸出和當(dāng)前輸出,并將單元格狀態(tài)中的每一個(gè)數(shù)字映射到0到1之間的一個(gè)值進(jìn)行輸出。遺忘門(mén)對(duì)數(shù)據(jù)處理為(呂思遠(yuǎn),蔡佳琪,2022):ft圖2.3而第二步,由命名為輸入層的Sigmoid對(duì)需要在循環(huán)神經(jīng)網(wǎng)絡(luò)隱藏層狀態(tài)中更新的值進(jìn)行修改(陳小林,楊詩(shī)慧,2021)。這不僅有助于縮短項(xiàng)目周期,還能降低培訓(xùn)成本和用戶(hù)適應(yīng)新系統(tǒng)的時(shí)間,從而更快地實(shí)現(xiàn)投資回報(bào)。在這之后,這在一定水平上揭露由一個(gè)tanh層創(chuàng)建向量Ct,并將該向量同樣被輸入到隱藏層狀態(tài)中,且在之后將利用這兩個(gè)向量創(chuàng)建更新值。第二步處理輸入數(shù)據(jù),創(chuàng)建更新值公式為(郭銘哲,魏若晨,2022)itCt=圖2.4在之后,開(kāi)始將上一個(gè)狀態(tài)值Ct?1更新為Ct。先將上一狀態(tài)值乘以ft,以此表示這部分期望忘記,之后將得到的值加上it?C圖2.5最后,在此類(lèi)環(huán)境中由輸出門(mén)基于細(xì)胞狀態(tài)決定最終的輸出結(jié)果。首先通過(guò)一個(gè)Sigmoid層,決定要輸出的神經(jīng)網(wǎng)絡(luò)隱藏層狀態(tài)部分(高澤林,周馨兒,2023)。然后通過(guò)tanh函數(shù)將單元格狀態(tài)與該層門(mén)結(jié)構(gòu)的輸出通過(guò)算法進(jìn)行處理,最終輸出決定的部分。運(yùn)算算法為:ot?t圖2.62.1.3GRU網(wǎng)絡(luò)結(jié)構(gòu)模型及原理為了滿(mǎn)足一些實(shí)際應(yīng)用,研究者在LSTM的基礎(chǔ)上進(jìn)行改動(dòng),從而引伸出了很多變體,其中調(diào)整較大的是門(mén)控循環(huán)單元神經(jīng)網(wǎng)絡(luò)(GatedRecurrentUnit)。該網(wǎng)絡(luò)模型在長(zhǎng)短期記憶人工神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,實(shí)現(xiàn)了輸入門(mén)和遺忘門(mén)相結(jié)合,精簡(jiǎn)了LSTM的模型,并將其結(jié)合后的門(mén)結(jié)構(gòu)命名為更新門(mén)(張瑞陽(yáng),鄧秋婷,2022)。通過(guò)詳細(xì)分析,本研究不僅完全涵蓋了所設(shè)定的研究問(wèn)題和目標(biāo),而且在邏輯體系內(nèi)對(duì)觀察到的現(xiàn)象和數(shù)據(jù)進(jìn)行了合理的說(shuō)明。因?yàn)槭荓STM的變體,在這特定狀態(tài)時(shí)因而同樣包含其擁有的細(xì)胞狀態(tài)和隱藏狀態(tài),但在LSTM的基礎(chǔ)上減少了門(mén)結(jié)構(gòu)從而將模型參數(shù)減少了1/3,使得神經(jīng)網(wǎng)絡(luò)不容易發(fā)生過(guò)擬合,能極大的提高計(jì)算效率(李建華,趙夢(mèng)婷,2022)。GRU的輸入輸出與其他循環(huán)神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)上一樣(朱一鳴,李丹萍,2021)。有一個(gè)當(dāng)前輸入xt,和前一時(shí)刻傳遞的隱狀態(tài)?t?1,將當(dāng)前輸入和前一時(shí)刻的隱狀態(tài)結(jié)合,GRU通過(guò)運(yùn)算得到一個(gè)新的節(jié)點(diǎn)輸出yt圖2.7如圖所示,其中r代表重置門(mén),z代表更新門(mén)。GRU通過(guò)上一個(gè)節(jié)點(diǎn)傳輸下來(lái)的狀態(tài)?t?1和當(dāng)前節(jié)點(diǎn)的輸入xz=σ(xr=σ(x在得到門(mén)控狀態(tài)后,網(wǎng)絡(luò)首先利用重置門(mén)來(lái)得到重置之后的數(shù)據(jù)?t?1,再將?t?1與xt進(jìn)行處理,通過(guò)一個(gè)tanh激活函數(shù)對(duì)數(shù)據(jù)進(jìn)行映射,放縮至-1到1的范圍內(nèi),得到?'?'最后神經(jīng)網(wǎng)絡(luò)利用更新門(mén)同時(shí)進(jìn)行遺忘與記憶兩個(gè)步驟,計(jì)算所得到的h并將該向量保留并傳遞到下一個(gè)單元中。更新門(mén)在這個(gè)過(guò)程中決定了當(dāng)前記憶內(nèi)容h和前一節(jié)點(diǎn)?t?1?t2.2額外門(mén)控運(yùn)算簡(jiǎn)介神經(jīng)模型在自然語(yǔ)言處理領(lǐng)域的主導(dǎo)地位僅受到以下因素的阻礙:有限的泛化能力和可疑的樣本復(fù)雜性、糟糕的語(yǔ)法理解能力,以及無(wú)法將輸入序列分割成意義單元。雖然對(duì)后者的直接改進(jìn)是可能的,以此情況為依據(jù)但在本文中采用了一種與語(yǔ)言無(wú)關(guān)的方法來(lái)改進(jìn)循環(huán)神經(jīng)網(wǎng)絡(luò),它不僅能在語(yǔ)言建模、語(yǔ)義解析、機(jī)器翻譯等方面帶來(lái)了許多進(jìn)步,同時(shí)也使網(wǎng)絡(luò)能更好地應(yīng)用在非自然語(yǔ)言處理,尤其是軸承的故障診斷檢測(cè)(黃博文,劉子晨,2021)。本研究成功地將理論與現(xiàn)實(shí)相交融,為所探討的議題給出了扎實(shí)的答案,并為后續(xù)研究開(kāi)辟了新的研究領(lǐng)域和思考方向。許多神經(jīng)模型都是由RNN建立的,包括端到端可訓(xùn)練神經(jīng)網(wǎng)絡(luò)。因此。RNN架構(gòu)中的創(chuàng)新傾向于從語(yǔ)言建模到許多其他任務(wù)的滴漏效應(yīng),在許多研究者的努力下極大地加強(qiáng)了這一趨勢(shì),它們促進(jìn)了從架構(gòu)藍(lán)圖到預(yù)先訓(xùn)練的構(gòu)建模塊的模型(彭志華,王雪梅,2021)。為了提高循環(huán)神經(jīng)網(wǎng)絡(luò)模型的泛化能力,本文對(duì)LSTM進(jìn)行了擴(kuò)展,其中LSTM的輸入x是受上一步?prev輸出的門(mén)控條件限制的。接下來(lái),額外門(mén)控運(yùn)算以類(lèi)似的方式使用門(mén)控輸入對(duì)前一個(gè)時(shí)間步長(zhǎng)的輸出進(jìn)行門(mén)控。經(jīng)過(guò)幾輪這種相互門(mén)通之后,最后更新的輸入x和節(jié)點(diǎn)狀態(tài)?prev被提供給LSTM。基于這一發(fā)現(xiàn),本文可以更有信心地推進(jìn)后續(xù)研究,探索新的假設(shè)、設(shè)計(jì)更精細(xì)的分析,以期在該領(lǐng)域取得更加突破性的進(jìn)展。在這條件下通過(guò)引入這些額外的門(mén)操作,在某種意義上,改進(jìn)后的模型加入了隨著Elman網(wǎng)絡(luò)的發(fā)明而出現(xiàn)的一長(zhǎng)串具有不同復(fù)雜性的門(mén)結(jié)構(gòu)的循環(huán)架構(gòu)2.3循環(huán)神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)在進(jìn)行循環(huán)神經(jīng)網(wǎng)絡(luò)建模中,可以從此看出出于對(duì)語(yǔ)言泛用性和深度學(xué)習(xí)庫(kù)函數(shù)調(diào)用方面考慮,在分析了當(dāng)前深度學(xué)習(xí)中所使用的的主流語(yǔ)言,最終選擇了使用Python語(yǔ)言,并采用了與之相對(duì)應(yīng)的Pycharm編譯器來(lái)改進(jìn)循環(huán)神經(jīng)網(wǎng)絡(luò)。在本文中,在對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)時(shí)選用使用Adam優(yōu)化的隨機(jī)梯度下降法?;谶@些初步的研究成果,本文能夠構(gòu)想出更多富有前瞻性的研究設(shè)想與探索領(lǐng)域,促進(jìn)該領(lǐng)域的知識(shí)邊界不斷延伸。通過(guò)這些可以看出優(yōu)化器目的是指引損失函數(shù)的各個(gè)參數(shù)往正確的方式更新合適的大小,并使得更新后的各個(gè)參數(shù)讓損失函數(shù)的值不斷畢竟全局最小(胡宇凡,邱婷婷,2020)。而隨機(jī)梯度下降法的優(yōu)點(diǎn)在于,該方法每次只使用一個(gè)樣本更新模型參數(shù),因此其訓(xùn)練速度快。而且該方法有利于促使優(yōu)化的方向不斷向較好的局部極小值進(jìn)行跳躍,最后收斂于一個(gè)較為合適的局部極值點(diǎn)(鄭佳怡,史文麗,2020)。具體來(lái)說(shuō),研究發(fā)現(xiàn)關(guān)鍵變量間的關(guān)聯(lián)性和走向與模型預(yù)測(cè)相吻合,這不僅提升了理論架構(gòu)的可信程度,也為深入探究該領(lǐng)域的復(fù)雜關(guān)系奠定了實(shí)證基礎(chǔ)。下面是用于實(shí)現(xiàn)LSTM模型的主要Python代碼:importosos.environ['TF_CPP_MIN_LOG_LEVEL']='2'importnumpyasnpimporttensorflowastfimportgruimportlstmimportdatadefsingle_layer_static_lstm(input_x,n_steps,n_hidden):#把輸入input_x按列拆分,并返回一個(gè)有n_steps個(gè)張量組成的list如batch_sizex28x28的輸入拆成[(batch_size,28),((batch_size,28))]#如果是調(diào)用的是靜態(tài)rnn函數(shù),需要這一步處理即相當(dāng)于把序列作為第一維度input_x1=tf.unstack(input_x,num=n_steps,axis=1)#可以看做隱藏層lstm_cell=tf.contrib.rnn.BasicLSTMCell(num_units=n_hidden,forget_bias=1.0)#靜態(tài)rnn函數(shù)傳入的是一個(gè)張量list每一個(gè)元素都是一個(gè)(batch_size,n_input)大小的張量hiddens,states=tf.contrib.rnn.static_rnn(cell=lstm_cell,inputs=input_x1,dtype=tf.float32)returnhiddens,statesdefmnist_rnn_classfication(flag):#導(dǎo)入數(shù)據(jù)集tf.reset_default_graph()fromtensorflow.examples.tutorials.mnistimportinput_datamnist=input_data.read_data_sets('MNIST-data',one_hot=True)print(type(mnist))print('Trainingdatashape:',mnist.train.images.shape)#輸出訓(xùn)練數(shù)據(jù)特征信息(55000,784)print('Testdatashape:',mnist.test.images.shape)#輸出測(cè)試數(shù)據(jù)特征信息print('Validationdatashape:',mnist.validation.images.shape)#輸出驗(yàn)證數(shù)據(jù)特征信息(5000,784)print('Traininglabelshape:',mnist.train.labels.shape)#輸出訓(xùn)練標(biāo)簽數(shù)據(jù)特征信息(55000,10)#定義參數(shù),以及網(wǎng)絡(luò)結(jié)構(gòu)n_input=20#LSTM單元輸入節(jié)點(diǎn)的個(gè)數(shù)n_steps=20#序列長(zhǎng)度n_hidden=100#LSTM單元輸出節(jié)點(diǎn)個(gè)數(shù)(即隱藏層個(gè)數(shù))n_classes=10#類(lèi)別batch_size=100#小批量大小training_step=3001#迭代次數(shù)display_step=500#顯示步數(shù)learning_rate=0.0001#學(xué)習(xí)率BATCH_INDEX=0#定義占位符#batch_size:這在一定程度上顯露表示一次的批次樣本數(shù)量batch_sizen_steps:表示時(shí)間序列總數(shù)n_input:表示一個(gè)時(shí)序具體的數(shù)據(jù)長(zhǎng)度即一共28個(gè)時(shí)序,一個(gè)時(shí)序送入28個(gè)數(shù)據(jù)進(jìn)入LSTM網(wǎng)絡(luò)(陳俊杰,王映雪,2022)input_x=tf.placeholder(dtype=tf.float32,shape=[None,n_steps,n_input])input_y=tf.placeholder(dtype=tf.float32,shape=[None,n_classes])hiddens,states=single_layer_static_lstm(input_x,n_steps,n_hidden)print('hidden:',hiddens[-1].shape)#(128,128)output=tf.contrib.layers.fully_connected(inputs=hiddens[-1],num_outputs=n_classes,activation_fn=tf.nn.softmax)#設(shè)置對(duì)數(shù)似然損失函數(shù)#代價(jià)函數(shù)J=-(Σy.logaL)/n.表示逐元素乘cost=tf.reduce_mean(-tf.reduce_sum(input_y*tf.log(output),axis=1))#求解train=tf.train.AdamOptimizer(learning_rate).minimize(cost)#預(yù)測(cè)結(jié)果評(píng)估#返回一個(gè)數(shù)組表示統(tǒng)計(jì)預(yù)測(cè)正確或者錯(cuò)誤correct=tf.equal(tf.argmax(output,1),tf.argmax(input_y,1))#求準(zhǔn)確率accuracy=tf.reduce_mean(tf.cast(correct,tf.float32))#創(chuàng)建list保存每一迭代的結(jié)果test_accuracy_list=[]test_cost_list=[]withtf.Session()assess:#使用會(huì)話(huà)執(zhí)行圖sess.run(tf.global_variables_initializer())#初始化變量#開(kāi)始迭代并使用Adam優(yōu)化的隨機(jī)梯度下降法foriinrange(training_step):x_batch,y_batch=mnist.train.next_batch(batch_size=batch_size)x_batch=x_batch.reshape([-1,n_steps,n_input])#開(kāi)始訓(xùn)練train.run(feed_dict={input_x:x_batch,input_y:y_batch})if(i+1)%display_step==0:#輸出訓(xùn)練集準(zhǔn)確率training_accuracy,training_cost=sess.run([accuracy,cost],feed_dict={input_x:x_batch,input_y:y_batch})print('Step{0}:Trainingsetaccuracy{1},cost{2}.'.format(i+1,training_accuracy,training_cost))3.循環(huán)神經(jīng)網(wǎng)絡(luò)改進(jìn)研究3.1基于額外門(mén)控運(yùn)算的算法改進(jìn)LSTM與GRU雖然已經(jīng)在很大程度上解決了梯度消失爆炸問(wèn)題,但是傳統(tǒng)的RNN在故障檢測(cè)上的精確度依然有所不足,而在改進(jìn)額外門(mén)控運(yùn)算之后,對(duì)輸入進(jìn)行處理有利于訓(xùn)練精度的提升(李夢(mèng)婷,蔣志鵬,2022)。這在一定水平上揭露但傳統(tǒng)的LSTM一般用于自然語(yǔ)言處理,因此為了使其更適合應(yīng)用在故障上將LSTM中門(mén)控運(yùn)算中的Sigmoid函數(shù)更改為tanh激活函數(shù),加快模型的收斂速度,以及更進(jìn)一步減少梯度消失爆炸問(wèn)題.這一驗(yàn)證步驟也為后續(xù)研究提供了思路,即在已驗(yàn)證的理論架構(gòu)下,可以更加深入地探討未被充分研究的因素,或把模型應(yīng)用于更廣泛的情境中進(jìn)行驗(yàn)證和優(yōu)化。同時(shí),由于傳統(tǒng)的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)只將輸入x和狀態(tài)?t在網(wǎng)絡(luò)內(nèi)部進(jìn)行運(yùn)算處理,在這之前并沒(méi)有任何處理,因此很容易致使在訓(xùn)練學(xué)習(xí)過(guò)程中信息的丟失。為此,本論文在LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)模中改進(jìn)了額外門(mén)控運(yùn)算,在對(duì)LSTM本身的結(jié)構(gòu)不進(jìn)行改動(dòng)基礎(chǔ)上,讓輸入x和狀態(tài)?p先通過(guò)門(mén)結(jié)構(gòu)進(jìn)行運(yùn)算處理,然后通過(guò)運(yùn)算處理提高模型的上下文關(guān)聯(lián)交互能力(李明杰,張曉文,2022)。圖2.7額外門(mén)控循環(huán)結(jié)構(gòu)圖這在一定層面上證實(shí)了如上圖所示,可以明顯看出該改進(jìn)并未對(duì)原始的LSTM的計(jì)算步驟及本身結(jié)構(gòu)進(jìn)行調(diào)整,僅僅將輸入到神經(jīng)網(wǎng)絡(luò)模型中的輸入x和模型狀態(tài)信息?prev改變了??梢匀鐖D2.7中所示,這無(wú)疑地揭示了本質(zhì)在x和h輸入到神經(jīng)網(wǎng)絡(luò)模型之前,先對(duì)兩者進(jìn)行了數(shù)輪的交互運(yùn)算,其中x?1就是輸入x,而?0即?prev,r則為兩者經(jīng)過(guò)的交互運(yùn)算輪數(shù),若r=0,即將x和xi=2σ?previ?1如上圖公式所示,先根據(jù)公式(3.1),將x?1和?0計(jì)算得到x1,然后根據(jù)公式(3.2),通過(guò)x1和?0計(jì)算得到改進(jìn)后額外門(mén)控運(yùn)算的LSTM模型部分代碼如下:from__future__importabsolute_importfrom__future__importdivisionfrom__future__importprint_functionimporttiled_linearimportutilsimportsiximporttensorflowastfclassTiledLSTMCell(tf.contrib.rnn.RNNCell):"""AnLSTMcellwithtiledconnections.Supportsvariousconnectivitypatternssuchasthevanilla,denseTiledLinear,andalsoSparseTiledLinear,LayerNormedTiledLinear."""def__init__(self,num_units,use_peepholes=False,cell_clip=None,initializer=None,num_proj=None,feature_mask_rounds=0,feature_mask_rank=0,tie_gates=False,cap_input_gate=True,layer_norm=False,activation=tf.tanh,input_transform=None,state_transform=None,update_transform=None,tiled_linear_class=None,tiled_linear_var_init_params=None):assertnotuse_peepholes,'PeepholesarenotimplementedinLSTMCell.'self._num_units=num_unitsself._use_peepholes=use_peepholesself._cell_clip=cell_clipself._initializer=initializerself._num_proj=num_projself._feature_mask_rounds=feature_mask_roundsself._feature_mask_rank=feature_mask_rankself._tie_gates=tie_gatesself._cap_input_gate=cap_input_gateself._layer_norm=layer_normself._activation=activationself._input_transform=input_transformself._state_transform=state_transformself._update_transform=update_transformiftiled_linear_classisNone:iflayer_norm:tiled_linear_class=tiled_linear.LayerNormedTiledLinearelse:tiled_linear_class=tiled_linear.TiledLinearself._tiled_linear_class=tiled_linear_classself._tiled_linear_var_init_params=tiled_linear_var_init_paramsself._tiled_linear_mod=Noneifnum_proj:self._output_size=num_projelse:self._output_size=num_unitsself._state_size=tf.nn.rnn_cell.LSTMStateTuple(num_units,self._output_size)@propertydefstate_size(self):returnself._state_size@propertydefoutput_size(self):returnself._output_size@staticmethoddef_do_feature_masking(x,y,num_x,num_y,rounds,rank):forround_insix.moves.range(rounds):transforming_x=(round_%2==0)fm_name='fm_'+str(round_)ifrank==0:#fullrankcaseiftransforming_x:x*=2*tf.sigmoid(utils.linear(y,num_x,bias=True,scope=fm_name))else:y*=2*tf.sigmoid(utils.linear(x,num_y,bias=True,scope=fm_name))else:#low-rankfactorizationcaseiftransforming_x:shape=[num_y,num_x]else:shape=[num_x,num_y]a,b=utils.low_rank_factorization(fm_name+'_weight',shape,rank)bias=tf.get_variable(fm_name+'_bias',shape[1],initializer=tf.zeros_initializer())iftransforming_x:x*=2*tf.sigmoid(tf.matmul(tf.matmul(y,a),b)+bias)else:y*=2*tf.sigmoid(tf.matmul(tf.matmul(x,a),b)+bias)returnx,ydef__call__(self,input_,state,scope=None):num_units=self._num_unitsnum_proj=num_unitsifself._num_projisNoneelseself._num_projnum_inputs=input_.get_shape().with_rank(2)[1]defmaybe_transform(transform,x):iftransformisNone:returnxelse:returntransform(x)withtf.variable_scope(scopeortype(self).__name__,initializer=self._initializer):transformed_input=maybe_transform(self._input_transform,input_)transformed_state=maybe_transform(self._state_transform,state.h)transformed_input,transformed_state=self._do_feature_masking(transformed_input,transformed_state,num_inputs,num_units,self._feature_mask_rounds,self._feature_mask_rank)inputs=[transformed_input,transformed_state]input_name_and_sizes=[('x',num_inputs),('h',num_proj)]output_name_and_sizes=[('j',num_units),('o',num_units),('f',num_units)]ifnotself._tie_gates:output_name_and_sizes.append(('i',num_units))ifself._tiled_linear_modisNone:self._tiled_linear_mod=self._tiled_linear_class(input_name_and_sizes,output_name_and_sizes,self._tiled_linear_var_init_params)ifself._tie_gates:j_pre,o_pre,f_pre=self._tiled_linear_mod(inputs)else:j_pre,o_pre,f_pre,i_pre=self._tiled_linear_mod(inputs)#Computethecellstatec.f=tf.sigmoid(f_pre)j=self._activation(j_pre)j=maybe_transform(self._update_transform,j)o=tf.tanh(o_pre)ifself._tie_gates:c=f*state.c+(1-f)*jelse:i=tf.tanh(i_pre)ifself._cap_input_gate:c=f*state.c+tf.minimum(1-f,i)*jelse:c=f*state.c+i*jifself._layer_norm:c2=utils.layer_norm(c,[1],scope='ln_c')else:c2=cifself._cell_clipisnotNone:#pylint:disable=invalid-unary-operand-typec=tf.clip_by_value(c,-self._cell_clip,self._cell_clip)#pylint:enable=invalid-unary-operand-typeh=o*self._activation(c2)ifself._num_projisnotNone:h=utils.linear(h,self._num_proj,bias=False,scope='projection')returnh,tf.contrib.rnn.LSTMStateTuple(c,h)3.2訓(xùn)練數(shù)據(jù)來(lái)源Tensorflow中的Mnist數(shù)據(jù)集由美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所發(fā)起整理并開(kāi)源發(fā)布。本文利用該數(shù)據(jù)集對(duì)改進(jìn)額外門(mén)控運(yùn)算循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí)驗(yàn)證,初步推斷改進(jìn)方法的正確性(吳宇航,趙玉蘭,2022)。這在一定水平上揭露該數(shù)據(jù)集包含用于訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)有六萬(wàn)個(gè),而用于測(cè)試循環(huán)神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)多達(dá)一萬(wàn)個(gè)。在設(shè)計(jì)優(yōu)化工作中,本文特別注重經(jīng)濟(jì)性與方案的可擴(kuò)展性,與最初設(shè)計(jì)相比,在多個(gè)方面進(jìn)行了細(xì)致的調(diào)整與優(yōu)化。該數(shù)據(jù)集統(tǒng)計(jì)了兩百多個(gè)人手寫(xiě)生成的數(shù)字圖片集,且該數(shù)據(jù)集都經(jīng)過(guò)尺寸標(biāo)準(zhǔn)化處理,是眾多深度學(xué)習(xí)算法模型測(cè)試的標(biāo)準(zhǔn)數(shù)據(jù)集之一(周思琪,孫志強(qiáng),2022)。3.3判斷指標(biāo)如此能夠看出在對(duì)各種循環(huán)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練驗(yàn)證時(shí),有許多用來(lái)評(píng)判的指標(biāo),包括準(zhǔn)確度(Accuracy)、精確度(Precision)、召回率(Recall)、F1score(F1-measure值)等。而在本文中將準(zhǔn)確度以及函數(shù)損失值設(shè)為判斷網(wǎng)絡(luò)模型的重要指標(biāo),因?yàn)檫@兩個(gè)指標(biāo)在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型中最為廣泛應(yīng)用且重要(劉嘉琪,李錦程,2022)。在此基礎(chǔ)上,本文進(jìn)一步采用了多種實(shí)證方法對(duì)研究結(jié)論進(jìn)行了檢驗(yàn),以確保結(jié)果的穩(wěn)健性和可靠性。3.3.1分類(lèi)準(zhǔn)確率單標(biāo)簽分類(lèi)任務(wù)中的每個(gè)樣本都有一個(gè)確定的類(lèi)別,預(yù)測(cè)到該類(lèi)別就是分類(lèi)正確,反之則是錯(cuò)誤,因此準(zhǔn)確度是最為直觀的指標(biāo),也就是準(zhǔn)確率。accuracy=TP+TN上述公式表示的為所有樣本都正確分類(lèi)的概率。3.3.2損失函數(shù)值損失函數(shù)表示一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)模型對(duì)相應(yīng)數(shù)據(jù)集進(jìn)行訓(xùn)練學(xué)習(xí)后的擬合程度??傮w上來(lái)說(shuō),模型的損失函數(shù)值越小,則表示該循環(huán)神經(jīng)網(wǎng)絡(luò)模型對(duì)數(shù)據(jù)的擬合程度越高,模型的魯棒性能較好。同時(shí)也希望,當(dāng)損失函數(shù)值較大時(shí),神經(jīng)網(wǎng)絡(luò)模型擁有較大的梯度有利于在梯度下降過(guò)程中加快更新速度。常用的損失函數(shù)值有:MSE損失函數(shù)、log損失函數(shù)、CrossEntropy、交叉熵等(黃志濤,王曉云,2019)。從這些規(guī)則中看出本文選用了對(duì)數(shù)似然損失函數(shù)。其公式如下:Loss=y.logal3.4改進(jìn)循環(huán)神經(jīng)網(wǎng)絡(luò)效果對(duì)比分析根據(jù)額外門(mén)控運(yùn)算理論推導(dǎo),先利用Mnist數(shù)據(jù)集對(duì)搭建好的各種循環(huán)神經(jīng)網(wǎng)絡(luò)模型(LSTM、GRU、改進(jìn)后的LSTM)進(jìn)行訓(xùn)練,初步驗(yàn)證改進(jìn)后的效果。對(duì)比各個(gè)模型對(duì)Minst數(shù)據(jù)集訓(xùn)練后的損失函數(shù)值和測(cè)試精度,來(lái)判斷各個(gè)模型的優(yōu)劣。一般而言小的損失函數(shù)值和高的測(cè)試精度,代表較高的網(wǎng)絡(luò)模型學(xué)習(xí)能力(鄭子墨,趙宇和,2020)。在數(shù)據(jù)搜集階段,本文運(yùn)用了多種數(shù)據(jù)渠道,以實(shí)現(xiàn)數(shù)據(jù)的相互支持和驗(yàn)證,同時(shí)應(yīng)用規(guī)范化流程來(lái)減少數(shù)據(jù)采集的主觀影響。根據(jù)下述圖表,顯然可以看出改進(jìn)額外門(mén)控運(yùn)算后的LSTM對(duì)數(shù)據(jù)的適應(yīng)性更好。表3.1LSTM模型的函數(shù)誤差及準(zhǔn)確率值訓(xùn)練次數(shù)2004006008001000120014001600Accuracy0.58590.82030.78910.84380.85940.92970.92190.9219loss1.43970.69860.60270.48570.46600.25930.32890.2060表3.2GRU模型的函數(shù)誤差及準(zhǔn)確率值訓(xùn)練次數(shù)2004006008001000120014001600Accuracy0.53130.64840.77340.84380.89840.90630.89060.9219loss1.51681.13390.66730.59030.36840.32720.33700.3402表3.3改進(jìn)后的LSTM函數(shù)誤差及準(zhǔn)確率值訓(xùn)練次數(shù)2004006008001000120014001600Accuracy0.14840.16410.34380.66410.8750.8750.90630.9531loss2.30232.30081.64601.06450.53980.39770.32620.1800圖3.3不同循環(huán)神經(jīng)網(wǎng)絡(luò)模型準(zhǔn)確率對(duì)比圖圖3.4不同激活函數(shù)損失值對(duì)比圖由Minst數(shù)據(jù)集訓(xùn)練模型驗(yàn)證可見(jiàn),改進(jìn)的額外門(mén)控運(yùn)算LSTM神經(jīng)網(wǎng)絡(luò)模型在迭代1600次后的損失函數(shù)值為0.18左右,這在一部分程度上揭示了精確度在0.95左右,相比與原有的LSTM神經(jīng)網(wǎng)絡(luò)模型和GRU神經(jīng)網(wǎng)絡(luò)模型,不僅在精確度上有所提高,在損失值上也有所降低。因此,可得出結(jié)論改進(jìn)的額外門(mén)控運(yùn)算可以提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)性能。但是由于引入了額外門(mén)控運(yùn)算,這在某種程度上表征神經(jīng)網(wǎng)絡(luò)模型在學(xué)習(xí)速率上明顯有所下降,網(wǎng)絡(luò)需要更多的迭代次數(shù)才能達(dá)到優(yōu)于原有網(wǎng)絡(luò)的精確度與損失函數(shù)值(胡雨婷,張澤宇,2022)。本文還對(duì)研究過(guò)程中潛在的誤差進(jìn)行了敏感性分析,進(jìn)一步增強(qiáng)了研究結(jié)果的穩(wěn)定性。創(chuàng)新點(diǎn)在于觀察角度的轉(zhuǎn)換,尤其是針對(duì)研究目標(biāo)的新穎解讀。4.改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)故障診斷應(yīng)用研究4.1故障診斷流程基于循環(huán)神經(jīng)網(wǎng)絡(luò)的故障診斷框架主要分為五個(gè)階段:定義狀態(tài)階段,對(duì)故障狀態(tài)進(jìn)行定義(許怡然,劉文靜,2022)。數(shù)據(jù)預(yù)處理階段,將數(shù)據(jù)進(jìn)行清理、分割、重構(gòu)、歸一化、去噪等處理,并將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。訓(xùn)練階段,構(gòu)建整體網(wǎng)絡(luò)模型,訓(xùn)練分類(lèi)模型,最后進(jìn)行微調(diào)。測(cè)試階段,利用測(cè)試集測(cè)試訓(xùn)練好的模型。診斷結(jié)果評(píng)估階段,確定故障類(lèi)型,并對(duì)診斷結(jié)果進(jìn)行評(píng)估。圖4.1故障診斷基本框架4.2數(shù)據(jù)來(lái)源通過(guò)查閱故障數(shù)據(jù)相關(guān)文獻(xiàn),最終選擇了美國(guó)凱斯西儲(chǔ)大學(xué)(CaseWesternReserveUniversity,CWRU)開(kāi)源提供的軸承故障數(shù)據(jù)集。本文中所用的部分?jǐn)?shù)據(jù)集文件如圖4.2所示。因?yàn)樵摂?shù)據(jù)文件中包含了處于當(dāng)前狀態(tài)下軸承相應(yīng)振動(dòng)信號(hào)的時(shí)序數(shù)據(jù),因此有利于循環(huán)神經(jīng)網(wǎng)絡(luò)的故障診斷研究展開(kāi)(范志偉,王凱旋,2021)。該段內(nèi)容的創(chuàng)新點(diǎn)在于其視角的革新,尤其在于對(duì)研究對(duì)象的深度審視。傳統(tǒng)研究習(xí)慣于聚焦于對(duì)象的核心特征和直接聯(lián)系,而本文則深入挖掘了那些不太受關(guān)注的邊緣屬性和隱蔽的聯(lián)系。圖4.2部分?jǐn)?shù)據(jù)集圖該數(shù)據(jù)集中一共采集了軸承主要發(fā)生的三類(lèi)故障,包括內(nèi)圈(InnerRace)、外圈(OuterRace)以及滾動(dòng)體(Ball)。從這些資料中可看出圖4.2中文件采用了英文的頭文字進(jìn)行簡(jiǎn)寫(xiě),同時(shí)007、014以及021代表不同的故障輕重程度,也就是故障直徑為7密耳、14密耳和21密耳(蔣梓萱,陳宇彤,2022)。由于軸承一些故障的產(chǎn)生可能需要許多年時(shí)間的累積,因此該數(shù)據(jù)集采集時(shí)采用了人工注入故障的方法——利用電火花技術(shù),將單點(diǎn)故障引入到軸承的適當(dāng)位置上。如圖4.3所示,模擬實(shí)驗(yàn)臺(tái)由四部分組成,除去圖中所示儀器,還包括一個(gè)電子控制器對(duì)圖中器件進(jìn)行操作控制。為保障研究結(jié)果的可靠性和可信度,本文最初廣泛收集國(guó)內(nèi)外相關(guān)領(lǐng)域的文獻(xiàn)資料,系統(tǒng)梳理了當(dāng)前研究的前沿發(fā)展和理論依據(jù)。實(shí)驗(yàn)中,在此特定環(huán)境中審視不難看出其本質(zhì)加速度傳感器通過(guò)磁性底座安裝在電機(jī)殼體的驅(qū)動(dòng)端和風(fēng)扇端12點(diǎn)鐘位置的機(jī)殼上,并將其利用來(lái)采集振動(dòng)信號(hào)。由于外圈故障相對(duì)來(lái)說(shuō)比較固定,這在一定水平上揭露其損傷點(diǎn)一般就是它的載荷位置,因此實(shí)驗(yàn)時(shí)正在外圈3點(diǎn)鐘、6點(diǎn)鐘以及12點(diǎn)鐘位置設(shè)置損傷點(diǎn),數(shù)據(jù)集文件中的OuterRace12就是12點(diǎn)鐘方向的故障(高欣怡,李星宇,2021)。在研究設(shè)計(jì)階段,本文精心設(shè)計(jì)科學(xué)合理的研究框架,確保研究問(wèn)題明確且有價(jià)值,研究假設(shè)合理且有依據(jù)。圖4.3滾動(dòng)軸承故障模擬實(shí)驗(yàn)臺(tái)實(shí)物圖圖4.4深溝球軸承圖其中振動(dòng)信號(hào)的獲取,是利用DAT記錄儀保存的,該儀器為16通道。數(shù)字信號(hào)的采樣頻率包括12khz和48khz,而驅(qū)動(dòng)端軸承故障數(shù)據(jù)則以48khz的速率進(jìn)行采集,并在采集完成后通過(guò)MATLAB進(jìn)行處理。在此類(lèi)環(huán)境中因此,數(shù)據(jù)集的文件格式最終為mat。數(shù)據(jù)集文件中所含英文變量,含義如下表4.1數(shù)據(jù)集文件變量含義注釋表DE-driveendaccelerometerdata驅(qū)動(dòng)端的加速度數(shù)據(jù)FE-fanendaccelerometerdata風(fēng)扇端的加速度數(shù)據(jù)BA-baseaccelerometerdata基礎(chǔ)的加速度數(shù)據(jù)time-timeseriesdata時(shí)間序列數(shù)據(jù)RPM-rpmduringtesting測(cè)試時(shí)轉(zhuǎn)速4.3數(shù)據(jù)的選取與處理確定實(shí)驗(yàn)使用的數(shù)據(jù)集為CWRU軸承數(shù)據(jù)集后,需要對(duì)數(shù)據(jù)文件中的參數(shù)進(jìn)行詳細(xì)分析,進(jìn)而才可以理解每種數(shù)據(jù)實(shí)際所代表的含義以及獲取診斷所需數(shù)據(jù),才可以選擇合適的能進(jìn)行故障診斷分類(lèi)的數(shù)據(jù)(朱曉東,王子鳴,2022)。在這般的框架下以本次選用的數(shù)據(jù)文件IR021_0為例說(shuō)明文件參數(shù)含義,IR代表故障發(fā)生在驅(qū)動(dòng)端內(nèi)圈故障,12KDE和48KDE代表采集這個(gè)數(shù)據(jù)時(shí)所用的采集頻率,021代表該故障軸承的直徑為21,0則代表實(shí)驗(yàn)時(shí)電機(jī)轉(zhuǎn)速為1797RPM。本文采用最新數(shù)據(jù)來(lái)識(shí)別數(shù)據(jù)中的潛在模式,或利用決策樹(shù)模型來(lái)預(yù)測(cè)未來(lái)動(dòng)向。這些前沿方法為深刻剖析復(fù)雜現(xiàn)象提供了強(qiáng)大助力,并有助于揭示隱藏在海量數(shù)據(jù)中的深層聯(lián)系。循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練所需要的數(shù)據(jù)從不同軸承數(shù)據(jù)集中選取,一共選用了10中狀態(tài)數(shù)據(jù),包括一種正常狀態(tài)下的數(shù)據(jù),從這些條件可以體會(huì)到和三種直徑不同且在三個(gè)不同的位置發(fā)生,3*3排列組合成9種故障狀態(tài)的數(shù)據(jù)。所采用的數(shù)據(jù)都是從驅(qū)動(dòng)端DE進(jìn)行采集。要進(jìn)行分類(lèi)的軸承故障數(shù)據(jù)包含的十種狀態(tài)如表4.2所示。各個(gè)狀態(tài)數(shù)據(jù)采用的都是振動(dòng)信號(hào),從這些方法中看出且各狀態(tài)數(shù)據(jù)為時(shí)間序列數(shù)據(jù),在實(shí)驗(yàn)過(guò)程中按時(shí)間順序在各種時(shí)間點(diǎn)進(jìn)行采集,可以反映出采樣點(diǎn)的振動(dòng)信號(hào)隨著時(shí)間的推移而逐步變化,當(dāng)采樣點(diǎn)的故障狀態(tài)和頻率不同時(shí),在這種模式下其相應(yīng)的振動(dòng)信號(hào)數(shù)據(jù)也會(huì)隨之變化,數(shù)據(jù)之間的差異反映了這一點(diǎn)(徐昊天,王麗萍,2020)。盡管本研究已取得一些初步成果,但要對(duì)所有結(jié)論進(jìn)行全面且細(xì)致的核實(shí),還需更長(zhǎng)時(shí)間的跟蹤研究和反復(fù)實(shí)驗(yàn)。因?yàn)樵摂?shù)據(jù)集的時(shí)間序列性,充分滿(mǎn)足了循環(huán)神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練學(xué)習(xí),所以選用該數(shù)據(jù)集進(jìn)行訓(xùn)練驗(yàn)證測(cè)試。表4.2軸承數(shù)據(jù)種類(lèi)示意圖分類(lèi)識(shí)別選擇的十種軸承狀態(tài)軸承正常軸承外圈+故障直徑0.007英寸軸承外圈+故障直徑0.014英寸軸承外圈+故障直徑0.021英寸軸承滾動(dòng)體+故障直徑0.007英寸軸承滾動(dòng)體+故障直徑0.014英寸軸承滾動(dòng)體+故障直徑0.021英寸軸承滾動(dòng)體+故障直徑0.007英寸軸承滾動(dòng)體+故障直徑0.014英寸軸承滾動(dòng)體+故障直徑0.021英寸在這等環(huán)境下利用MATLAB訪(fǎng)問(wèn)文件內(nèi)容可以發(fā)現(xiàn),該數(shù)據(jù)集的時(shí)間故障序列數(shù)據(jù)中每個(gè)都有122571個(gè)故障數(shù)據(jù),而為了方便模型的訓(xùn)練學(xué)習(xí)要將數(shù)據(jù)處理為向量矩陣,因此從每個(gè)數(shù)據(jù)集中選用120000個(gè)相同時(shí)間點(diǎn)所采集的數(shù)據(jù),并對(duì)其進(jìn)行歸一化處理。首先將每種故障類(lèi)型的120000個(gè)數(shù)據(jù)分為300個(gè)樣本,在這種場(chǎng)景中并將每個(gè)樣本中的400個(gè)數(shù)據(jù)排列由最初的[400,1]處理成[20,20]的矩陣形式,并將樣本集和矩陣內(nèi)部數(shù)據(jù)進(jìn)行打亂重新排列,最后按9:1將子圖片集分為270個(gè)訓(xùn)練集和30個(gè)測(cè)試集(郭鵬飛,劉靜雅,2022)在數(shù)據(jù)代碼調(diào)用過(guò)程中,本文利用scipy函數(shù)庫(kù)來(lái)對(duì)mat格式的數(shù)據(jù)文件進(jìn)行讀取,B是指驅(qū)動(dòng)端滾動(dòng)體故障,IR是指驅(qū)動(dòng)端內(nèi)圈故障,021是指軸承直徑為21。數(shù)據(jù)處理代碼見(jiàn)附錄1。4.4改進(jìn)循環(huán)神經(jīng)網(wǎng)絡(luò)軸承故障診斷應(yīng)用研究4.4.1已有循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試使用循環(huán)神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)對(duì)之前已經(jīng)處理完畢的CWRU軸承故障數(shù)據(jù)集的驅(qū)動(dòng)端采樣數(shù)據(jù)進(jìn)行故障診斷及分類(lèi),從這些反饋中感知到其中訓(xùn)練集和測(cè)試集按9:1分為108000個(gè)和12000個(gè),而目前已有的涉及到門(mén)結(jié)構(gòu)的循環(huán)神經(jīng)網(wǎng)絡(luò)模型有LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)和GRU循環(huán)神經(jīng)網(wǎng)絡(luò)??蚣苣P偷囊粋€(gè)關(guān)鍵特點(diǎn)是它具備出色的靈活性和擴(kuò)展性??紤]到研究環(huán)境和目標(biāo)的多樣性,本文在設(shè)計(jì)時(shí)強(qiáng)調(diào)了各組件的模塊化,讓使用者可以根據(jù)需要靈活地對(duì)某些部分進(jìn)行調(diào)整或替代,而不影響整體架構(gòu)的穩(wěn)健性和效率??紤]到實(shí)驗(yàn)電腦的性能以及訓(xùn)練時(shí)間長(zhǎng)度,每次實(shí)驗(yàn)讓構(gòu)建好的循環(huán)神經(jīng)網(wǎng)絡(luò)模型利用軸承故障訓(xùn)練集進(jìn)行3000次訓(xùn)練,在此特定狀態(tài)下事情的發(fā)展顯而易見(jiàn)每進(jìn)行500次訓(xùn)練,利用測(cè)試集對(duì)訓(xùn)練完成的各種循環(huán)神經(jīng)網(wǎng)絡(luò)模型開(kāi)展驗(yàn)證測(cè)試,輸出相應(yīng)的損失函數(shù)值和測(cè)試準(zhǔn)確率(彭志華,王雪梅,2021)。(1)LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)首先利用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)處理好的軸承故障數(shù)據(jù)集進(jìn)行故障診斷,下表是每進(jìn)行500次訓(xùn)練,利用測(cè)試集驗(yàn)證后輸出的損失函數(shù)值及測(cè)試準(zhǔn)確率。表4.3LSTM故障診斷分類(lèi)結(jié)果表訓(xùn)練次數(shù)損失函數(shù)值測(cè)試準(zhǔn)確率5001.43120.079910001.22110.400115001.18830.430020001.13090.479925001.20690.569930001.29270.6000圖4.5LSTM損失函數(shù)值變化圖圖4.6LSTM測(cè)試準(zhǔn)確率變化圖分析上述圖標(biāo)可以得出,利用LSTM進(jìn)行故障診斷分類(lèi)的損失函數(shù)值約為1.2,測(cè)試準(zhǔn)確率約為0.60。同時(shí)可以明顯看出,在前1500步訓(xùn)練中,模型的訓(xùn)練效果不佳,致使測(cè)試效果并不理想,這清楚地揭示了真相但隨著訓(xùn)練的繼續(xù)進(jìn)行,測(cè)試準(zhǔn)確率總體呈現(xiàn)隨之上升的趨勢(shì),最后保持在0.6的準(zhǔn)確率,而函數(shù)損失值一直維持在1.2左右水平(孫梓萱,高宇翔,2022)。通過(guò)深入分析研究對(duì)象的內(nèi)在結(jié)構(gòu)和運(yùn)作機(jī)制,本研究不僅吸收了章教授提出的多層次、多角度審視問(wèn)題的方法論,還進(jìn)一步將這些理念應(yīng)用于具體實(shí)踐中以確保研究結(jié)果的全面性和準(zhǔn)確性。(2)GRU循環(huán)神經(jīng)網(wǎng)絡(luò)接著利用GRU循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)處理好的軸承故障數(shù)據(jù)集進(jìn)行故障診斷,下表是每進(jìn)行500次訓(xùn)練,利用測(cè)試集驗(yàn)證后輸出的損失函數(shù)值及測(cè)試準(zhǔn)確率。表4.4Tanh故障診斷分類(lèi)結(jié)果表訓(xùn)練次數(shù)損失函數(shù)值測(cè)試準(zhǔn)確率5001.70120.059910001.43330.270015001.42540.340020001.46140.379925001.49550.389930001.46990.4099圖4.7GRU損失函數(shù)值變化圖圖4.8GRU測(cè)試準(zhǔn)確率變化圖從上圖可以看出,雖然GRU的準(zhǔn)確度總體隨著神經(jīng)網(wǎng)絡(luò)訓(xùn)練的進(jìn)行,在不斷平穩(wěn)上升,但最終只有僅僅0.4的測(cè)試準(zhǔn)確率,同時(shí)函數(shù)損失值平均維持在1.5,也略微高于LSTM神經(jīng)網(wǎng)絡(luò)。從這些對(duì)話(huà)中看出因此可以得出,GRU對(duì)門(mén)結(jié)構(gòu)的調(diào)整減少了信息處理,雖然加快了收斂學(xué)習(xí)速度,但不適合循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)軸承故障進(jìn)行診斷分類(lèi)(鄧宇晴,羅振東,2022)。該結(jié)果與本文最初預(yù)計(jì)的研究成果一致,表明了研究方向的準(zhǔn)確性。這種一致性說(shuō)明了本文在研究設(shè)計(jì)初期設(shè)定的目標(biāo)和假設(shè)是基于堅(jiān)實(shí)的理論基礎(chǔ)。對(duì)比兩種神經(jīng)網(wǎng)絡(luò),可以明顯看出LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)軸承故障診斷分類(lèi)的訓(xùn)練效果更好,在3000步的時(shí)候網(wǎng)絡(luò)測(cè)試準(zhǔn)確度已經(jīng)達(dá)到0.6且仍保持上升趨勢(shì),因此可以推斷隨著訓(xùn)練的繼續(xù)進(jìn)行,最終能達(dá)到0.7的測(cè)試準(zhǔn)確度。同時(shí)可以發(fā)現(xiàn),隨著訓(xùn)練的進(jìn)行,從這些信息中可以看出每種網(wǎng)絡(luò)的故障診斷準(zhǔn)確度都呈現(xiàn)上升趨勢(shì),而函數(shù)損失值則在一定范圍內(nèi)不斷波動(dòng),可以看出訓(xùn)練過(guò)程中或多或少會(huì)產(chǎn)生一些不可避免的擾動(dòng)(蔡紫薇,馬騰飛,2023)。4.4.2改進(jìn)LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練和測(cè)試改進(jìn)的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)模型是在LSTM的模型結(jié)構(gòu)上進(jìn)行調(diào)整,改進(jìn)了LSTM前的額外門(mén)控循環(huán),并將門(mén)控運(yùn)算中的Sigmoid函數(shù)調(diào)整為tanh函數(shù),使額外門(mén)控運(yùn)算能更好的的處理軸承故障數(shù)據(jù),減少梯度爆炸現(xiàn)象產(chǎn)生。下表是該模型測(cè)試的損失函數(shù)值和準(zhǔn)確度(徐博文,王欣怡,2022)。表4.6改進(jìn)后LSTM故障診斷分類(lèi)結(jié)果表訓(xùn)練次數(shù)損失函數(shù)值測(cè)試準(zhǔn)確率5001.44480.469910001.18610.759915001.27960.759920001.45470.769925001.56960.769930001.48710.7699圖4.9改進(jìn)后LSTM損失函數(shù)值變化圖圖4.10改進(jìn)后LSTM測(cè)試準(zhǔn)確率變化圖4.5不同循環(huán)神經(jīng)網(wǎng)絡(luò)故障診斷效果對(duì)比分析隨著循環(huán)神經(jīng)網(wǎng)絡(luò)的發(fā)展,已經(jīng)能較好地應(yīng)用在軸承故障數(shù)據(jù)診斷分類(lèi)領(lǐng)域中,循環(huán)神經(jīng)網(wǎng)絡(luò)中的隱藏層是互相有連接的,這明顯地揭示了意圖致使前后輸出相關(guān)聯(lián),并且存在共享特性。同時(shí),由于循環(huán)神經(jīng)網(wǎng)絡(luò)特殊的時(shí)間結(jié)構(gòu)共享性,因此在對(duì)擁有長(zhǎng)時(shí)間序列性的數(shù)據(jù)進(jìn)行處理時(shí),使得神經(jīng)網(wǎng)絡(luò)能更加自由且動(dòng)態(tài)地獲取輸出信息,因此在對(duì)擁有時(shí)間序列的軸承故障數(shù)據(jù)進(jìn)行診斷分類(lèi)時(shí),運(yùn)用循環(huán)神經(jīng)網(wǎng)絡(luò)具有很大的優(yōu)勢(shì)。因此,本文能夠更快捷地準(zhǔn)備好用于分析的數(shù)據(jù)集合,同時(shí)降低了由于復(fù)雜步驟導(dǎo)致的錯(cuò)誤發(fā)生概率。綜合函數(shù)損失值和準(zhǔn)確度,對(duì)上述不同循環(huán)神經(jīng)網(wǎng)絡(luò)模型的故障診斷分類(lèi)效果進(jìn)行考慮分析,如圖4.11所示,LSTM、GRU和改進(jìn)的LSTM三者的函數(shù)損失值,都相差無(wú)幾。LSTM和GRU的函數(shù)損失值基本穩(wěn)定在一定范圍內(nèi)上下波動(dòng),而改進(jìn)后的LSTM由于添加了改進(jìn)的額外門(mén)控運(yùn)算后,在此可以看出致使輸入經(jīng)過(guò)一定的運(yùn)算致使輸入的信息有些許損失,最終造成函數(shù)損失的波動(dòng)范圍較大(林曉東,趙瑤慧,2021)。圖4.11不同循環(huán)神經(jīng)網(wǎng)絡(luò)函數(shù)損失值比較圖圖4.12不同循環(huán)神經(jīng)網(wǎng)絡(luò)測(cè)試準(zhǔn)確率比較圖對(duì)比LSTM和GRU的準(zhǔn)確度可以看出,GRU將更新門(mén)和遺忘門(mén)結(jié)合在一起,減少了參數(shù)量,從而減少了過(guò)擬合的風(fēng)險(xiǎn),從圖中可以看出GRU的準(zhǔn)確度增長(zhǎng)較為穩(wěn)定,程平滑的曲線(xiàn)緩慢上升,這在一定范圍內(nèi)體現(xiàn)了但也正是因?yàn)闇p少了參數(shù),從而導(dǎo)致特征采集不充分致使GRU的故障診斷分類(lèi)準(zhǔn)確率較低。而相比之下,LSTM雖然曲線(xiàn)上身比較波動(dòng),但是卻擁有較高的準(zhǔn)確率,且提升訓(xùn)練收斂速率要遠(yuǎn)遠(yuǎn)快于GRU。從整個(gè)測(cè)試實(shí)驗(yàn)結(jié)果來(lái)看,在改進(jìn)額外門(mén)控運(yùn)算后LSTM對(duì)故障診斷分類(lèi)的準(zhǔn)確度相比于LSTM和GRU循環(huán)神經(jīng)網(wǎng)絡(luò)有了極大的提升。利用現(xiàn)有的理論框架對(duì)一些理論成果進(jìn)行了驗(yàn)證,結(jié)果顯示出這些理論不僅在概念層面上有強(qiáng)解釋力,在實(shí)際應(yīng)用中也表現(xiàn)出良好的適應(yīng)性和有效性。改進(jìn)的額外門(mén)控運(yùn)算的目的是為了顯著地加強(qiáng)上下文的信息關(guān)聯(lián),這也是原始的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)模型所存在的問(wèn)題,因?yàn)樯舷挛男畔⒌娜鄙?,這在某種程度上暗示了導(dǎo)致LSTM無(wú)法對(duì)有效特征進(jìn)行很好地訓(xùn)練學(xué)習(xí),而額外門(mén)控運(yùn)算在很大程度上降低了分類(lèi)的難度,從而加快了模型的學(xué)習(xí)速度及收斂速度,不僅能在短時(shí)間達(dá)到較高準(zhǔn)確度,且具有較好的魯棒性(高雨晨,蘇逸凡,2020)。在本文研究中,由于采用的數(shù)據(jù)是具有時(shí)間序列性的軸承故障數(shù)據(jù)集,因此,循環(huán)神經(jīng)網(wǎng)絡(luò)在對(duì)其進(jìn)行故障診斷分析時(shí)具有更大的優(yōu)勢(shì),同時(shí),改進(jìn)的額外門(mén)控運(yùn)算LSTM網(wǎng)絡(luò),對(duì)輸入進(jìn)行了一定的提取壓縮處理,這在一部分程度上揭示了對(duì)準(zhǔn)確度和收斂速度的提高起了至關(guān)重要的作用。因此在對(duì)時(shí)序軸承故障數(shù)據(jù)進(jìn)行診斷分類(lèi)時(shí),改進(jìn)的門(mén)控額外運(yùn)算LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)模型會(huì)有著極其顯著的效果。結(jié)論與展望本文以循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷研究問(wèn)題為方向,深入研究了循環(huán)神經(jīng)網(wǎng)絡(luò)的重要改進(jìn)方法即門(mén)結(jié)構(gòu)的引入,并基于前人的想法由此對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行門(mén)結(jié)構(gòu)改進(jìn)。在對(duì)網(wǎng)絡(luò)模型進(jìn)行改進(jìn)后,基于改進(jìn)的網(wǎng)絡(luò)模型對(duì)軸承故障數(shù)據(jù)進(jìn)行診斷分類(lèi)技術(shù)研究,并分析對(duì)比了原有循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM和GRU網(wǎng)絡(luò)與改進(jìn)后的LSTM網(wǎng)絡(luò)的故障診斷分類(lèi)效果,為循環(huán)神經(jīng)網(wǎng)絡(luò)在故障診斷領(lǐng)域中的應(yīng)用提供了新的思路。本文具體有以下幾點(diǎn)研究成果:(1)面對(duì)日益復(fù)雜的工業(yè)設(shè)備,傳統(tǒng)技術(shù)無(wú)法高效獲取并處理故障信息,故障診斷的精確度無(wú)法在滿(mǎn)足日益發(fā)展的工業(yè),這在一定程度上預(yù)示針對(duì)這些問(wèn)題,本文通過(guò)循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)故障數(shù)據(jù)進(jìn)行診斷與分類(lèi),并通過(guò)CWRU軸承故障數(shù)據(jù)集來(lái)進(jìn)行測(cè)試故障診斷的實(shí)際應(yīng)用效果。(2)通過(guò)對(duì)深度學(xué)習(xí)的了解,查閱大量文獻(xiàn)后,根據(jù)門(mén)結(jié)構(gòu)對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)的改進(jìn),提出在LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)中改進(jìn)其外部的額外門(mén)控循環(huán),彌補(bǔ)精確度較低的不足,并利用MINST數(shù)據(jù)集進(jìn)行改進(jìn)有效性驗(yàn)證。(3)通過(guò)搭建好的各種循環(huán)神經(jīng)網(wǎng)絡(luò)模型對(duì)軸承數(shù)據(jù)的9種故障狀態(tài)數(shù)據(jù)進(jìn)行診斷及分類(lèi),并通過(guò)函數(shù)損失值和測(cè)試準(zhǔn)確度兩個(gè)判斷指標(biāo)對(duì)比各種循環(huán)神經(jīng)網(wǎng)絡(luò)在故障診斷領(lǐng)域之中的應(yīng)用效果,并對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)在故障領(lǐng)域中的應(yīng)用提出建議。在現(xiàn)代工業(yè)系統(tǒng)可靠性與安全性中,深度學(xué)習(xí)已經(jīng)成為了未來(lái)發(fā)展研究的主流,并且在故障診斷領(lǐng)域取得了大量成果。正如本文所述,循環(huán)神經(jīng)網(wǎng)絡(luò)在故障診斷的應(yīng)用上有極大的優(yōu)勢(shì),但同時(shí)也仍然面領(lǐng)著許多問(wèn)題,這在某種意義上表明了精確度的提高以及函數(shù)損失值的降低仍然是重中之重。本文的研究?jī)?nèi)容因?yàn)闀r(shí)間有限也還存在不足之處,后續(xù)的研究可以從以下三個(gè)方面開(kāi)展:(1)在故障診斷領(lǐng)域中,擁有時(shí)間序列的數(shù)據(jù)仍然很少,因此需要對(duì)數(shù)據(jù)進(jìn)行獲取,在故障數(shù)據(jù)采集中引入時(shí)間序列,以此利于循環(huán)神經(jīng)網(wǎng)絡(luò)在故障診斷領(lǐng)域中的發(fā)展。(2)GRU循環(huán)神經(jīng)網(wǎng)絡(luò)在故障領(lǐng)域中的學(xué)習(xí)能力較弱,可以利用改進(jìn)LSTM的方法在GRU神經(jīng)網(wǎng)絡(luò)模型中引入額外門(mén)控運(yùn)算,提高GRU的訓(xùn)練學(xué)習(xí)能力和收斂速度。(3)使用更多種類(lèi)的故障診斷數(shù)據(jù)集來(lái)對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,從而提高神經(jīng)網(wǎng)絡(luò)模型的泛化能力,使改進(jìn)后的循環(huán)神經(jīng)網(wǎng)絡(luò)模型可以在故障診斷領(lǐng)域中通用。參考文獻(xiàn)[1]蔣強(qiáng),沈林,張偉,何旭.基于深度學(xué)習(xí)的故障診斷方法研究[J].計(jì)算機(jī)仿真,2018,7(1):409-413.[2]李華東,王志宏.基于深度學(xué)習(xí)在故障診斷方法綜述[J].電子與信息學(xué)報(bào),2020,42(1):234-248.[3]張文博,劉玉婷.基于深度學(xué)習(xí)的故障診斷技術(shù)研究[D].哈爾濱工業(yè)大學(xué),2018.[4]LecunY,BengioY,HintonG.Deeplearning[J].Nature,2015,521(7553):436-444.[5]陳凱琳,王俊杰.基于深度學(xué)習(xí)的故障診斷方法研究綜述[J].電子測(cè)試,2020,(18):43-47.[6]林曉東,趙瑤慧.深度學(xué)習(xí)在故障診斷中的研究綜述[J].新型工業(yè)化,2017,7(4):45-48.[7]高雨晨,蘇逸凡.基于改進(jìn)堆疊式循環(huán)神經(jīng)網(wǎng)絡(luò)的軸承故障診斷[J].同濟(jì)大學(xué)學(xué)報(bào),2019,47(10)1500-1507.[8]孫佳怡,胡建國(guó).卷積神經(jīng)網(wǎng)絡(luò)多變量過(guò)程特征學(xué)習(xí)與故障診斷[J].哈爾濱工業(yè)大學(xué)學(xué)報(bào),2020,52(7):59-67.[9]楊昊宇,許心怡.基于深度置信網(wǎng)絡(luò)的煉化空壓機(jī)故障診斷方法[J].化工學(xué)報(bào),201970(2):757-763.[10]鄭瑞宇,陳思思基于棧式自編碼器的變壓器機(jī)械故障診斷[J].高壓電器,2020,56(9):46-53,59.[11]趙子銘,孫天宇.棧式降噪自編碼網(wǎng)絡(luò)在變壓器故障診斷中的應(yīng)用[J].電測(cè)與儀表,2018,55(17):62-67.[12]李梓萱,高宇翔.基于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的盾構(gòu)機(jī)故障預(yù)測(cè)系統(tǒng)設(shè)計(jì)[J].現(xiàn)代機(jī)械,2018,(5):35-40.[13]王澤洋,朱玉潔.ConvolutionalNeuralNetwork-AidedTree-BasedBit-FlippingFrameworkforPolarDecoderUsingImitationLearning[J].I(高雨晨,蘇逸凡,2020)TransactionsonSignalProcessingI(高雨晨,蘇逸凡,2020)Trans.SignalProcess.SignalProcessing,I(高雨晨,蘇逸凡,2020)Transactionson.69:300-313202.[14]張宇和,劉丹萱g.Arecurrentneuralnetworkbasedhealthindicatorforremainingusefullifepredictionofbearings[J].Neurocomputing,2017,240:98-109.[15]JingweiQiu,WeiLiang,LaibinZhang,etal.Theearly-warningmodelofequipmentchainingaspipelinebasedonDNN-HMM[J].JofNaturalGasScienceandEngineering,2015,27:1710-1722.[16]LiaoK,ZhaoY,GuJ,ZhangY,ZhongY.SequentialConvolutionalRecurrentNeuralNetworksforFastAutomaticModulationClassification[J].I(高雨晨,蘇逸凡,2020)AccessAccess,I(高雨晨,蘇逸凡,2020).9:27182-271882021[17]黃志杰,李芷萱基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承智能故障診斷研究[J].振動(dòng)工程學(xué)報(bào),2020,33(2):400-413.[18]田雪婷,吳俊宇.基于深度學(xué)習(xí)的軸承故障診斷研究[D].內(nèi)蒙古科技大學(xué),2020.[19]呂思遠(yuǎn),蔡佳琪.基于循環(huán)神經(jīng)網(wǎng)絡(luò)和蝙蝠算法的變壓器故障診斷[J].電工技術(shù),2018,(20):38-41[20]QinN,LiangK,HuangD,MaL,KempA.H.MultipleConvolutionalRecurrentNeuralNetworksforFaultIdentificationandPerformanceDegradationEvaluationofHigh-SpeedTrainBogie[J].I(高雨晨,蘇逸凡,2020)TransactionsonNeuralNetworksandLearning高澤林,周馨兒temsI(高雨晨,蘇逸凡,2020)Trans.NeuralNetw.Learning高澤林,周馨兒t.NeuralNetworksandLearning高澤林,周馨兒tems,I(高雨晨,蘇逸凡,2020)Transactionson.31(12):5363-5376Dec,2020.[21]ZhangC,LimP,QinAK,etal.Multiobjectivedeepbeliefnetworksensembleforremainingusefullifeestimationinprognostics[J].I(高雨晨,蘇逸凡,2020)TransactionsonNeuralNetworksandLearning高澤林,周馨兒tems,2016,28(10):2306-2318.[22]TalebiHA,KhorasaniK,TafazoliS,etal.Arecurrentneural-network-basedsensorandactuatorfaultdetectionandisolationfornonlinear高澤林,周馨兒temswithapplicationtothesatellite’sattitudecontrolsub高澤林,周馨兒tem[J].I(高雨晨,蘇逸凡,2020)TransonNeuralNetwork,2009,20(1):45-60.[23]陳小林,楊詩(shī)慧.基于改進(jìn)EEMD的卷積神經(jīng)網(wǎng)絡(luò)滾動(dòng)軸承故障診斷[J].重慶大學(xué)學(xué)報(bào),2020,43(1):82-89.[24]NasserTalebi,MohammadAliSadrnia,AhmadDarabi.Robustfaultdetectionofwingenergyconversion高澤林,周馨兒temsbasedondynamicneu

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論