基于LSTM模型的股票預(yù)測研究_第1頁
基于LSTM模型的股票預(yù)測研究_第2頁
基于LSTM模型的股票預(yù)測研究_第3頁
基于LSTM模型的股票預(yù)測研究_第4頁
基于LSTM模型的股票預(yù)測研究_第5頁
已閱讀5頁,還剩24頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

XXVI第1章引言1.1研究背景與研究意義1.1.1研究背景(1)國內(nèi)外現(xiàn)狀近年來,國際上逐漸有研究發(fā)現(xiàn)長短期記憶網(wǎng)絡(luò)LSTM模型在股票市場預(yù)測方面具有良好的表現(xiàn)(Chen,Nelson,F(xiàn)ischer和Krauss,Kim和Won)。國內(nèi)也有許多學(xué)者對此有了很多新的發(fā)現(xiàn),LSTM模型的股票預(yù)測在國內(nèi)掀起了一股研究熱風(fēng)。楊青和王晨蔚將LSTM模型與其他幾個模型進(jìn)行對比,發(fā)現(xiàn)其在股票預(yù)測研究中更具有準(zhǔn)確性和穩(wěn)定性,我們可以看出,LSTM模型在股票預(yù)測研究中占據(jù)重要的地位。此外,唐曉彬等學(xué)者還構(gòu)建了一種LSTM&US預(yù)測模型,該模型表現(xiàn)出色,進(jìn)一步豐富了機(jī)器學(xué)習(xí)方法在宏觀經(jīng)濟(jì)指標(biāo)預(yù)測領(lǐng)域的理論研究。歐陽紅兵等則以道瓊斯工業(yè)指數(shù)為例進(jìn)行實證研究,結(jié)果表明LSTM神經(jīng)網(wǎng)絡(luò)在預(yù)測金融時間序列數(shù)據(jù)方面具有較高的精度,能夠有效地捕捉其長短期動態(tài)變化趨勢,這進(jìn)一步證明了LSTM神經(jīng)網(wǎng)絡(luò)在金融時間序列數(shù)據(jù)預(yù)測中的適用性和有效性。國內(nèi)外把人工智能的研究和發(fā)展一直放在前列,不斷有新的發(fā)展方向被提出來,人工智能已經(jīng)被大量的應(yīng)用在金融領(lǐng)域,而現(xiàn)在所面臨的問題依舊有很多。首先是數(shù)據(jù)的問題,由于現(xiàn)在的技術(shù)不夠完備,所以充斥著大量的不完整數(shù)據(jù),市場的隨時變動也在給數(shù)據(jù)的處理帶來巨大的挑戰(zhàn),隨著經(jīng)濟(jì)體越來越大,數(shù)據(jù)的獲取難度就越來越大。其次是模型適應(yīng)的問題,市場干擾因素太多,模型需要不斷的優(yōu)化和調(diào)整。此外,市場的預(yù)測不全是合理性,也存在一些人類情緒和認(rèn)知的影響,這些因素給數(shù)據(jù)分析帶來了巨大的困擾。(2)發(fā)展趨勢在人工智能的發(fā)展過程中,我們現(xiàn)在對深度學(xué)習(xí)的學(xué)習(xí)和應(yīng)用已經(jīng)有了一定的進(jìn)展,我們應(yīng)當(dāng)進(jìn)一步去探索人工智能未來的發(fā)展。人工智能發(fā)展的方向應(yīng)該是全方面的,它應(yīng)該包含以下幾個方面,知識驅(qū)動、類腦思維、可解釋人工智能。知識驅(qū)動實際上是為人工智能建立專門的知識庫,提高人工智能的邏輯推理能力和決策能力,包含各個領(lǐng)域的問題,通過讓人工智能學(xué)習(xí)知識庫,保證了人工智能在遇到問題時能夠有效的解決。深度學(xué)習(xí)有待于挖掘和探索,數(shù)據(jù)驅(qū)動不能讓人工智能在圖片識別過程中具有推理能力,所以數(shù)據(jù)驅(qū)動和知識驅(qū)動的結(jié)合必定是未來的發(fā)展趨勢。盡管現(xiàn)在的人工智能技術(shù)能夠模仿人類的行為,和人下圍棋,與人溝通,自行取送餐,甚至玩電子游戲,可是這些技術(shù)仍舊是信息處理,并不能與人類的大腦一樣自主學(xué)習(xí)和自主思考。人類腦的思維并不是機(jī)械固化的,而是帶有自主意識的,我們現(xiàn)在所實現(xiàn)的人工智能盡管有很多方面取得了很多的突破,但是如果想要真正實現(xiàn)類腦智能還有很長的一段路要走?,F(xiàn)如今可解釋人工智能的發(fā)展和研究在人工智能領(lǐng)域的重要程度越來越高,而可解釋人工智能在建立的模型和復(fù)雜算法中缺乏透明度,不能對處理過的數(shù)據(jù)有足夠的解釋,但是對于金融領(lǐng)域或其他領(lǐng)域的應(yīng)用,數(shù)據(jù)的準(zhǔn)確性至關(guān)重要。1.1.2研究意義(1)現(xiàn)實意義股票市場作為國內(nèi)重大的投資市場,從開始到如今一直都吸引著投資者們的目光。然而,股票價格波動的影響因素是極其不穩(wěn)定的,所以分析股票的影響因素就成為了許多金融領(lǐng)域?qū)W者的研究課題。人們以前學(xué)習(xí)如何去選擇股票需要4到6年才能成為一個專業(yè)的股票交易員,而人工智能只需要幾分鐘的時間就能夠預(yù)測股票并且具有一定的準(zhǔn)確性,大大降低了人們的時間成本以及投資風(fēng)險所以對于運用人工智能技術(shù)對股票的預(yù)測是具有重大意義的。(2)理論意義本研究將選取港股中十只非常具有影響力的股票來驗證LSTM模型在股票預(yù)測研究中的準(zhǔn)確性和可靠性。這次研究將進(jìn)一步證明運用LSTM模型捕捉時間序列的長期依賴關(guān)系所解決了梯度消失或爆炸問題。LSTM模型的股票預(yù)測研究將進(jìn)一步推動深度學(xué)習(xí)在金融領(lǐng)域的應(yīng)用和發(fā)展,我們希望將利用人工智能技術(shù)在金融領(lǐng)域開疆?dāng)U土,科技改變世界這句話絕不是憑空出現(xiàn),這需要我們每一代人去推動金融科技的前進(jìn)和發(fā)展,科技與金融相輔相成,共同為國家經(jīng)濟(jì)的發(fā)展做出貢獻(xiàn)。股票價格預(yù)測從股票誕生的那一刻開始就有無數(shù)的投資者想要提前掌握更多的信息來獲取巨大的意義,所以股票價格預(yù)測是一個所有投資者都看重的問題,如今信息是無價的,所以在獲得信息這條道路上肯定是困難且富有挑戰(zhàn)性的。此研究具有一定的學(xué)術(shù)價值,對投資理論進(jìn)行了豐富和完善,為后續(xù)的股票預(yù)測研究提供了新的思路和想法。1.2文獻(xiàn)綜述本文研究參考了近幾年利用LSTM模型對股票預(yù)測研究的中外文獻(xiàn),其都解釋了LSTM模型的優(yōu)點,即有效處理序列數(shù)據(jù)的長期依賴問題和避免梯度消失或爆炸問題,并且被廣泛的應(yīng)用在各種股票預(yù)測研究中。例如,Bao等人(2017)在綜述文章中詳細(xì)分析了深度學(xué)習(xí)在股票市場預(yù)測中的應(yīng)用,并提出了一種基于堆疊自編碼器和LSTM的金融時間序列深度學(xué)習(xí)框架,用于股票價格預(yù)測,取得了良好的預(yù)測效果。Fischer和Krauss(2018)利用LSTM網(wǎng)絡(luò)對股票市場進(jìn)行了預(yù)測,證明了LSTM模型在股票市場應(yīng)用的巨大優(yōu)勢。在中國也有一些學(xué)者研究了LSTM模型與其他方法結(jié)合用于股票預(yù)測的研究。例如,李麗萍等人(2023)基于LSTM神經(jīng)網(wǎng)絡(luò)構(gòu)建了股票價格預(yù)測模型,并與BP和Elman神經(jīng)網(wǎng)絡(luò)進(jìn)行了對比,結(jié)果顯示LSTM模型在預(yù)測精度上具有顯著優(yōu)勢。楊青和王晨蔚(2019)則結(jié)合深度學(xué)習(xí)LSTM神經(jīng)網(wǎng)絡(luò)對全球股票指數(shù)進(jìn)行了預(yù)測研究,并且與SVR、MLP兩種非線性模型和ARIMA一種線性模型進(jìn)行了對比,進(jìn)一步驗證了LSTM模型在股票價格預(yù)測中的有效性。除了對LSTM神經(jīng)網(wǎng)絡(luò)在股票價格預(yù)測中的應(yīng)用進(jìn)行研究外,一些學(xué)者還關(guān)注了與其他機(jī)器學(xué)習(xí)算法的結(jié)合。唐曉彬等構(gòu)建了一種LSTM和US預(yù)測模型,具有較高性能,豐富了機(jī)器學(xué)習(xí)方法在宏觀經(jīng)濟(jì)指標(biāo)預(yù)測領(lǐng)域的理論研究。張琳(2023)從人工智能的角度出發(fā),選取了上證50指數(shù)的8只股票探討了中國股票價格的預(yù)測與異質(zhì)性,為后續(xù)的深入研究提供了理論框架。馬敏(2023)則進(jìn)一步討論了人工智能的發(fā)展及應(yīng)用,強(qiáng)調(diào)了深度學(xué)習(xí)在股票價格預(yù)測中的潛力。1.3研究內(nèi)容與研究目的1.3.1研究內(nèi)容本文將基于深度學(xué)習(xí)LSTM神經(jīng)網(wǎng)絡(luò)架構(gòu)來預(yù)測股票,將選取10個港股中非常具有價值和影響力的個股來進(jìn)行研究,分別是阿里巴巴、騰訊控股、長城汽車、李寧、BC科技集團(tuán)、青島啤酒、中國電信、中國海洋石油、周大福、華潤電力,然后詳細(xì)描述了模型的構(gòu)建過程、特征選擇、模型訓(xùn)練和參數(shù)調(diào)優(yōu)等方面。接著,利用實際股票市場的歷史數(shù)據(jù)對LSTM模型進(jìn)行了實證分析。對于LSTM模型如何預(yù)測股票的價格,本文利用了其能夠很好地學(xué)習(xí)長時間序列依賴關(guān)系的能力,并且將日期、股票收盤價作為指標(biāo)代表納入研究。1.3.2研究目的本文研究目的將利用在港股所選取的10只具有影響力的股票進(jìn)一步論證LSTM模型對股票研究的準(zhǔn)確性和可靠性。具體來說,研究目的包括以下幾個方面:(1)分析股票預(yù)測的準(zhǔn)確度,驗證LSTM模型在股票市場處理從2023年1月1日至今的長時間序列收盤價是否能夠有效地預(yù)測股票未來的收盤價。(2)分析LSTM模型的預(yù)測效率,與其他模型不同的是,LSTM模型通過三個門處理長時間序列數(shù)據(jù),而三個門中有很多個cell,每個cell中又有4個全連接層,如此就造成了計算空間和時間復(fù)雜度增大,那么我們所研究的就是預(yù)測2023年1月1日至今的股票收盤價所耗費的時間是多少。(3)分析不同的股票之間的預(yù)測精確度,本文選擇了10只股票用來分析相互之間的股票預(yù)測精確度,有多大的差距,預(yù)測精確度差異在哪里。1.4研究思路與研究方法1.4.1研究思路首先,本文通過查閱大量的參考文獻(xiàn)和理論知識研究LSTM模型的現(xiàn)實和理論意義以及產(chǎn)生的背景并且對LSTM模型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖進(jìn)行了研究,了解了LSTM模型的原理和結(jié)構(gòu)。隨后,通過LSTM模型的原理去設(shè)計模型,在設(shè)計模型時需要提前收集數(shù)據(jù)并對數(shù)據(jù)做一個預(yù)處理,這些數(shù)據(jù)需要進(jìn)行清洗和預(yù)處理,以消除噪聲和異常值,并轉(zhuǎn)化為適合LSTM模型處理的時間序列數(shù)據(jù)。從預(yù)處理后的數(shù)據(jù)中提取出對股票預(yù)測有價值的特征。通過精心選擇,本文選擇了股票的收盤價和設(shè)計其特征。接下來,需要分割訓(xùn)練集和測試集,并將數(shù)據(jù)放在兩個列表里。最后,本文開始模型的構(gòu)建和訓(xùn)練并對LSTM模型進(jìn)行性能評估和驗證。構(gòu)建LSTM模型需要將數(shù)據(jù)NumPy數(shù)組轉(zhuǎn)換為PyTorch張量,設(shè)置輸入維度、隱藏層維度、層數(shù)、輸出維度、訓(xùn)練輪數(shù)5個維度。本文按照訓(xùn)練集的百分比隨機(jī)選取歷史數(shù)據(jù)的樣本,對LSTM模型進(jìn)行訓(xùn)練,通過調(diào)整模型的參數(shù)來預(yù)測LSTM模型的性能。本文對訓(xùn)練好的LSTM模型進(jìn)行性能評估,包括計算預(yù)測的準(zhǔn)確率等指標(biāo)。同時,使用獨立的測試數(shù)據(jù)集對模型進(jìn)行驗證,以確保模型的泛化能力。1.4.2研究方法本文通過文獻(xiàn)研究法搜集、閱讀和分析關(guān)于LSTM模型預(yù)測股票價格的研究的文獻(xiàn)資料,了解到了中外各研究領(lǐng)域?qū)W者的研究成果和結(jié)論,這不僅會開拓我的思路,還會為我提供更多的研究經(jīng)驗。本文通過案例分析法分析使用LSTM模型預(yù)測股票的案例,發(fā)現(xiàn)預(yù)測結(jié)果都有一定的準(zhǔn)確性,確實為投資者提供了更多的參考價值。本文通過對比研究法選取了10只不同領(lǐng)域的股票來進(jìn)行比較分析它們各自之間的預(yù)測差異,以此來驗證LSTM模型的預(yù)測準(zhǔn)確性和魯棒性。

第2章LSTM模型相關(guān)理論研究2.1LSTM模型原理長短期記憶神經(jīng)網(wǎng)絡(luò),我們常簡稱為LSTM模型,這一神經(jīng)網(wǎng)絡(luò)是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的重要發(fā)展和完善。RNN在處理長序列數(shù)據(jù)時,常面臨梯度消失和爆炸的難題,導(dǎo)致訓(xùn)練效果不佳。然而,LSTM模型通過其獨特的設(shè)計,有效地解決了這些問題,使得它能夠更好地學(xué)習(xí)長期依賴關(guān)系。LSTM模型的核心在于其通過三個門結(jié)構(gòu)來精細(xì)控制信息的處理:遺忘門、輸出門和輸入門。這三個門協(xié)同工作,使得神經(jīng)網(wǎng)絡(luò)在處理長時間序列信息時能夠保持高效的依賴關(guān)系處理能力。首先,本研究先探討遺忘門的機(jī)制。遺忘門負(fù)責(zé)決定哪些信息應(yīng)當(dāng)從細(xì)胞狀態(tài)中丟棄,哪些應(yīng)當(dāng)保留。這一過程通過Sigmoid函數(shù)實現(xiàn),該函數(shù)將輸入映射到[0,1]區(qū)間,輸出值代表了信息的保留程度。遺忘門實際上是在篩選信息,保留對預(yù)測有用的重要信息,同時丟棄無關(guān)或過時的信息。接下來是輸入門,它負(fù)責(zé)控制新輸入信息的記憶狀態(tài)。首先,通過一個Sigmoid層判斷哪些信息需要更新;然后,利用tanh層創(chuàng)建一個新的候選值向量。這兩個步驟的結(jié)合決定了細(xì)胞狀態(tài)的新增內(nèi)容。輸入門的作用在于確保只有對模型有益的新信息才能被加入到細(xì)胞狀態(tài)中。最后是輸出門,它負(fù)責(zé)控制信息的輸出。與輸入門類似,輸出門也依賴于Sigmoid層來決定輸出哪部分細(xì)胞狀態(tài)信息。隨后,通過tanh函數(shù)處理這部分細(xì)胞狀態(tài),并與Sigmoid門的輸出相乘,從而得到最終的輸出值。輸出門確保了模型輸出的準(zhǔn)確性,避免了不必要的信息泄露。2.2LSTM模型神經(jīng)網(wǎng)絡(luò)的產(chǎn)生背景在圖片描述、自然語言處理以及機(jī)器翻譯等領(lǐng)域,神經(jīng)網(wǎng)絡(luò)發(fā)揮著重要作用,其中RNN尤為突出。然而,傳統(tǒng)的RNN在應(yīng)對長時間序列信息時顯得力不從心。這主要是因為其常用的激活函數(shù),如tanh或ReLU,存在局限性。每個RNN的基本單元不僅接收當(dāng)前輸入,還會結(jié)合上一個時間步的隱藏狀態(tài),從而產(chǎn)生當(dāng)前時間步的隱藏狀態(tài)。這種逐步計算的方式在處理長時間序列時,效率并不理想。RNN所計算的過程都是一步一步進(jìn)行的,在計算長時間序列的信息時,導(dǎo)致了計算量龐大。RNN只能保留有限時間步驟的傳遞信息,導(dǎo)致了歷史信息缺失,影響了預(yù)測的準(zhǔn)確性。為了解決RNN在處理長時間序列時遇到的梯度消失和爆炸問題,Hochreiter和Schmidhuber在1997年提出了其他結(jié)構(gòu)的RNNs,即LSTM模型。這種特殊的RNN在處理順序序列時表現(xiàn)出色。近期,AlexGraves對LSTM模型進(jìn)行了優(yōu)化和推廣。LSTM的設(shè)計初衷就是為了解決RNN在處理長期依賴關(guān)系時的不足。通過改進(jìn)RNN的結(jié)構(gòu),LSTM成功地克服了原始循環(huán)神經(jīng)網(wǎng)絡(luò)的缺陷,因此迅速成為當(dāng)前最受歡迎的RNN類型。2.3LSTM模型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖如圖1所示:圖1LSTM模型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖根據(jù)LSTM的結(jié)構(gòu),每個LSTM單元工作的公式描述如下:(1)判定為無用或不相關(guān)的那些歷史信息將被遺忘門拋棄,如式(1)所示遺忘門拋棄,如式(1)所示ft(2)上一時刻保留的信息與此刻的輸入信息共同作為輸入門的更新狀態(tài),如式(2)(3)所示itCt(3)由輸出門輸出當(dāng)前時刻的狀態(tài)信息,如式(4)(5)at?t式中,Wi,Wc,Wf和W0為相應(yīng)的連接權(quán)值,bi,bc,bf和b0為相應(yīng)的偏置,f

第3章數(shù)據(jù)收集、預(yù)處理和數(shù)據(jù)集的制作3.1數(shù)據(jù)的收集easyquotation是一個完全免費、開源的python財經(jīng)數(shù)據(jù)接口包。可通過網(wǎng)絡(luò)爬蟲將股票數(shù)據(jù)轉(zhuǎn)化為數(shù)字字典格式,避免金融從業(yè)重復(fù)造輪子,對數(shù)據(jù)分析過程成本優(yōu)化。提供了對新浪、騰訊財經(jīng)、分時股票數(shù)據(jù)獲取,對港股的分時、日線股票數(shù)據(jù)獲取,對集思路的分級基金數(shù)據(jù)。通過easyquotation包,本研究選取了十支股票,包括阿里巴巴、騰訊、長城汽車、周大福、李寧、華潤電力、中國電信、青島啤酒,中國海洋石油、BC科技集團(tuán),提取上市至今的所有股票日線數(shù)據(jù)。我將選取2023年1月3日至今的所有股票收盤價格。3.2數(shù)據(jù)預(yù)處理easyquotation日線接口提供騰訊財經(jīng)港股股票的日期、開盤價、收盤價、最高價、最低價、成交量、成交額八個維度特征。根據(jù)實驗需求每只股票只采用日期、收盤價為特征變量。其中解釋變量為日期,被解釋變量為收盤價與股票種類。圖2數(shù)據(jù)預(yù)處理流程3.2.1時間變量處理收集的每只股票數(shù)據(jù)包含該股票自上市以來的所有數(shù)據(jù),而由于每只股票的上市時間不一致,故需要對時間變量統(tǒng)一進(jìn)行處理。使用pandas工具統(tǒng)計每只股票的上市時間可得,如下表1:表1各支股票上市日期股票名稱上市日期長城汽車2016年04月14日阿里巴巴2019年11月26日騰訊控股2018年02月12日周大福2016年04月20日BC科技集團(tuán)2015年09月08日李寧2016年04月20日華潤電力2016年04月19日中國電信2016年04月20日青島啤酒2016年04月20日中國海洋石油2016年04月20日3.2.2收盤價處理由于所選股票均為港股,港股突發(fā)情況會經(jīng)常臨時休市故交易日較少,平均下來一年225個交易日。所有需要對日期中的缺失值進(jìn)行處理,日期中收盤價缺失情況如下表:表2各支股票收盤價缺失情況股票名稱存在交易日數(shù)目長城汽車296周大福296BC科技集團(tuán)294李寧296華潤電力296中國電信296青島啤酒296阿里巴巴296騰訊控股296中國海洋石油296故對于所有股票沒有產(chǎn)生交易日期的進(jìn)行剔除,而有的交易日存在某幾只股票在該天停牌(即沒有成交量)的情況,用后一天的收盤價填補(bǔ)空值。流程如下圖3收盤價處理思路3.2.3數(shù)據(jù)集成將各個股票的收盤價時序數(shù)據(jù)轉(zhuǎn)化為面板數(shù)據(jù),即將十只股票的收盤價數(shù)據(jù)合并放到一個數(shù)據(jù)存儲中,便于下一步處理。合并結(jié)果如下表3:表3十只股票收盤面板數(shù)據(jù)(部分)日期長城汽車周大福BC科技集團(tuán)李寧華潤電力中國電信青島啤酒中國海洋石油阿里巴巴騰訊控股2023/1/39.93215.213.0768.44815.3762.94876.128.7687.674324.672023/1/49.85215.753.1670.19816.1763.01876.028.795.424340.472023/1/510.05216.033.0871.39815.9762.96878.428.6398.624345.42023/1/69.85216.133.0271.09816.4562.97877.028.66100.6243472023/1/99.97215.633.171.39815.7762.99878.928.61109.424359.63.2.4股票收盤價可視化將各個股票的收盤價用Python的pandas庫繪制出來,如下圖4:圖4十只股票從2023年1月至今的收盤價3.3數(shù)據(jù)提取和分析3.3.1數(shù)據(jù)處理與分析工具的導(dǎo)入在本文中,采用了numpy和pandas庫作為數(shù)據(jù)處理與分析的主要工具。其中,numpy庫以其豐富的數(shù)學(xué)函數(shù)庫而著稱,它能夠高效地處理大型多維數(shù)組和矩陣,為復(fù)雜的數(shù)據(jù)分析提供了強(qiáng)大的支持。pandas庫用于數(shù)據(jù)分析,它能對數(shù)據(jù)的結(jié)構(gòu)做出詳細(xì)的分析并且性能較好,本文將用pandas的DataFrame和Series數(shù)據(jù)結(jié)構(gòu)來存儲和操作股票收盤價數(shù)據(jù)。matplotlib是一個用于繪制圖形的Python庫,我們通過它來繪制可視化圖來顯示我們的收盤價數(shù)據(jù)。numpy庫和pandas庫將為本文研究提供強(qiáng)大的數(shù)據(jù)處理與分析支持,這為我們后續(xù)的研究的準(zhǔn)確率和效率提供了保障。3.3.2數(shù)據(jù)集的導(dǎo)入與預(yù)處理由上文得知,本研究所使用的數(shù)據(jù)已經(jīng)收集完成,然后需要利用pandas庫中的read_csv函數(shù)讀取這些數(shù)據(jù)并以DataFrame的形式進(jìn)行存儲。雖然本文收集上來的數(shù)據(jù)就是按照時間序列來排序的,但是我們?yōu)榱诉M(jìn)一步保證數(shù)據(jù)的時間序列一致性,需要對數(shù)據(jù)進(jìn)行再一次排序,所以使用了DataFrame的sort_values方法。最后,本文為了對讀取和排序以后的數(shù)據(jù)進(jìn)行檢查,使用了head方法,方法返回了數(shù)據(jù)的前幾行。這有助于快速了解數(shù)據(jù)的結(jié)構(gòu)、變量的范圍以及是否存在明顯的異常值。驗證過后的數(shù)據(jù)沒有問題,以確保本研究下一步的進(jìn)行。3.3.3數(shù)據(jù)集規(guī)模的檢查本文通過shape屬性了解到了DataFrame中的數(shù)據(jù)集data的具體規(guī)模,然后得到了一個元組,其中第一個數(shù)字是’Close’列中的行數(shù),第二個數(shù)字始終是1,最后結(jié)果顯示樣本中有296行。3.4特征工程3.4.1收盤價數(shù)據(jù)的基本信息檢查本文通過調(diào)用info()函數(shù)對股票收盤價進(jìn)行初步的檢查,它提供了price的詳細(xì)摘要,包括行數(shù)、列數(shù)、每列的數(shù)據(jù)類型以及非空值的數(shù)量,行數(shù)為296,列數(shù)為1,數(shù)據(jù)類型為數(shù)值形式,非空值也是296。3.4.2數(shù)據(jù)歸一化處理數(shù)據(jù)歸一化的原理是對數(shù)據(jù)的進(jìn)一步處理,將數(shù)據(jù)轉(zhuǎn)換為統(tǒng)一的尺度,將數(shù)據(jù)的特征值放在一個固定的范圍內(nèi),統(tǒng)一量綱。在本研究中,采用了最小-最大歸一化方法(Min-Maxscaling),通過sklearn.preprocessing庫中的MinMaxScaler實現(xiàn),將數(shù)據(jù)線性映射到[-1,1]的范圍內(nèi)。具體計算公式如下:x'首先,利用MinMaxScaler創(chuàng)建了一個歸一化器對象,并且指定了[-1,1]目標(biāo)范圍,繼續(xù)使用fit_transform方法,輸入‘Close’列的值,就得到了一個歸一化后的數(shù)組,并且重新塑形并并賦值給‘Close’列。歸一化處理后的股票價格數(shù)據(jù)具有更好的數(shù)值特性,使得模型在訓(xùn)練過程中能夠更快地收斂,并有可能提高模型的預(yù)測精度。此外,歸一化還有助于提高模型的穩(wěn)定性,使其在不同數(shù)據(jù)集上的表現(xiàn)更加一致。進(jìn)行歸一化的公式如(7)式所示xi3.5數(shù)據(jù)集的制作本研究采用的數(shù)據(jù)集來源于港股市場10只股票的歷史收盤價,需要構(gòu)建一個用于預(yù)測股票收盤價的時序數(shù)據(jù)集。首先,對已得到的數(shù)據(jù)做了歸一化處理,并且需要將其轉(zhuǎn)換成Numpy數(shù)組格式。隨后,通過調(diào)用split_data函數(shù)對數(shù)據(jù)進(jìn)行預(yù)處理和分割,并且在split_data函數(shù)中設(shè)定了一個lookback參數(shù)來表示預(yù)測未來收盤價變動的歷史數(shù)據(jù)長度,設(shè)定lookback參數(shù)為20,代表了每個數(shù)據(jù)樣本將包含過去20個交易日的股票收盤價信息。遍歷原始數(shù)據(jù),將連續(xù)lookback個時間點的數(shù)據(jù)作為一個樣本,構(gòu)建成一個新的數(shù)據(jù)集。這樣,每個樣本都包含了過去一段時間內(nèi)的股票收盤價信息,以及緊隨其后的一個時間點的價格信息,用于作為監(jiān)督學(xué)習(xí)的目標(biāo)值。在本次數(shù)據(jù)探究中,對數(shù)據(jù)集進(jìn)行了劃分,將其拆分為訓(xùn)練集與測試集兩部分。具體而言,測試集占據(jù)了樣本總數(shù)的兩成,而訓(xùn)練集則占據(jù)了八成。這種劃分策略旨在確保模型評估的準(zhǔn)確性與模型調(diào)優(yōu)的有效性。在數(shù)據(jù)集的結(jié)構(gòu)上,將每個樣本的前l(fā)ookback-1個時間點的數(shù)據(jù)作為輸入特征(x),最后一個時間點的數(shù)據(jù)作為目標(biāo)值(y)。這樣,訓(xùn)練集和測試集都包含了相應(yīng)的輸入特征和目標(biāo)值,便于后續(xù)模型的訓(xùn)練和測試。經(jīng)過一系列數(shù)據(jù)處理工作,本研究成功地獲得了包含輸入特征和目標(biāo)值的訓(xùn)練集和測試集。在數(shù)據(jù)集劃分后設(shè)定了x_train和x_test兩個變量,分別用于標(biāo)識訓(xùn)練集和測試集的輸入特征。這兩個變量的維度清晰地揭示了每個樣本包含了20個連續(xù)交易日的股票價格數(shù)據(jù)。同時設(shè)置了y_train和y_test兩個變量,它們分別代表訓(xùn)練集和測試集的目標(biāo)值,即模型能夠準(zhǔn)確預(yù)測的未來一天的股票價格。以下是數(shù)據(jù)集的具體維度信息:圖5數(shù)據(jù)集形狀這些信息將用于后續(xù)的模型構(gòu)建和性能評估。這一數(shù)據(jù)集的構(gòu)建過程確保了數(shù)據(jù)的完整性、一致性和可用性。

第4章LSTM模型的構(gòu)建、驗證和分析4.1LSTM模型的構(gòu)建4.1.1NumPy數(shù)組到PyTorch張量的轉(zhuǎn)換首先,為了使數(shù)據(jù)集與PyTorch深度學(xué)習(xí)框架實現(xiàn)無縫對接,本模型安裝了PyTorch庫。在此過程中,一個關(guān)鍵步驟是將NumPy數(shù)組轉(zhuǎn)換為PyTorch張量。NumPy庫,正如之前所述,是一個功能強(qiáng)大的數(shù)學(xué)計算工具庫。而PyTorch張量,作為PyTorch框架的核心數(shù)據(jù)結(jié)構(gòu),用于高效處理多維數(shù)組和矩陣運算。在PyTorch中,無論是構(gòu)建神經(jīng)網(wǎng)絡(luò)模型還是執(zhí)行各種操作,都離不開張量的支持。因此,這一轉(zhuǎn)換步驟對于確保數(shù)據(jù)在PyTorch框架中的正確處理和高效運算至關(guān)重要。本模型使用torch.from_numpy()函數(shù)將x_train、x_test、y_train和y_test這些NumPy數(shù)組轉(zhuǎn)換為PyTorch張量中最基本的數(shù)據(jù)類型torch.Tensor。對于LSTM(長短期記憶)和GRU(門控循環(huán)單元)模型,本模型分別創(chuàng)建了對應(yīng)的標(biāo)簽張量y_train_lstm、y_test_lstm和y_train_gru、y_test_gru。這些標(biāo)簽張量將用于監(jiān)督學(xué)習(xí)過程中的損失計算和模型優(yōu)化。通過這一數(shù)據(jù)預(yù)處理步驟,確保了輸入數(shù)據(jù)和標(biāo)簽都與PyTorch框架兼容,為后續(xù)的模型訓(xùn)練和評估做好了準(zhǔn)備。這種兼容性確保了數(shù)據(jù)可以在PyTorch中進(jìn)行高效的計算和操作,從而支持本研究進(jìn)行深度學(xué)習(xí)模型的訓(xùn)練和推斷。4.1.2LSTM模型參數(shù)設(shè)置在LSTM模型參數(shù)設(shè)置中本模型設(shè)置了五個參數(shù),分別是輸入維度、隱藏層維度、層數(shù)、輸出維度和訓(xùn)練輪數(shù)。首先,設(shè)定輸入維度(input_dim)為1,因為所選取的只有股票收盤價一個特征,所以我們要設(shè)置每個輸入樣本都只包含一個特征。隱藏層維度(hidden_dim)設(shè)置為32,這是表示每個隱藏層包含32個神經(jīng)元,這一設(shè)置能夠捕獲輸入數(shù)據(jù)的復(fù)雜模式,并在不同層之間傳遞有用的信息。通過調(diào)整隱藏層維度,本模型可以控制模型的復(fù)雜性和學(xué)習(xí)能力。設(shè)置層數(shù)(num_layers)為2,兩層隱藏層,多層結(jié)構(gòu)使得模型能夠?qū)W習(xí)更高級別的特征表示,提高了模型的表達(dá)能力和泛化能力。設(shè)置輸出維度(output_dim)為1,因為模型的輸入維度為1,而且所需要的結(jié)果和輸入的特征是一樣的,所需要預(yù)測的目標(biāo)變量也是1,所預(yù)測的也是下一時間的股票價格。設(shè)置訓(xùn)練輪數(shù)(num_epochs)為100,這意味著整個數(shù)據(jù)集將被用于訓(xùn)練模型100次,多次訓(xùn)練以確保模型能夠充分學(xué)習(xí)數(shù)據(jù)的內(nèi)在規(guī)律和模式。4.1.3LSTM模型結(jié)構(gòu)描述LSTM模型由兩部分組成:LSTM層和全連接層,它們共同負(fù)責(zé)從輸入序列中提取特征并生成預(yù)測結(jié)果。在LSTM層中,將輸入維度(input_dim)、隱藏層維度(hidden_dim)和層數(shù)(num_layers)作為參數(shù)。通過設(shè)置batch_first=True,指定輸入張量的形狀應(yīng)為(batch_size,sequence_length,input_dim),這有助于高效地處理批量數(shù)據(jù)。LSTM層負(fù)責(zé)在序列中捕獲時間上的依賴關(guān)系,并通過其內(nèi)部的門控機(jī)制來記憶和遺忘信息。本模型初始化了零值的隱藏狀態(tài)(h0)和細(xì)胞狀態(tài)(c0),它們對于LSTM層的初始化和迭代計算至關(guān)重要。這些狀態(tài)變量在模型的前向傳播過程中不斷更新,以反映輸入序列的動態(tài)變化。經(jīng)過LSTM層處理后,獲得了包含序列信息的輸出張量(out)。為了生成最終的預(yù)測結(jié)果,將輸出張量的最后一個時間步長的隱藏狀態(tài)作為全連接層的輸入。全連接層(fc)將LSTM層的輸出映射到目標(biāo)維度(output_dim),從而得到模型的最終輸出。通過整合LSTM層的記憶能力和全連接層的特征轉(zhuǎn)換能力,本模型能夠有效地處理序列數(shù)據(jù),并生成準(zhǔn)確的預(yù)測結(jié)果。這種結(jié)構(gòu)使得模型能夠捕獲輸入序列中的長期依賴關(guān)系,并適應(yīng)不同的序列長度和變化模式。4.1.4模型實例化、損失函數(shù)與優(yōu)化器配置為了進(jìn)行模型的訓(xùn)練和評估,首先實例化了之前定義的LSTM網(wǎng)絡(luò)模型。通過指定輸入維度(input_dim)、隱藏層維度(hidden_dim)、輸出維度(output_dim)和層數(shù)(num_layers),我創(chuàng)建了一個具有特定結(jié)構(gòu)的LSTM模型。這個模型將作為我后續(xù)訓(xùn)練和預(yù)測任務(wù)的基礎(chǔ)。本研究選擇了均方誤差MSE作為我們的損失函數(shù),去判斷LSTM模型的準(zhǔn)確性。MSE損失函數(shù)的主要作用是用于計算兩個值之間平方差均值,在當(dāng)前階段,需要計算的一個重要指標(biāo)是模型預(yù)測值與實際值之間的平方差均值。這一指標(biāo)能夠精準(zhǔn)地反映模型的預(yù)測誤差,可以有效地評估模型的性能。通過最小化MSE損失,可以優(yōu)化模型的參數(shù),使其更好地擬合訓(xùn)練數(shù)據(jù)。MSE公式如下:MSE=1本研究選擇了Adam作為優(yōu)化器算法。Adam優(yōu)化器結(jié)合了梯度的一階矩估計和二階矩估計來動態(tài)調(diào)整每個參數(shù)的學(xué)習(xí)率,能夠快速、準(zhǔn)確地最小化損失函數(shù),提高深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果和泛化能力。設(shè)置學(xué)習(xí)率為0.01,控制了模型參數(shù)更新的步長,以確保模型在訓(xùn)練過程中能夠穩(wěn)定收斂。本研究需要將模型實例化、選擇合適的損失函數(shù)以及配置優(yōu)化器,這些組件的配合將能夠為后續(xù)的模型訓(xùn)練提供更準(zhǔn)確的預(yù)測結(jié)果。4.2LSTM模型的訓(xùn)練4.2.1模型訓(xùn)練與性能評估為了優(yōu)化模型的參數(shù)并使其適應(yīng)訓(xùn)練數(shù)據(jù),本研究執(zhí)行了一個迭代訓(xùn)練過程,共包含num_epochs輪次。在每一輪迭代中,首先將模型應(yīng)用于訓(xùn)練數(shù)據(jù)x_train,得到預(yù)測值y_train_pred。接著,使用均方誤差(MSE)損失函數(shù)計算預(yù)測值與實際值y_train_lstm之間的差異,從而得到當(dāng)前輪次的損失值。在訓(xùn)練過程中,實時打印出每一輪迭代的損失值,以便觀察模型的收斂情況。同時,將損失值存儲在hist數(shù)組中,以便后續(xù)進(jìn)行性能分析和可視化。為了更新模型的參數(shù),首先使用優(yōu)化器的zero_grad方法清除之前計算得到的梯度。然后,通過調(diào)用損失值的backward方法計算模型參數(shù)相對于損失函數(shù)的梯度。最后,使用優(yōu)化器的step方法,根據(jù)計算得到的梯度更新模型的參數(shù)。在訓(xùn)練完成后,測量整個訓(xùn)練過程所消耗的時間,即training_time。這個時間指標(biāo)反映了模型訓(xùn)練的效率,對于評估模型的性能至關(guān)重要。通過上述迭代訓(xùn)練過程,LSTM模型逐漸學(xué)習(xí)了訓(xùn)練數(shù)據(jù)的內(nèi)在規(guī)律,并通過優(yōu)化器不斷調(diào)整其參數(shù)以最小化損失函數(shù)。這種訓(xùn)練方法使得模型能夠在后續(xù)的任務(wù)中生成準(zhǔn)確的預(yù)測結(jié)果,并具備較好的泛化能力。4.2.2預(yù)測值與實際值的逆變換與整理為了將模型預(yù)測的結(jié)果和實際值轉(zhuǎn)換回原始數(shù)據(jù)的尺度,需要應(yīng)用了與訓(xùn)練數(shù)據(jù)預(yù)處理階段相同的逆變換操作。這是因為在訓(xùn)練模型之前,通常會對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化或歸一化處理,以便模型能夠更好地學(xué)習(xí)和泛化。因此,在評估模型性能或進(jìn)行預(yù)測時,需要將模型的輸出轉(zhuǎn)換回原始數(shù)據(jù)的尺度,以便更直觀地理解結(jié)果。在本研究中,使用scaler.inverse_transform方法來實現(xiàn)這一逆變換過程。該方法根據(jù)訓(xùn)練階段使用的歸一化參數(shù),將模型的預(yù)測值y_train_pred和實際值y_train_lstm從歸一化的尺度轉(zhuǎn)換回原始數(shù)據(jù)的尺度。通過調(diào)用detach().numpy()方法,確保了從模型中獲取的預(yù)測值和實際值是脫離計算圖的NumPy數(shù)組,從而可以方便地進(jìn)行后續(xù)的數(shù)據(jù)處理和分析。接下來,將逆變換后的預(yù)測值和實際值分別轉(zhuǎn)換為PandasDataFrame格式。PandasDataFrame是一個靈活且功能強(qiáng)大的數(shù)據(jù)結(jié)構(gòu),它允許以表格的形式存儲和處理數(shù)據(jù)。通過將數(shù)據(jù)存儲在DataFrame中,可以方便地進(jìn)行數(shù)據(jù)篩選、排序、聚合等操作,以及進(jìn)行可視化分析。最終,得到了兩個DataFrame對象:predict存儲了逆變換后的模型預(yù)測值,而original存儲了逆變換后的實際值。這兩個DataFrame將用于后續(xù)的性能評估、可視化分析或與其他數(shù)據(jù)集進(jìn)行集成。通過執(zhí)行上述逆變換和整理過程,確保了模型預(yù)測結(jié)果與實際值之間的比較是在同一尺度下進(jìn)行的,從而能夠更準(zhǔn)確地評估模型的性能。4.2.3數(shù)據(jù)可視化與模型性能分析為了直觀地展示原始數(shù)據(jù)、模型預(yù)測結(jié)果以及訓(xùn)練過程中的損失變化,可以采用數(shù)據(jù)可視化的方法。通過生成圖表,能夠更加清晰地理解模型的性能以及數(shù)據(jù)的特點。首先,創(chuàng)建一個包含兩個子圖的圖表。在第一個子圖中,繪制原始數(shù)據(jù)與模型在訓(xùn)練集上的預(yù)測結(jié)果。通過sns.lineplot函數(shù),分別繪制原始數(shù)據(jù)序列(標(biāo)簽為“Data”,顏色為皇家藍(lán))和模型預(yù)測序列(標(biāo)簽為“TrainingPrediction(LSTM)”,顏色為番茄紅)。兩條線在同一坐標(biāo)軸上展示,使得我可以直接比較預(yù)測值與實際值之間的差異。該子圖的X軸表示時間(天數(shù)),Y軸表示股票價格(以港元為單位)。通過設(shè)置合適的標(biāo)題、軸標(biāo)簽和刻度標(biāo)簽大小,確保了圖表的清晰度和可讀性。在第二個子圖中,展示了模型在訓(xùn)練過程中的損失變化。通過繪制損失值隨時間(以輪次為單位)變化的折線圖,該子圖的X軸表示訓(xùn)練輪次(Epoch),Y軸表示損失值。通過可視化圖表能夠清晰地觀察到模型的收斂情況,它隨著訓(xùn)練的進(jìn)行,損失值越來越小,表明模型在逐漸學(xué)習(xí)并適應(yīng)數(shù)據(jù)。圖6預(yù)測圖與損失圖通過這兩個子圖能夠看到預(yù)測數(shù)據(jù)與實際數(shù)據(jù)的差異和模型在訓(xùn)練過程中的學(xué)習(xí)速度和穩(wěn)定性,可視化地為我們提供了模型的性能數(shù)據(jù),可以全面地評估LSTM模型的性能。4.3LSTM模型的驗證4.3.1測試數(shù)據(jù)集的最后一個樣本在LSTM模型評估性能時,需要先測試一個樣本,選擇測試數(shù)據(jù)集的最后一個樣本x_test[-1]。這個樣本與其他樣本并沒有什么不同,都會遇到各種特征和變量,可以以小見大,可以進(jìn)一步了解測試數(shù)據(jù)集的特點,包括數(shù)據(jù)的分布、范圍以及潛在的異常值等。4.3.2模型性能評估與誤差分析為了全面評估所構(gòu)建的LSTM模型的預(yù)測性能,在訓(xùn)練集和測試集上分別進(jìn)行預(yù)測,并計算相應(yīng)的均方根誤差(RMSE)。首先,使用訓(xùn)練好的模型對測試集x_test進(jìn)行預(yù)測,得到預(yù)測值y_test_pred。RMSE的公式如下:RMSE=1為了將模型的預(yù)測輸出和真實標(biāo)簽轉(zhuǎn)換回原始數(shù)據(jù)空間,使用訓(xùn)練期間相同的標(biāo)準(zhǔn)化器scaler對預(yù)測值和真實值進(jìn)行了反標(biāo)準(zhǔn)化處理。具體來說,分別對訓(xùn)練集的預(yù)測值y_train_pred和真實值y_train,以及測試集的預(yù)測值y_test_pred和真實值y_test進(jìn)行了反標(biāo)準(zhǔn)化。隨后,使用均方誤差(MSE)作為性能度量,計算了訓(xùn)練集和測試集上預(yù)測值與真實值之間的MSE。為了更直觀地比較不同模型或不同數(shù)據(jù)集的誤差大小,將MSE的開方轉(zhuǎn)換為了RMSE。通過計算,得到了訓(xùn)練集上的RMSE(trainScore)和測試集上的RMSE(testScore)。最后,將訓(xùn)練集和測試集上的RMSE,以及模型的訓(xùn)練時間(training_time)記錄到了lstm列表中,以便后續(xù)進(jìn)行性能分析和模型比較。這些評估指標(biāo)不僅可以幫助了解模型在訓(xùn)練數(shù)據(jù)上的擬合程度,還可以反映模型在未見數(shù)據(jù)上的泛化能力。通過對比訓(xùn)練集和測試集上的RMSE,可以初步判斷模型是否存在過擬合或欠擬合的問題,進(jìn)而指導(dǎo)后續(xù)的模型優(yōu)化工作。4.3.3數(shù)據(jù)可視化前的預(yù)測結(jié)果調(diào)整為了將模型的預(yù)測結(jié)果可視化并與原始價格數(shù)據(jù)進(jìn)行對比,首先需要對預(yù)測數(shù)據(jù)進(jìn)行適當(dāng)?shù)恼{(diào)整。由于預(yù)測是在時間序列上進(jìn)行的,并且通常使用歷史數(shù)據(jù)來預(yù)測未來的值,因此預(yù)測結(jié)果需要按照時間順序進(jìn)行對齊。對于訓(xùn)練集的預(yù)測結(jié)果y_train_pred,創(chuàng)建一個與原始價格數(shù)據(jù)price相同形狀的空數(shù)組trainPredictPlot,并將其初始化為nan值。隨后,將預(yù)測值填充到trainPredictPlot中從lookback(即模型用于預(yù)測的歷史數(shù)據(jù)長度)開始到y(tǒng)_train_pred結(jié)束的位置。這樣,trainPredictPlot的前l(fā)ookback個位置為nan,代表在這些時間點沒有預(yù)測值,而后續(xù)位置則包含了訓(xùn)練集的預(yù)測結(jié)果。類似地,對于測試集的預(yù)測結(jié)果y_test_pred,創(chuàng)建一個與price相同形狀的空數(shù)組testPredictPlot,并進(jìn)行了相同的NaN初始化和預(yù)測值填充操作。但是,由于測試集的預(yù)測是在訓(xùn)練集之后進(jìn)行的,因此y_test_pred的開始位置是len(y_train_pred)+lookback-1,確保預(yù)測值在正確的時間點上對齊。接下來,使用標(biāo)準(zhǔn)化器scaler對原始價格數(shù)據(jù)price[‘Close’]進(jìn)行了反標(biāo)準(zhǔn)化處理,將其轉(zhuǎn)換回原始的價格空間,得到original。最后,為了將訓(xùn)練集和測試集的預(yù)測結(jié)果以及原始價格數(shù)據(jù)整合在一起,沿著第二個維度(列方向)將trainPredictPlot、testPredictPlot和original拼接起來,形成一個新的二維數(shù)組predictions。這樣,predictions的每一列分別代表訓(xùn)練集預(yù)測結(jié)果、測試集預(yù)測結(jié)果和原始價格數(shù)據(jù)。通過這些步驟,得到了一個包含預(yù)測結(jié)果和原始數(shù)據(jù)的完整數(shù)據(jù)集,為后續(xù)的數(shù)據(jù)可視化提供了便利。這樣的調(diào)整確保了預(yù)測結(jié)果在時間序列上的正確對齊,使得可以直觀地比較模型預(yù)測與實際情況之間的差異。4.3.4數(shù)據(jù)的可視化為了直觀地展示LSTM模型在訓(xùn)練和測試數(shù)據(jù)集上的預(yù)測性能,使用Plotly庫來創(chuàng)建交互式圖表。通過添加不同的跡線(traces),能夠在同一張圖上同時展示訓(xùn)練集預(yù)測、測試集預(yù)測以及實際的價格數(shù)據(jù)。圖7長城汽車測試集與訓(xùn)練集與實際收盤價的對比圖圖8阿里巴巴測試集與訓(xùn)練集與實際收盤價的對比圖圖9BC科技集團(tuán)測試集與訓(xùn)練集與實際收盤價的對比圖圖10中國電信測試集與訓(xùn)練集與實際收盤價的對比圖圖SEQ圖\*ARABIC11中國海洋石油測試集與訓(xùn)練集與實際收盤價的對比圖圖SEQ圖\*ARABIC12華潤電力測試集與訓(xùn)練集與實際收盤價的對比圖圖SEQ圖\*ARABIC13李寧測試集與訓(xùn)練集與實際收盤價的對比圖圖SEQ圖\*ARABIC14青島啤酒測試集與訓(xùn)練集與實際收盤

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論