版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
[32]的標(biāo)準(zhǔn)化分辨率。4基于YOLO網(wǎng)絡(luò)的甲骨文單字自動分割甲骨文原始拓片圖像的自動單字分割任務(wù)不只是具備圖像分割的基本特性,還融合了目標(biāo)檢測相關(guān)元素,這對模型的準(zhǔn)確性和效率提出了更高要求,所以構(gòu)建一個能夠適應(yīng)這些要求的模型是本節(jié)的主要研究目標(biāo),鑒于甲骨文原始拓片圖像具有的獨(dú)特特征,本任務(wù)選用了在目標(biāo)檢測領(lǐng)域經(jīng)過充分驗(yàn)證且效果顯著的YOLOv5與YOLOv8算法來完成甲骨文圖像分割工作,YOLO系列算法憑借其出色性能、高準(zhǔn)確性以及實(shí)時(shí)處理能力而聞名,能夠很好地滿足甲骨文圖像分割的需求。4.1研究壞境及參數(shù)設(shè)定本實(shí)驗(yàn)主要采用Python語言,并在Anaconda中配置虛擬環(huán)境,并使用PyTorch深度學(xué)習(xí)框架構(gòu)建神經(jīng)網(wǎng)絡(luò),安裝CUDA工具包,并配置CUDA以使用NVIDIAGeForceRTX4090訓(xùn)練模型。其具體實(shí)驗(yàn)環(huán)境如表4-1所示:表4-1實(shí)驗(yàn)環(huán)境列表軟件或硬件版本參數(shù)操作系統(tǒng)Windows11CPU16核,Xeon(R)Gold6430RAM120GGPUNVIDIAGeForceRTX4090開發(fā)語言Python3.11集成開發(fā)環(huán)境PyCharmProfessional2024.3.1深度學(xué)習(xí)框架PyTorch2.1CUDA版本12.6編譯器AnacondaNavigator(anaconda3)在模型訓(xùn)練之前,需要對模型配置文件中的參數(shù)進(jìn)行調(diào)整,以確保其與本文數(shù)據(jù)集的訓(xùn)練要求相匹配。模型訓(xùn)練參數(shù)的詳細(xì)設(shè)置如表4-2所示。表4-2模型訓(xùn)練參數(shù)參數(shù)項(xiàng)數(shù)值訓(xùn)練輪次epochs100輸入圖片尺寸imgsz640×640/320×320每輪樣本數(shù)batch-size32初始學(xué)習(xí)率lr00.001續(xù)表4-2參數(shù)項(xiàng)數(shù)值動量值momentum0.937權(quán)重衰減weight_decay0.005預(yù)訓(xùn)練權(quán)重modelv5x/v8n/v8m/v8l4.2甲骨文圖像分割流程YOLO網(wǎng)絡(luò)實(shí)現(xiàn)甲練好的甲骨文字符檢測模型,輸出結(jié)果為檢測框位置;再根據(jù)檢測框?qū)γ恳环鶊D像進(jìn)行分割,即可完成甲骨文的分割任務(wù),具體流程在圖中給出:圖4-1甲骨文字符分割流程4.3損失函數(shù)優(yōu)化損失函數(shù)是整個算法網(wǎng)絡(luò)訓(xùn)練收斂時(shí)的目標(biāo)函數(shù),訓(xùn)練過程中模型盡可能的將損失函數(shù)值最優(yōu)化以調(diào)整自身參數(shù)實(shí)現(xiàn)最佳的檢測性能,合理的損失函數(shù)可以有效提高模型的收斂、泛化性能。邊界框回歸函數(shù)主要負(fù)責(zé)微調(diào)預(yù)測的邊界框,使其更準(zhǔn)確地貼合目標(biāo)的真實(shí)邊界。交并比(IoU)是目標(biāo)檢測評估預(yù)測邊界框與真實(shí)邊界框之間重疊程度的常用指標(biāo)。IoU公式如下:L式(4.1)中,A和B分別是實(shí)際邊界框區(qū)域和預(yù)測邊界框區(qū)域的面積。YOLOv8對IoU進(jìn)行了一定的優(yōu)化形成了CIoU,考慮了檢測框的中心點(diǎn)距離和長寬比。CIoU公式如下:L式(4.2)中,D表示預(yù)測框與真實(shí)框中心點(diǎn)之間的歐氏距離,C表示包圍預(yù)測框和真實(shí)框的最小外接框?qū)蔷€長度,α是平衡因子,通常根據(jù)真實(shí)框和預(yù)測框的寬高比計(jì)算,V是寬高比的懲罰項(xiàng),用于控制框的形狀偏差。SIoU是一種新的目標(biāo)檢測損失函數(shù),它的目的是解決IoU損失函數(shù)訓(xùn)練時(shí)的梯度消失問題,通過整合方向信息,它對損失函數(shù)的懲罰指標(biāo)做了重新定義,新的損失函數(shù)主要由角度損失、距離損失、形狀損失和IoU損失這四個部分構(gòu)成,這種綜合性損失函數(shù)旨在更全面評估預(yù)測框與真實(shí)框之間的差異,進(jìn)而指導(dǎo)模型進(jìn)行更精確的調(diào)整,綜合四個部分,新的損失函數(shù)能更全面引導(dǎo)模型進(jìn)行優(yōu)化,提升目標(biāo)檢測的準(zhǔn)確性和穩(wěn)定性,預(yù)測框和真實(shí)框的相對位置如圖4-2所示。圖4-2預(yù)測框和真實(shí)框相對位置圖角度損失的計(jì)算過程如公式(4.3)所示,A=1?2?其中C?為真實(shí)框和預(yù)測框中心點(diǎn)的高度差,σ距離損失的計(jì)算過程如公式(4.4)所示,Δ其中btgt表示真實(shí)框的中心點(diǎn),形狀損失的計(jì)算過程公式如(4.5)所示Ω其中θ表示對形狀損失的控制參數(shù)。最終SIoU損失函數(shù)定義如式(4.6)所示:L盡管CIoU在傳統(tǒng)IoU的基礎(chǔ)上進(jìn)行了有效的改進(jìn),但在小目標(biāo)檢測中并沒有考慮到角度以及規(guī)模因素,由于甲骨文字在拓片圖像中呈現(xiàn)出小目標(biāo)的特性,所以引入針對小目標(biāo)檢測的損失函數(shù)SIoU來提高小目標(biāo)檢測精度。SIoU(SmoothedIntersectionoverUnion)函數(shù)是一種用于目標(biāo)檢測任務(wù)中評估檢測框預(yù)測的精度的方法,它基于IoU(IntersectionoverUnion)度量,但引入了平滑因子來提高對小目標(biāo)的魯棒性。通常情況下,由于小目標(biāo)尺寸較小,預(yù)測的檢測框可能與真實(shí)框之間的重疊區(qū)域相對較小,這可能導(dǎo)致IoU度量的不穩(wěn)定性。SIoU函數(shù)通過引入平滑因子,對IoU進(jìn)行平滑處理,從而在一定程度上減少了這種不穩(wěn)定性,提高了對小目標(biāo)的檢測性能。4.4模型訓(xùn)練選擇了廣泛應(yīng)用的YOLOv5網(wǎng)絡(luò)與YOLOv8網(wǎng)絡(luò),針對v5網(wǎng)絡(luò),模型性能評價(jià)指標(biāo)選擇了其中最為先進(jìn)的v5x模型,針對v8網(wǎng)絡(luò),則綜合考慮了不同復(fù)雜度和性能的模型,最終選擇了v8n、v8m以及v8l這三個網(wǎng)絡(luò)模型。針對選擇的不同的模型,在劃分好的不同比例的數(shù)據(jù)集上訓(xùn)練,并且通過不斷調(diào)整超參數(shù)來優(yōu)化訓(xùn)練效果,具體的訓(xùn)練環(huán)境和參數(shù)配置如表4-1和表4-2所示。其中綜合訓(xùn)練結(jié)果最好的模型為在640×640下經(jīng)過預(yù)處理操作、改進(jìn)損失為SIoU的YOLOv8m網(wǎng)絡(luò)(,模型的關(guān)鍵性能指標(biāo)的變化圖如圖4-3所示。橫軸代表迭代次數(shù),而縱軸代表了概率值,概率值的范圍介于0到1之間,沒有單位。從圖可以看出,模型顯現(xiàn)出良好的收斂特性,訓(xùn)練損失(Loss)曲線迅速趨于平穩(wěn)。整個訓(xùn)練過非常順暢,模型的穩(wěn)定性很好。圖4-3指標(biāo)和損失4.5評價(jià)指標(biāo)本文為了評估改進(jìn)模型的穩(wěn)定性和魯棒性,使用精確率(Precision,P)、召回率(Recall,R)以及平均準(zhǔn)確度(meanAveragePrecision,mAP)這幾個指標(biāo)。以下是這些評估指標(biāo)的介紹。(1)精確率:P可以描述為目標(biāo)檢測算法模型在預(yù)測為正樣本的實(shí)例中,真正為正樣本的比例。簡單來說,P反映了模型預(yù)測為正樣本的實(shí)例中有多少是真正的正樣本。它是衡量模型預(yù)測準(zhǔn)確性的一個重要指標(biāo)。高P通常意味著模型在預(yù)測正樣本時(shí)較為可靠。其計(jì)算公式如式(4.7)。P=(2)召回率:R可以被理解為目標(biāo)檢測模型在識別所有實(shí)際存在的正樣本時(shí)的能力。簡單來說,R是衡量模型能夠成功找出多少真正的正樣本,相對于所有實(shí)際的正樣本來說,一個高R的模型意味著它較少遺漏真正的正樣本。此外,R也反映了模型在尋找正樣本時(shí)的完備性。其計(jì)算公式如式(4.8)。R=(3)平均準(zhǔn)確度:mAP是評估目標(biāo)檢測模型綜合性能的關(guān)鍵指標(biāo),它通過計(jì)算不同召回率水平下的平均精度來全面衡量模型性能,mAP考慮了模型在不同檢測閾值下的表現(xiàn),給出了一個全面又準(zhǔn)確的性能評估。mAP_0.5特別關(guān)注預(yù)測邊界框與真實(shí)邊界框的IoU達(dá)到或超過0.5時(shí)的檢測性能,好處是只有當(dāng)預(yù)測框與真實(shí)框的重疊部分占各自區(qū)域的比例至少為0.5時(shí),才能認(rèn)為該檢測結(jié)果是正確的。mAP_0.5主要側(cè)重于評估模型在較高檢測精度要求下的性能,反映模型在嚴(yán)格標(biāo)準(zhǔn)下識別目標(biāo)的能力,總之mAP_0.5是衡量模型在精確檢測目標(biāo)時(shí)的表現(xiàn),特別是在對檢測結(jié)果有較高要求的應(yīng)用場景中,其計(jì)算公式如式(4.9)。&AP=公式(4.7)、(4.8)、(4.9)中,TP測試為正的正樣本;TN測試為負(fù)的負(fù)樣本;FP測試為正的負(fù)樣本;FN測試為負(fù)的負(fù)樣本;P(R)為PR曲線中P的值;N為待測試目標(biāo)的種類數(shù);APi為4.6模型的對比與評估4.6.18:2數(shù)據(jù)集下的對比高的訓(xùn)練精度。然而,此時(shí)模型參數(shù)量巨大,達(dá)到了220GFLOPs,這導(dǎo)致了訓(xùn)練時(shí)間v8網(wǎng)絡(luò)系列,選擇了參數(shù)8.7GFLOPS17.9mb。在保持一定性能的同時(shí),顯著降低v8網(wǎng)絡(luò)系列在參數(shù)量與性能之間的靈活調(diào)整能力,表4-3網(wǎng)絡(luò)參數(shù)數(shù)量對比640作為網(wǎng)絡(luò)圖像的輸入大小。這是因?yàn)樵谟?xùn)練YOLO模型時(shí),需要確保輸入圖像具有一致的尺寸。然而,為了更深入地探索網(wǎng)絡(luò)精度時(shí)既保證了檢測精度,又確保了訓(xùn)練不會過于復(fù)雜,各模型的。圖4-4網(wǎng)絡(luò)精度對比由訓(xùn)練精度圖可以看到在經(jīng)過圖像預(yù)處理與損失函數(shù)改進(jìn)后,所訓(xùn)練模型v8m-640-pro-siou0.901,效果最佳。圖4-5和圖4-6展示了v5x模型與預(yù)處理并改進(jìn)損失函數(shù)后的v8m模型在部分驗(yàn)證集v8m圖4-5v5x-640模型測試結(jié)果圖4-6v8m-640-pro-siou模型測試結(jié)果4.6.27:3數(shù)據(jù)集下的對比為進(jìn)一步探究訓(xùn)練精度停滯在0.89附近的原因,推測是否是訓(xùn)練集劃分比例7:3v8mSIoU損失函數(shù),并對圖像進(jìn)行預(yù)處理。從mAP精度圖4-7中可以看到,0.9094.6.10.01的提升。圖4-77:3數(shù)據(jù)集網(wǎng)絡(luò)精度4.6.37:2:1數(shù)據(jù)集下的對比最后為了排除測試集未設(shè)置對訓(xùn)練精度提升可能產(chǎn)生的影響7:2:1的比0.1排除了測試集對訓(xùn)練精度提升可能產(chǎn)生的影響圖4-87:2:1數(shù)據(jù)集網(wǎng)絡(luò)精度4.7結(jié)果測試圖4-9為字符檢測測試結(jié)果圖,可以看到針對大部分甲骨文字,實(shí)現(xiàn)了準(zhǔn)確的檢測,并未出現(xiàn)誤檢的情況。圖4-9字符檢測測試示例在經(jīng)過上述模型訓(xùn)練后,選擇出權(quán)衡了精度與模型參數(shù)量的v8m-640-pro-siou網(wǎng)絡(luò)模型,對測試集的原始拓片圖像進(jìn)行自動單字分割,展示部分單字分割結(jié)果,如4-10圖所示。圖4-10分割后圖像與原始拓片對比5基于卷積神經(jīng)網(wǎng)絡(luò)的甲骨文字符識別5.1甲骨文字符識別框架對甲骨文原始拓片圖像文字自動識別任務(wù),采用兩種方法進(jìn)行訓(xùn)練和驗(yàn)YOLOv8完成對測試集中YOLOv8目甲骨文字符識別框架圖5-1甲骨文字符識別框架圖5.2所有實(shí)驗(yàn)均在Windows系統(tǒng)環(huán)境下進(jìn)行,其中本實(shí)驗(yàn)使用的Pycharm軟件配備了以下環(huán)境:pytorch2.1、python3.11、CUDA12.1;硬件環(huán)境見表5-1。表5-1硬件環(huán)境表CPU16核,Xeon(R)Gold6430RAM120GGPUNVIDIAGeForceRTX4090D在模型訓(xùn)練之前,需要對模型配置文件中的參數(shù)進(jìn)行調(diào)整,以確保其與本文數(shù)據(jù)集的訓(xùn)練要求相匹配。模型訓(xùn)練參數(shù)的詳細(xì)設(shè)置如表5-2所示。表5-2模型訓(xùn)練參數(shù)TrainingParametersValuesLearning0.001Batch256Epochs19112×1125.3模型性能為全面評估甲骨文字符識別模型的訓(xùn)練效果與泛化能力,本節(jié)采用訓(xùn)練精度(TrainingAccuracy)、驗(yàn)證精度(ValidationAccuracy)、訓(xùn)練損失(TrainingLoss)和驗(yàn)證損失(ValidationLoss)四項(xiàng)核心指標(biāo)進(jìn)行量化分析。各指標(biāo)定義及作用如下:(1)訓(xùn)練精度(TrainingAccuracy):訓(xùn)練精度表示模型在訓(xùn)練集上預(yù)測正確的樣本比例,該指標(biāo)反映模型對訓(xùn)練數(shù)據(jù)的擬合程度,但需結(jié)合驗(yàn)證精度避免過擬合現(xiàn)象,其計(jì)算公式如式(5.1)。TrainingAccuracyNtrain表示訓(xùn)練集總樣本數(shù),yi表示第i個樣本的真實(shí)標(biāo)簽,yi表示第i個樣本的預(yù)測標(biāo)簽,I(2)驗(yàn)證精度(ValidationAccuracy):驗(yàn)證精度通過獨(dú)立的驗(yàn)證集計(jì)算,衡量模型對未知數(shù)據(jù)的預(yù)測能力,驗(yàn)證精度與訓(xùn)練精度的差異可判斷模型是否存在過擬合(訓(xùn)練精度高但驗(yàn)證精度低)或欠擬合(兩者均低),其計(jì)算公式如式(5.2)。ValidationAccuracyNval表示(3)訓(xùn)練損失(TrainingLoss):訓(xùn)練損失反映模型在訓(xùn)練集上的優(yōu)化目標(biāo)函數(shù)值(如交叉熵?fù)p失),其收斂性體現(xiàn)模型對訓(xùn)練數(shù)據(jù)的學(xué)習(xí)穩(wěn)定性,其計(jì)算公式如式(5.3)。TrainingLossC表示類別總數(shù),的真實(shí)標(biāo)簽在類別上的獨(dú)熱編碼(0或1)(4)驗(yàn)證損失(ValidationLoss):驗(yàn)證損失通過驗(yàn)證集計(jì)算,用于監(jiān)控模型的泛化性能,若驗(yàn)證損失隨訓(xùn)練輪次增加而上升,表明模型可能過擬合,其計(jì)算公式如式(5.4)。ValidationLoss精度與損失的互補(bǔ)性:高訓(xùn)練精度+低驗(yàn)證精度→過擬合、高訓(xùn)練損失+高驗(yàn)證損失→欠擬合(模型未充分學(xué)習(xí)數(shù)據(jù)特征)。損失函數(shù)收斂性:訓(xùn)練損失下降但驗(yàn)證損失上升,表明模型開始過擬合,需提前終止訓(xùn)練或增強(qiáng)正則化;訓(xùn)練與驗(yàn)證損失同步下降,表明模型優(yōu)化方向正確。5.4數(shù)據(jù)預(yù)處理與數(shù)據(jù)集劃分在實(shí)驗(yàn)前,首先對文字識別原始訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理,詳細(xì)預(yù)處理信息如表5-3所示。表5-3數(shù)據(jù)預(yù)處理信息預(yù)處理對象數(shù)據(jù)值圖像位深24數(shù)據(jù)集劃分比例隨機(jī)7:3訓(xùn)練集數(shù)據(jù)量28419測試集集數(shù)據(jù)量12225圖片統(tǒng)一尺寸[112,112]輸送入網(wǎng)絡(luò)前預(yù)處理標(biāo)準(zhǔn)化預(yù)處理為了探AlexNet網(wǎng)絡(luò),分別在訓(xùn)練7:38:2詳細(xì)的分類精度和損失函數(shù)值見表5-4。圖5-2不同數(shù)據(jù)集劃分比例分類性能對比表5-4分類精度和損失對比數(shù)據(jù)集劃分比例7:38:2訓(xùn)練精度11驗(yàn)證精度0.82450.8199訓(xùn)練損失00驗(yàn)證損失0.74960.7639由圖5-2和表5-4可知,當(dāng)數(shù)據(jù)集比例為7:3時(shí),分類精度更高,因此選取的數(shù)據(jù)集劃分比例為7:3。5.5選定好數(shù)據(jù)集比例后,選取六種網(wǎng)絡(luò)進(jìn)行訓(xùn)練+驗(yàn)證,對比分類精度選取一個分類性能最好的網(wǎng)絡(luò)模型。六種網(wǎng)絡(luò)分別是,AlexNet、VGG16、GoogleNet、ResNet18、ResNet50和ResNet152,得到的分類精度結(jié)果如圖5-3所示,其中(a)是訓(xùn)練精度對比圖,(b)是訓(xùn)練損失對比圖,(c)是驗(yàn)證精度對比圖,(d)是驗(yàn)證損失對比圖。圖5-3不同網(wǎng)絡(luò)分類性能對比詳細(xì)的分類精度和損失函數(shù)值見表5-5表5-5數(shù)據(jù)預(yù)處理信息網(wǎng)絡(luò)模型AlexNetVGG16GoogleNetResNet18ResNet50ResNet152訓(xùn)練精度110.99940.99980.99970.9996驗(yàn)證精度0.82450.92560.93720.90970.91480.9167訓(xùn)練損失00.0001490.00310.002470.002360.00326驗(yàn)證損失0.74960.36010.27960.39290.37030.3503由圖5-3和表5-5可得,發(fā)現(xiàn)在傳統(tǒng)的經(jīng)典卷積網(wǎng)絡(luò)中,VGG16、GoogleNet、ResNet18、ResNet50和ResNet152網(wǎng)絡(luò)均能實(shí)現(xiàn)較高精度的分類任務(wù),驗(yàn)證集分類精度都在0.9以上。特別是GoogleNet,分類精度可達(dá)0.9372,達(dá)到了一個較好的性能。在YOLO算法中不僅可以實(shí)現(xiàn)目標(biāo)檢測任務(wù),還可以實(shí)現(xiàn)分類任務(wù),所以針對文字識別任務(wù),同樣使用YOLOv8對該數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練結(jié)果如圖5-4所示,可以看到Y(jié)OLOv8s的分類精度高于上述的卷積神經(jīng)網(wǎng)絡(luò),在文字識別數(shù)據(jù)集上達(dá)到了0.945的驗(yàn)證精度,對原始甲骨文拓片進(jìn)行文字自動識別。圖5-4YOLOv8s訓(xùn)練結(jié)果圖5-5展示了YOLOv8s模型部分驗(yàn)證集圖5-5YOLOv8s識別結(jié)果原始甲骨文拓片并不是單個文字,而是包含多個文字,因此無法直接將整個拓片圖像放進(jìn)文字識別任務(wù)訓(xùn)練好的網(wǎng)絡(luò)中預(yù)測。因此必須對原始拓片進(jìn)行分割處理。在此選用第四章中所訓(xùn)練好的v8m-640-pro-siou分割模型,對圖片進(jìn)行分割處理,然后原始甲骨文拓片單字檢測分割并識別的示例如圖5-6圖5-6w01815的文字分割與識別結(jié)果6甲骨文識別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)隨著歷史文獻(xiàn)數(shù)字化技術(shù)的快速發(fā)展與甲骨文研究的不斷深入,一種高效、精準(zhǔn)的甲骨文原始拓片單字自動分割與識別系統(tǒng)變得尤為重要。傳統(tǒng)甲骨文拓片處理主要依賴人工目視分割與經(jīng)驗(yàn)辨識,存在效率低、主觀性強(qiáng)、易受拓片模糊與噪聲干擾等問題,難以滿足大規(guī)模甲骨文數(shù)字化整理與智能化研究需求。因此,本章以第三、四、五章的研究為基礎(chǔ),將圖像去噪預(yù)處理、訓(xùn)練好的甲骨文分割與甲骨文識別算法模型進(jìn)行整合,通過深度學(xué)習(xí)分割識別模型與PyQt5框架結(jié)合,構(gòu)建直觀易用的交互平臺,可使研究人員能夠高效、精準(zhǔn)地完成拓片單字分割、字形識別任務(wù)。本系統(tǒng)的應(yīng)用將大幅降低甲骨文數(shù)字化處理成本,提升古文字整理效率,為古文字學(xué)研究與文化遺產(chǎn)保護(hù)提供智能化技術(shù)支撐,助力中華傳統(tǒng)文化傳承與創(chuàng)新。6.1設(shè)計(jì)工具介紹6.1.1PyQt5簡介PyQt5是基于Python編程語言的圖形用戶界面工具包,可用來創(chuàng)建交互式且直觀的桌面應(yīng)用程序,它有著豐富的功能以及多樣的模塊,包含用于創(chuàng)建窗口、對話框、按鈕、文本框等各類GUI元素的類和方法,其設(shè)計(jì)著重于組件的可重用性與系統(tǒng)的可擴(kuò)展性,允許開發(fā)者借助模塊化構(gòu)建方式輕松實(shí)現(xiàn)復(fù)雜界面開發(fā)。更重要的是PyQt5支持跨平臺運(yùn)行,涵蓋Windows、Linux和macOS等操作系統(tǒng),這讓開發(fā)者能一次編寫代碼后在多個平臺無縫部署應(yīng)用,極大的提升開發(fā)效率與便捷性。PyQt5經(jīng)常被用在開發(fā)桌面應(yīng)用程序方面,還會用于數(shù)據(jù)可視化工具開發(fā),也用于工業(yè)控制界面以及嵌入式系統(tǒng)前端開發(fā),它高效的開發(fā)模式加上跨平臺特性讓其成為PythonGUI開發(fā)主流選擇之一。在甲骨文識別系統(tǒng)開發(fā)過程中,采用PyQt5作為圖形界面的開發(fā)框架。因?yàn)镻yQt5包含強(qiáng)大的UI庫和事件處理機(jī)制,能與Python科學(xué)計(jì)算生態(tài)系統(tǒng)無縫對接,特別是OpenCV、NumPy等庫,很容易就實(shí)現(xiàn)圖像處理和UI界面的直接集成,給用戶最直觀的感受。6.1.2QtDesigner簡介在PyQt5的應(yīng)用程序開發(fā)中,設(shè)計(jì)師有兩種實(shí)現(xiàn)方式可供選擇:一種是通過直接編寫代碼,另一種則是利用QtDesigner工具。QtDesigner遵循基本的MVC(模型-視圖-控制器)結(jié)構(gòu),實(shí)現(xiàn)視圖與邏輯面的分離,極大地簡化了復(fù)雜界面的設(shè)計(jì)流程。通過直觀的拖拽方式,設(shè)計(jì)者可以輕松完成界面布局,并且還提供了頁面的實(shí)時(shí)預(yù)覽以及查看效果的功能。QtDesigner創(chuàng)建的界面保存為以.ui為后綴的文件,然后可通過PyUIC工具將.ui文件轉(zhuǎn)換為Python代碼文件(.py),以便在自定義的Python程序中進(jìn)行加載和使用。在甲骨文識別系統(tǒng)的開發(fā)進(jìn)程當(dāng)中,QtDesigner的運(yùn)用極大程度簡化了復(fù)雜界面設(shè)計(jì)工作,借助QtDesigner可視化設(shè)計(jì)登錄窗口、主窗口以及設(shè)置面板等界面元素,再結(jié)合PyQt5具備的功能把界面和圖像處理、識別算法等后端功能加以整合,這種開發(fā)方式不但加快了整體開發(fā)速度,而且保證了用戶界面的專業(yè)性與一致性。6.2系統(tǒng)總體設(shè)計(jì)本文的甲骨文智能識別系統(tǒng)是基于原始拓片的圖像數(shù)據(jù),結(jié)合經(jīng)大規(guī)模甲骨文字符數(shù)據(jù)集訓(xùn)練的深度學(xué)習(xí)模型,來對甲骨文拓片中的單字做智能分割和識別,之后把處理結(jié)果用直觀的可視化方式呈現(xiàn)出來,該系統(tǒng)設(shè)計(jì)可以對甲骨文拓片圖像進(jìn)行快速處理,并且利用改進(jìn)的YOLOv8目標(biāo)檢測算法對圖像里的甲骨文字符進(jìn)行定位和分類,以此實(shí)現(xiàn)單字的精確分割與識別。經(jīng)過對大量甲骨文拓片圖像數(shù)據(jù)進(jìn)行訓(xùn)練與優(yōu)化,網(wǎng)絡(luò)模型可以有效應(yīng)對拓片中字跡模糊、殘缺不全等特殊情況,同時(shí)系統(tǒng)充分運(yùn)用現(xiàn)代計(jì)算機(jī)視覺技術(shù),把識別結(jié)果以清晰方式呈現(xiàn)給用戶,包含字符位置、類別信息以及置信度等內(nèi)容,讓用戶能夠快速獲取甲骨文字符的識別信息,為后續(xù)考古研究和文字考證提供重要參考依據(jù)。本文系統(tǒng)基于PyQt5框架開發(fā),總體架構(gòu)如圖6-1所示,分為交互界面層、識別算法層和系統(tǒng)環(huán)境層三大部分。圖6-1功能結(jié)構(gòu)圖交互界面層作為用戶和系統(tǒng)交互的核心之處,提供著完整的操作功能,其中涵蓋用戶登錄和注冊模塊、圖像檢測功能、視頻檢測功能、實(shí)時(shí)可視化展示以及檢測結(jié)果導(dǎo)出等功能,用戶能夠通過該平臺進(jìn)行簡單操作,進(jìn)而實(shí)現(xiàn)對甲骨文拓片的智能處理工作。識別算法層采用經(jīng)過改進(jìn)的YOLOv8模型,為系統(tǒng)提供強(qiáng)大的甲骨文字符檢測分割和識別能力,支持對模糊拓片進(jìn)行智能處理,可實(shí)現(xiàn)單字精確定位分割與識別,并且提供類別和中文對照功能,支持多種信息可視化展示。系統(tǒng)環(huán)境層主要負(fù)責(zé)保障整個系統(tǒng)的穩(wěn)定運(yùn)行,包含管理系統(tǒng)運(yùn)行環(huán)境和依賴、處理模型加載和推理、確保數(shù)據(jù)的實(shí)時(shí)傳輸和處理等方面工作。本系統(tǒng)的設(shè)計(jì)理念是充分考慮了甲骨文研究工作實(shí)際需求的,借助模塊化設(shè)計(jì)來確保各功能單元的獨(dú)立性與可擴(kuò)展性,系統(tǒng)不只是提高了甲骨文字符識別的自動化水平,還給傳統(tǒng)的甲骨文研究工作提供了高效的技術(shù)支持工具,依靠直觀的可視化界面和智能的識別算法,系統(tǒng)能夠快速且準(zhǔn)確地完成甲骨文字符的分割與識別任務(wù),大幅提升了研究工作的效率,并且系統(tǒng)的開放性設(shè)計(jì)也為后續(xù)功能的擴(kuò)展和優(yōu)化奠定了良好基礎(chǔ),可依照實(shí)際應(yīng)用需求來進(jìn)行持續(xù)的改進(jìn)與完善。6.3系統(tǒng)實(shí)現(xiàn)這一節(jié)會詳細(xì)介紹甲骨文原始拓片單字自動分割智能識別系統(tǒng)的功能模塊設(shè)計(jì),該系統(tǒng)是基于PyQt5框架來進(jìn)行開發(fā)的,運(yùn)用模塊化設(shè)計(jì)思想并通過不同功能模塊協(xié)同工作,以此實(shí)現(xiàn)甲骨文字符的自動分割與識別。6.3.1用戶登錄與注冊用戶登錄與注冊模塊作為系統(tǒng)的入口保障系統(tǒng)安全和用戶數(shù)據(jù)隔離,此模塊運(yùn)用簡潔美觀的界面設(shè)計(jì)來提供用戶身份驗(yàn)證與新用戶注冊功能,登錄界面當(dāng)中包含用戶名和密碼輸入框以及登錄和注冊按鈕。登錄界面設(shè)計(jì)得簡潔大方,采用了甲骨文特色元素跟系統(tǒng)主題相呼應(yīng),登錄界面運(yùn)用了分區(qū)設(shè)計(jì),頂部屬于系統(tǒng)標(biāo)題與logo區(qū)域,中部是用戶信息輸入?yún)^(qū)域,底部為操作按鈕所在區(qū)域,登錄模塊會驗(yàn)證用戶身份信息,只有通過驗(yàn)證之后才能進(jìn)入系統(tǒng)主界面,這確保了系統(tǒng)使用的安全性,系統(tǒng)采用CSV文件來存儲用戶信息,其中包含用戶名、密碼等基本數(shù)據(jù),當(dāng)用戶輸入登錄信息之后,系統(tǒng)會驗(yàn)證輸入的用戶名和密碼是否與CSV文件里的記錄相匹配,如圖6-2所示,驗(yàn)證成功之后系統(tǒng)會自動跳轉(zhuǎn)到主界面,驗(yàn)證失敗則會提示相應(yīng)的錯誤信息。圖6-2用戶信息存儲用戶注冊時(shí),系統(tǒng)會檢查用戶名是否已存在,確保每個用戶名的唯一性,,輸入必要的個人信息后,系統(tǒng)將信息存儲至用戶數(shù)據(jù)文件中,方便后續(xù)登錄驗(yàn)證然后將新用戶信息添加到CSV文件中。系統(tǒng)注冊、登錄示例如圖6-3所示,其中(a)、(b)是新用戶注冊成果界面,(c)、(d)是使用注冊好的賬號成功登錄的界。圖6-3注冊登錄界面6.3.2圖像檢測圖像檢測模塊系統(tǒng)的核心功能,負(fù)責(zé)甲骨文拓片的處理與識別。該模塊主要包括圖像選擇與導(dǎo)入、模型選擇與參數(shù)配置、檢測處理以及結(jié)果可視化與分析四個子模塊。(1)圖像選擇與導(dǎo)入圖像選擇與導(dǎo)入子模塊能提供靈活的圖像數(shù)據(jù)導(dǎo)入方式,并且支持單圖片和視頻導(dǎo)入功能,用戶能夠通過文件瀏覽器去選擇目標(biāo)文件夾,系統(tǒng)會自動掃描并列出該文件夾里所有圖像文件,同時(shí)系統(tǒng)還提供文件篩選功能,用戶可借助關(guān)鍵詞檢索特定圖像文件來提高操作效率,該子模塊支持JPG、PNG、BMP等常見圖像格式,以此確保系統(tǒng)具備廣泛適用性。(2)模型選擇與參數(shù)配置模型選擇與參數(shù)配置子模塊能讓用戶依照具體任務(wù)需求挑選合適訓(xùn)練模型,并且調(diào)整關(guān)鍵參數(shù)來優(yōu)化檢測效果,用戶可從預(yù)設(shè)模型庫里面選擇適用于甲骨文字符識別的深度學(xué)習(xí)模型,系統(tǒng)對常規(guī)檢測模型和甲骨文模糊拓片檢測模型都予以支持,參數(shù)配置界面給出了直觀的參數(shù)調(diào)整工具,涵蓋置信度閾值、IOU閾值、輸入圖像尺寸等重要參數(shù),用戶能根據(jù)拓片質(zhì)量和識別需求靈活設(shè)置這些參數(shù),系統(tǒng)會及時(shí)更新參數(shù)值并將其應(yīng)用于后續(xù)檢測過程。(3)檢測處理檢測處理子模塊作為整個識別系統(tǒng)的核心部分,負(fù)責(zé)執(zhí)行甲骨文字符的檢測與識別相關(guān)任務(wù),該子模塊是基于PyTorch深度學(xué)習(xí)框架構(gòu)建的,采用改進(jìn)后的YOLOv8目標(biāo)檢測算法,能夠有效處理甲骨文拓片中存在的字符,檢測過程包含圖像預(yù)處理、模型推理和后處理這三個階段,在圖像預(yù)處理階段會對輸入圖像開展去噪、尺寸調(diào)整、歸一化等操作,在模型推理階段會調(diào)用訓(xùn)練模型對處理后的圖像進(jìn)行前向計(jì)算以得到初步檢測結(jié)果,在后處理階段會對模型輸出結(jié)果進(jìn)行非極大值抑制等處理從而得到最終的字符檢測結(jié)果,針對模糊拓片系統(tǒng)實(shí)現(xiàn)了特殊的兩階段檢測策略,先對整體圖像進(jìn)行檢測再對檢測到的區(qū)域進(jìn)行局部精細(xì)化處理,顯著提升了對模糊字符的識別能力。(4)結(jié)果可視化與分析結(jié)果可視化子模塊會把檢測結(jié)果用直觀形式呈現(xiàn)給用戶并且提供詳細(xì)信息,系統(tǒng)能夠支持多種可視化方式,如邊界框標(biāo)注、關(guān)鍵點(diǎn)標(biāo)注等,用戶可按照自身需要靈活進(jìn)行切換,對于每個檢測到的字符系統(tǒng)不僅顯示其位置信息還給出類別標(biāo)識和置信度評分,并且將檢測到的字符自動匹配到對應(yīng)的現(xiàn)代漢字以方便研究人員理解分析。圖6-4非模糊拓片單字識別流程該子模塊還支持實(shí)時(shí)調(diào)整檢測進(jìn)度,針對甲骨文視頻檢測用戶能通過進(jìn)度條控制檢測過程來暫停、繼續(xù)或停止檢測任務(wù)以靈活適應(yīng)不同工作需求,圖像檢測示例如圖6-4所示,涵蓋從非模糊拓片圖像導(dǎo)入到結(jié)果可視化的完整過程,圖6-5中(a)、(b)(c)、(d)分別展示對甲骨文單字非模糊拓片圖像、甲骨文多字非模糊拓片圖像、甲骨文非模糊拓片視頻、甲骨文多字模糊拓片的識別結(jié)果。圖6-5多種類型識別對比6.3.3數(shù)據(jù)存儲與導(dǎo)出圖6-6識別結(jié)果保存數(shù)據(jù)存儲與導(dǎo)出模塊負(fù)責(zé)管理檢測結(jié)果數(shù)據(jù),提供結(jié)果保存與導(dǎo)出功能。對于檢測完成的圖像,該模塊支持將處理后的圖像以及檢測數(shù)據(jù)保存至用戶指定的目錄,識別結(jié)果保存示例如圖6-6所示。圖像保存時(shí)會保留檢測標(biāo)注信息,能直觀展示檢測結(jié)果,數(shù)據(jù)導(dǎo)出是以CSV格式存儲檢測到的甲骨文字符詳細(xì)信息,涵蓋位置坐標(biāo)、類別、中文釋義和置信度等內(nèi)容,方便后續(xù)進(jìn)一步分析研究。該模塊在檢測完成之后會自動激活,用戶可通過界面上的保存按鈕執(zhí)行導(dǎo)出操作,在導(dǎo)出過程中,系統(tǒng)會檢查目標(biāo)路徑的有效性,以此確保數(shù)據(jù)能夠正確保存,同時(shí)為避免數(shù)據(jù)覆蓋情況,系統(tǒng)會對同名文件進(jìn)行檢測,并提示用戶確認(rèn)操作。針對視頻處理的多個圖像結(jié)果,該模塊支持一次性全部導(dǎo)出以提高工作效率。7安全性與經(jīng)濟(jì)性在設(shè)計(jì)和應(yīng)用甲骨文智能識別系統(tǒng)的過程中,安全性與經(jīng)濟(jì)性屬于需重點(diǎn)考量的核心要素,本設(shè)計(jì)系統(tǒng)依靠嚴(yán)謹(jǐn)?shù)脑L問控制機(jī)制保障數(shù)據(jù)和模型的可靠性,同時(shí)用合理的成本投入實(shí)現(xiàn)高效的文化遺產(chǎn)數(shù)字化保護(hù),展現(xiàn)出顯著的技術(shù)價(jià)值與應(yīng)用潛力。7.1安全性分析本文的甲骨文智能識別系統(tǒng)在安全性設(shè)計(jì)方面采取了多層次防護(hù)策略,系統(tǒng)采用本地化存儲方案將所有圖像和識別結(jié)果直接存于本地?cái)?shù)據(jù)庫,以此避免網(wǎng)絡(luò)傳輸過程中可能出現(xiàn)的數(shù)據(jù)泄露風(fēng)險(xiǎn),在權(quán)限管理方面系統(tǒng)基于PyQt5框架實(shí)現(xiàn)嚴(yán)格分級訪問控制機(jī)制,普通用戶僅能進(jìn)行圖像上傳、基礎(chǔ)處理與結(jié)果查看操作,管理員用戶則可調(diào)整系統(tǒng)參數(shù)、管理數(shù)據(jù)集、導(dǎo)出分析結(jié)果和配置用戶權(quán)限,登錄驗(yàn)證模塊通過user.csv文件存儲用戶賬號信息且每次登錄時(shí)進(jìn)行身份驗(yàn)證,以此防止未授權(quán)訪問情況出現(xiàn),系統(tǒng)使用標(biāo)準(zhǔn)密碼驗(yàn)證機(jī)制來確保用戶信息的安全。本研究針對系統(tǒng)穩(wěn)定性采用模塊化設(shè)計(jì)架構(gòu),把圖像預(yù)處理、目標(biāo)檢測與分類識別功能獨(dú)立封裝起來,這樣任何單一模塊故障都不會致使整個系統(tǒng)崩潰,系統(tǒng)日志記錄功能可自動追蹤所有關(guān)鍵操作,方便管理員開展安全審計(jì)與異常排查工作,對于甲骨文拓片常有的噪聲干擾和字符破損問題,預(yù)處理模塊融合了Laplace邊緣增強(qiáng)、稀疏表示與低秩逼近去噪等技術(shù),極大提升了圖像質(zhì)量,經(jīng)實(shí)驗(yàn)驗(yàn)證,對存在劃痕或點(diǎn)狀噪聲的拓片處理之后,字符筆畫連續(xù)性得到明顯改善,為后續(xù)分割與識別提供可靠輸入,在系統(tǒng)壓力測試當(dāng)中,連續(xù)處理高分辨率拓片時(shí)內(nèi)存占用率能保持穩(wěn)定,響應(yīng)時(shí)間波動范圍也處于可控狀態(tài),展現(xiàn)出良好的運(yùn)行穩(wěn)定性。7.2經(jīng)濟(jì)性分析本系統(tǒng)在經(jīng)濟(jì)性方面有著突出的表現(xiàn),重點(diǎn)體現(xiàn)在開發(fā)成本控制和應(yīng)用效益這兩個層面,系統(tǒng)核心框架是基于開源技術(shù)棧來構(gòu)建的,其中包含PyTorch深度學(xué)習(xí)框架與PyQt5界面庫,有效規(guī)避了商業(yè)軟件授權(quán)費(fèi)用問題,核心成本主要集中在硬件配置和數(shù)據(jù)標(biāo)注環(huán)節(jié),通過進(jìn)行算法優(yōu)化以及模型裁剪操作,系統(tǒng)能夠在主流GPU配置上流暢運(yùn)行起來,避免了對高端硬件產(chǎn)生過度依賴情況,降低了系統(tǒng)的部署門檻,基于NVIDIAGeForceRTX4090GPU的訓(xùn)練環(huán)境可支持多模型并行優(yōu)化工作,相較于傳統(tǒng)CPU訓(xùn)練效率提升得十分顯著,縮短了模型的迭代周期。從應(yīng)用效益的角度來看,系統(tǒng)自動化識別流程把單張甲骨拓片處理時(shí)間從傳統(tǒng)人工分析的數(shù)小時(shí)縮短到幾秒鐘,這大幅提高了工作效率,以一幅包含密集字符的復(fù)雜拓片作為例子,系統(tǒng)能夠快速完成分割、識別并輸出字符位置與類別信息,極大減輕了專業(yè)人員的工作負(fù)擔(dān),系統(tǒng)生成的數(shù)字化結(jié)果可直接用于構(gòu)建甲骨文數(shù)據(jù)庫,減少了后續(xù)人工校對的工作量,為學(xué)術(shù)研究提供了結(jié)構(gòu)化數(shù)據(jù)支撐,模塊化的系統(tǒng)架構(gòu)支持功能擴(kuò)展,未來可通過集成語義分析或歷史文獻(xiàn)關(guān)聯(lián)模塊,進(jìn)一步挖掘甲骨文研究的應(yīng)用價(jià)值,實(shí)現(xiàn)長期成本效益的持續(xù)釋放,系統(tǒng)的主要成本來源于初期的模型訓(xùn)練與數(shù)據(jù)標(biāo)注,隨著識別精度的不斷提升,維護(hù)成本將逐步降低,從長期經(jīng)濟(jì)效益來看,系統(tǒng)能夠支持大規(guī)模甲骨文數(shù)字化工作,具有顯著的應(yīng)用價(jià)值。8總結(jié)與展望8.1工作總結(jié)本研究著眼于甲骨文原始拓片單字自動分割與識別這一技術(shù)難題,設(shè)計(jì)出一套完整的智能處理系統(tǒng)方案,并且實(shí)現(xiàn)了從理論到實(shí)踐的系統(tǒng)化突破,研究提出一種多階段甲骨文圖像預(yù)處理方法,融合Laplace變換、稀疏表示與低秩逼近去噪、同態(tài)濾波和高斯濾波等技術(shù),有效解決拓片圖像中的噪聲干擾、對比度不均等問題,為后續(xù)處理奠定良好基礎(chǔ)。在單字分割方面,基于YOLO算法開發(fā)出自適應(yīng)分割模型,通過引入SIoU損失函數(shù)顯著提升小字符檢測精度,實(shí)現(xiàn)90.1%的檢測準(zhǔn)確率,為復(fù)雜拓片中的密集字符提供精準(zhǔn)定位能力。針對文字識別任務(wù),構(gòu)建多模型對比實(shí)驗(yàn)平臺,系統(tǒng)評估多種典型卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),發(fā)現(xiàn)GoogLeNet和YOLOv8在甲骨文字識別任務(wù)上表現(xiàn)優(yōu)異,分別達(dá)到93.7%和94.5%的識別準(zhǔn)確率,證明YOLOv8方法在古文字識別領(lǐng)域的有效性。本研究依托PyQt5框架設(shè)計(jì)出完整的甲骨文智能識別平臺,集成圖像去噪、目標(biāo)分割和字符識別核心功能模塊,實(shí)現(xiàn)全流程自動化處理,系統(tǒng)用戶界面設(shè)計(jì)得直觀又友好,能通過可視化界面同步呈現(xiàn)檢測框坐標(biāo)與字符釋義,還支持識別結(jié)果結(jié)構(gòu)化導(dǎo)出等多種功能,給甲骨文研究人員提供了便捷高效工作的工具,同時(shí)系統(tǒng)設(shè)計(jì)了嚴(yán)格權(quán)限管理和數(shù)據(jù)安全機(jī)制確保文化遺產(chǎn)數(shù)據(jù)數(shù)字化過程中的安全性與完整性,系統(tǒng)在實(shí)際應(yīng)用測試中展現(xiàn)出較高穩(wěn)定性和可靠性,以技術(shù)創(chuàng)新和工程實(shí)踐相結(jié)合方式為甲骨文研究提供高效數(shù)字化工具,展示出人工智能技術(shù)在文化遺產(chǎn)保護(hù)中的應(yīng)用價(jià)值。8.2工作展望本文的研究工作盡管取得了初步成果,但接下來的路任重道遠(yuǎn),還有許多有待解決的問題和更進(jìn)一步的研究方向。深度學(xué)習(xí)在圖像識別、目標(biāo)檢測、關(guān)鍵點(diǎn)定位及語義理解領(lǐng)域展現(xiàn)出突出能力,若應(yīng)用于甲骨文數(shù)據(jù)集,則可嘗試相關(guān)算法,為甲骨文學(xué)提供新的研究視角,并為實(shí)現(xiàn)未知甲骨文字的智能解析奠定基礎(chǔ)。。參考文獻(xiàn)高旭.基于卷積神經(jīng)網(wǎng)絡(luò)的甲骨文識別研究與應(yīng)用[D].吉林大學(xué),2021.張更明.甲骨文:解讀中華文明的古老密碼[J].協(xié)商論壇,2023,(11):56-58.GaoF,LiuY,LiD,etal.Informationdisentanglementforunsuperviseddomainadaptiveoracleboneinscriptionsdetection[J].SignalProcessing:ImageCommunication,2025:117-334.宋傳鳴,周雨晴,張晉豪,等.連通區(qū)域拓?fù)浣Y(jié)構(gòu)約束的甲骨拓片圖像分割[J].閩南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,36(04):35-50.劉國英.基于深度學(xué)習(xí)的甲骨文字檢測與識別[J].殷都學(xué)刊,2020,41(03):54-59.劉夢婷.基于深度卷積神經(jīng)網(wǎng)絡(luò)的甲骨文字識別研究[D].鄭州大學(xué),2020.劉洋,陸逸,魏鈺馳,等.甲骨文識別技術(shù)研究現(xiàn)狀與展望[J].知識管理論壇,2023,8(02):115-125.LiuM,LiuG,LiuY,etal.Oracleboneinscriptionsrecognitionbasedondeepconvolutionalneuralnetwork[J].Journalofimageandgraphics,2020,8(4):114-119.王帥,李鵬,蘇倩文.甲骨文信息化研究之路簡述[J].黃河.黃土.黃種人,2022,(18):16-21.舒城.基于圖像顯著性的圖像場景分類算法研究[D].南京郵電大學(xué),2020.龔芳媛,方冰杰,程雪佼,等.基于改進(jìn)YOLOv5的路面裂縫檢測算法[J].大連理工大學(xué)學(xué)報(bào),2024,64(03):314-322.徐光達(dá),毛國君.多層級特征融合的無人機(jī)航拍圖像目標(biāo)檢測[J].計(jì)算機(jī)科學(xué)與探索,2023,17(03):635-645.萬溪洲.基于改進(jìn)的全卷積網(wǎng)絡(luò)遙感圖像語義分割算法研究[D].湖北工業(yè)大學(xué),2021.Al-JawfiR.HandwritingArabiccharacterrecognitionLeNetusingneuralnetwork[J].Int.ArabJ.Inf.Technol.,2009,6(3):304-309.PurwonoP,Ma'arifA,RahmaniarW,etal.Understandingofconvolutionalneuralnetwork(cnn):Areview[J].InternationalJournalofRoboticsandControlSystems,2022,2(4):739-748.王琦琦.基于深度卷積神經(jīng)網(wǎng)絡(luò)的甲骨文精確識別[D].江西科技師范大學(xué),2020.韋鵬程,趙宇,張宗銀.基于人工智能算法的研究與應(yīng)用[M].中國原子能出版社,2021.AlomMZ,TahaTM,YakopcicC,etal.Thehistorybeganfro
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 深度解析(2026)《GBT 19230.6-2003評價(jià)汽油清凈劑使用效果的試驗(yàn)方法 第6部分汽油清凈劑對汽油機(jī)進(jìn)氣閥和燃燒室沉積物生成傾向影響的發(fā)動機(jī)臺架試驗(yàn)方法(M111法)》
- 環(huán)境暴露在疾病預(yù)防一級中的策略應(yīng)用
- 乘用車建設(shè)項(xiàng)目可行性分析報(bào)告(總投資22000萬元)
- 餐飲經(jīng)理面試題及服務(wù)管理經(jīng)驗(yàn)含答案
- 特殊群體(留守兒童)的干預(yù)方案
- 核化工操作員面試題集
- 深度解析(2026)《GBT 18794.4-2003信息技術(shù) 開放系統(tǒng)互連 開放系統(tǒng)安全框架 第4部分抗抵賴框架》
- 特殊人群麻醉考量與方案調(diào)整
- 深度解析(2026)《GBT 18511-2017煤的著火溫度測定方法》
- 核電廠輻射防護(hù)工作實(shí)踐經(jīng)驗(yàn)面試題
- 采購法律法規(guī)考試題
- 軍隊(duì)文職面試運(yùn)輸投送專業(yè)知識精講
- 2025成都輔警筆試題庫及答案
- 職業(yè)院校教師企業(yè)實(shí)踐匯報(bào)
- 2025年廣東省職業(yè)病診斷醫(yī)師考試(職業(yè)性耳鼻喉口腔疾?。y試題及答案
- 2025貴州省消防救援總隊(duì)訓(xùn)練與戰(zhàn)勤保障支隊(duì)政府專職消防員招錄6人考試參考試題及答案解析
- 市民熱線培訓(xùn)課件下載
- 護(hù)理九防知識培訓(xùn)內(nèi)容記錄課件
- 醫(yī)院公文寫作課件
- 2025年時(shí)事政治試題庫及答案
- 化工氫化考試題庫及答案
評論
0/150
提交評論