基于深度學習的工業(yè)儀表自動讀數(shù)方法的研究_第1頁
基于深度學習的工業(yè)儀表自動讀數(shù)方法的研究_第2頁
基于深度學習的工業(yè)儀表自動讀數(shù)方法的研究_第3頁
基于深度學習的工業(yè)儀表自動讀數(shù)方法的研究_第4頁
基于深度學習的工業(yè)儀表自動讀數(shù)方法的研究_第5頁
已閱讀5頁,還剩39頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

基于深度學習的工業(yè)儀表自動讀數(shù)方法的研究2025-05-25PART01PART02PART03摘要預備知識YOLOv8指針式儀表讀數(shù)PART04PART05PART06YOLOv11指針式儀表讀數(shù)指針式與數(shù)字式儀表自動讀數(shù)系統(tǒng)系統(tǒng)的實現(xiàn)PART07PART08PART09實驗結(jié)果與分析總結(jié)與展望參考文獻摘要01智能巡檢機器人局限01智能巡檢機器人在工業(yè)中廣泛應用,但場景適應性和實用性低,且部署在移動設備上消耗的計算資源較大,不能良好的處理實時問題。人工讀數(shù)問題02人工讀數(shù)耗費人力、財力,且讀數(shù)記錄誤差較大。研究指出,現(xiàn)有指針式儀表識別方法各有優(yōu)劣,需結(jié)合深度學習目標檢測與圖像處理算法進行改進。輕量化方法03基于深度學習目標檢測算法與圖像處理算法相結(jié)合的輕量化方法,能顯著提升指針式儀表自動讀數(shù)的準確率和穩(wěn)定性,且對不同場景下的指針適應性較強。研究背景與意義指針式儀表自動讀數(shù)研究現(xiàn)狀傳統(tǒng)圖像處理和深度學習算法在指針式儀表檢測中各有優(yōu)勢,但傳統(tǒng)算法受環(huán)境影響大,深度學習算法則通過YOLO等模型實現(xiàn)高精度檢測。數(shù)字式儀表讀數(shù)方法數(shù)字式工業(yè)儀表識別結(jié)合傳統(tǒng)圖像處理和深度學習OCR技術(shù),通過模板匹配、二值化、灰度化及深度學習模型實現(xiàn)高精度字符提取與識別。深度學習相關(guān)算法目標檢測和圖像分割是計算機視覺核心,兩階段算法精度高但速度慢,單階段算法速度快但小目標檢測較弱,YOLO系列模型在速度與精度間提供良好平衡。國內(nèi)外研究現(xiàn)狀存在的問題儀表自動讀數(shù)數(shù)據(jù)集受圖像質(zhì)量、環(huán)境、儀表盤多樣性和復雜性及指針式儀表盤特殊挑戰(zhàn)等因素影響,傳統(tǒng)圖像處理技術(shù)難以識別,本文采用深度學習方法進行研究。指針式儀表讀數(shù)方法改進YOLOv8和YOLOv11模型,通過輕量化設計和關(guān)鍵點檢測實現(xiàn)高精度儀表讀數(shù),解決精度與計算量問題,并提升檢測速度。數(shù)字儀表讀數(shù)方法基于YOLOv8模型實現(xiàn)數(shù)字儀表讀數(shù),通過數(shù)據(jù)集標注、位置檢測、字符識別和推理完成讀數(shù),并設計前后端系統(tǒng)實現(xiàn)檢測結(jié)果實時顯示。存在的問題與工作緒論第四章第五章第六章第三章預備知識介紹本文的研究背景和意義,國內(nèi)外研究現(xiàn)狀以及深度學習研究現(xiàn)狀,介紹本文研究工作中的重難點以及主要工作內(nèi)容,最后給出本文的結(jié)構(gòu)安排。介紹了目標檢測以及目標檢測算法最為流行的算法,本文主要使用YOLO系列目標檢測算法,本章節(jié)還詳細介紹了YOLO系列算法。介紹了基礎預備知識,提出了兩種輕量化改進,并通過角度法計算讀數(shù),包含了實驗環(huán)境、數(shù)據(jù)集標注、評價指標和實驗結(jié)果,保證了精度并提升了檢測速度。由于將系統(tǒng)部署到移動端需要更為的輕量化,基于最新、最輕量的目標檢測模型進行實驗;通過對YOLOv11進行兩種形式的改進,提升準確率并輕量化模型,適合移動端部署?;赮OLOv8目標檢測數(shù)字儀表讀數(shù),通過數(shù)據(jù)集標注、位置檢測、模型訓練和推理完成讀數(shù),并實現(xiàn)工業(yè)儀表自動讀數(shù)系統(tǒng),選擇圖片即可檢測讀數(shù)。總結(jié)了文章所提出的兩種指針式儀表檢測方法和數(shù)字式儀表檢測方法;針對本文算法研究的局限性進行了簡要的分析,并對以后的工作改進做出了對未來的展望。論文結(jié)構(gòu)安排預備知識02目標檢測的重要性目標檢測旨在從圖片或視頻中確定物體位置并定義邊框和分類標記,廣泛應用于自動駕駛、安全監(jiān)控和醫(yī)學圖像分析等領域。包括傳統(tǒng)機器視覺算法和深度學習算法;傳統(tǒng)方法涉及數(shù)據(jù)準備、特征提取、分類和后處理,而深度學習算法分為兩階段和單階段。如R-CNN、FastR-CNN和FasterR-CNN,先生成候選區(qū)域,再分類和回歸,精度高但速度較慢,適用于醫(yī)學影像分析和安防監(jiān)控。如SSD、RetinaNet和YOLO,直接從輸入圖像檢測,速度較快,實時性高,雖精度略遜于兩階段算法,適用于自動駕駛和視頻監(jiān)控。YOLO系列模型作為單階段算法的代表,經(jīng)過改進后其準確率已超越FasterRCNN,實現(xiàn)快速推理同時保持高準確率。目標檢測的研究方法單階段檢測算法的優(yōu)勢YOLO系列的性能改進兩階段檢測算法的特點目標檢測YOLOv101開創(chuàng)性地將目標檢測轉(zhuǎn)化為單一回歸問題,通過劃分網(wǎng)格和預測邊界框及置信度實現(xiàn)檢測,能夠在一次前向傳播中完成檢測和分類,適用于實時目標檢測任務。YOLOv202在YOLOv1基礎上改進網(wǎng)絡結(jié)構(gòu)、引入錨框、支持多尺度訓練、添加批量歸一化、使用高分辨率分類器、維度聚類確定錨框尺寸,并改進邊框回歸和細粒度特征提取。YOLOv303在YOLOv3中,通過使用Darknet-53主干網(wǎng)絡、設計多樣化的先驗框、引入殘差連接、使用錨框和K-means聚類優(yōu)化錨框尺寸,提高了目標檢測的準確性和魯棒性。YOLO系列01系列模型經(jīng)多代改進,最新YOLOv7及YOLOv8在保持高速度同時提升準確性,采用創(chuàng)新技術(shù)如CSPDarknet53、FPN、數(shù)據(jù)增強和優(yōu)化錨框尺寸,滿足不同應用需求。YOLOv4-YOLo702最新模型,用于目標檢測和實例分割,相比YOLOv5、YOLOv7更先進,支持多種模型規(guī)模,采用全新架構(gòu)設計,提升檢測性能與推理速度,并在多個視覺任務中表現(xiàn)卓越。YOLOv803是YOLO系列第九代版本,采用基于骨干網(wǎng)絡的輕量化設計;提出可編程梯度信息概念,設計輕量級GELAN架構(gòu),證實PGI在輕量級模型上取得優(yōu)異結(jié)果。YOLOv904YOLO系列最新模型,解決后處理和架構(gòu)不足,通過消除NMS和優(yōu)化組件,以降低計算開銷,實現(xiàn)先進性能;適用于實時應用,如自動駕駛和監(jiān)控;未來將關(guān)注速度、精度和大規(guī)模部署。YOLOv10YOLO系列YOLOv8指針式儀表讀數(shù)03Backbone改進Double-Conv的計算量GhostConv改進Ghost模塊Double-conv替換ConvHead改進以改進輕量級卷積神經(jīng)網(wǎng)絡Double-conv作為主干卷積網(wǎng)絡模塊進行特征提取,進一步實現(xiàn)模型輕量化,保留模型原架構(gòu)中的SPPF(SpatialPyramidPoolingFusion)模塊。保留關(guān)鍵點損失函數(shù),將主卷積模塊替換為Ghost-conv,使模型進一步輕量化;改進的YOLOv8n網(wǎng)絡結(jié)構(gòu)旨在提升儀表盤讀數(shù)準確度,通過輕量化設計提高檢測效率與精度。YOLOv8因?qū)訑?shù)增加而面臨計算挑戰(zhàn),我們提出Double-conv以減少計算量和參數(shù)量,通過群組卷積和1×1、3×3卷積結(jié)合,使模型輕量化并保留特征提取能力。Double-Conv替換YOLOv8主干Backbone、Neck部分的Conv模塊,繼承特征提取能力并減少冗余,實現(xiàn)模型輕量化,提升檢測速度,同時保持高效的特征提取能力。GhostConv通過線性變換生成多特征圖,減少計算量,利用DepthwiseConvolution和批量歸一化、Relu生成特征圖,拼接成完整特征圖,降低參數(shù)量和計算量。Ghost模塊減少計算成本,保持識別性能,集成到CNN架構(gòu)中簡單高效,提升效率,特別適合資源有限的嵌入式系統(tǒng),使其成為提高效率的通用解決方案。改進的YOLOv8儀表盤圖像矯正透視變換角度法計算讀數(shù)角度法計算讀數(shù)透視變換矯正圖像訓練得到最佳模型后,通過該模型獲取儀表位置關(guān)鍵點;因數(shù)據(jù)集圖像拍攝角度不同,可能導致圖片歪斜,需對儀表盤圖像進行矯正,確保讀數(shù)準確性。利用透視變換方法矯正儀表盤圖像,通過檢測最小、最大刻度點、表盤中心點及圖像中心刻度點,進行透視變換定位,確保儀表盤圖像居中,為準確讀數(shù)做準備。透視變換后,通過向量V1、V2、V3計算夾角,利用角度法公式讀取讀數(shù)。角度法簡化計算,減少誤差,是有效的讀數(shù)方式。透視變換是一種幾何變換,用于將圖像從一個視角映射到另一個視角,矯正由于拍攝角度、位置偏移等原因引起的透視畸變,通過3×3透視變換矩陣實現(xiàn)。儀表讀數(shù)通常有兩種方式,一種是距離法,另外一種是角度法。因距離法復雜且易誤,選取角度法計算讀數(shù);通過提取坐標點、計算角度,利用刻度比例獲取實際讀數(shù)。通過改進的YOLOv8模型得到儀表盤坐標點信息后,利用向量v1、v2、v3計算指針與量程向量間的角度,結(jié)合向量外積判斷旋轉(zhuǎn)方向,最終得出儀表讀數(shù)。圖像矯正與計算讀數(shù)采用公開的數(shù)據(jù)集LPD流量計數(shù)據(jù)集和PICT流量計數(shù)據(jù)集作為訓練和測試的基礎數(shù)據(jù)。每個數(shù)據(jù)集均包含流量計的圖像以及對應的流量讀數(shù)。使用Double-conv和Ghost-conv分別替換YOLOv8n的Backbone和Head中的卷積模塊。經(jīng)過訓練和優(yōu)化后,在測試集上進行性能評估。改進YOLOv8實驗實驗數(shù)據(jù)集實驗和結(jié)果在LPD數(shù)據(jù)集上,改進的YOLOv8n模型在精度和召回率上均有顯著提升,同時滿足實時性要求;在PICT數(shù)據(jù)集上同樣表現(xiàn)出色。YOLOv8n實驗結(jié)果通過Double-conv和Ghost-conv的替換,YOLOv8n模型在保持高性能的同時實現(xiàn)了輕量化,減少了計算資源和參數(shù)數(shù)量。輕量化與性能平衡實驗結(jié)果與分析YOLOv8n改進對YOLOv8n模型進行了改進,主要是在Backbone和Head部分給出修改方案,旨在提升儀表盤讀數(shù)的準確度,同時確保模型輕量化。實驗結(jié)果在兩個流量計數(shù)據(jù)集上進行了實驗驗證。結(jié)果表明改進后的模型在提升精度和召回率方面取得了顯著成效,同時滿足實時性要求。本章小結(jié)YOLOv11指針式儀表讀數(shù)04YOLOv11特性YOLOv11是YOLO系列模型的最新成員,其創(chuàng)作者是一個開源社區(qū),由計算機視覺和深度學習領域的研究人員和開發(fā)者共同協(xié)作進行開發(fā)。YOLOv11引入了多項新功能和改進,旨在提高性能和靈活性,成為各類目標檢測和跟蹤任務的優(yōu)選模型,為視覺應用帶來強大支持。采用了更深的特征提取網(wǎng)絡,如ResNet和Darknet,以增強特征提取和表達能力。同時,對YOLOV3的網(wǎng)絡結(jié)構(gòu)進行了優(yōu)化。通過采用更多的數(shù)據(jù)增強策略來增加訓練數(shù)據(jù)的多樣性和泛化能力,并引入了新的損失函數(shù)以優(yōu)化目標框的位置和尺寸預測精度。采用了更精準的類別推理策略以提高目標檢測的準確性和魯棒性,并引入了輕量化模型的設計思路以降低模型的計算量和參數(shù)數(shù)量。性能與靈活性提升數(shù)據(jù)增強與損失函數(shù)類別推理與輕量化模型特征提取與網(wǎng)絡優(yōu)化改進的YOLOv11模型輕量化驗證通過在資源受限的環(huán)境下進行測試,驗證了改進的YOLOv11模型在保持高精度的同時,其推理速度也得到了顯著提升。實驗設置與數(shù)據(jù)集我們使用公開的儀表數(shù)據(jù)集對改進的YOLOv11模型進行了訓練和測試,該數(shù)據(jù)集包含了指針式儀表的圖像及其標注信息。評估指標采用平均精度(AP)和召回率(Recall)作為評估指標。平均精度反映了模型對儀表讀數(shù)的識別準確率,而召回率則反映了模型的魯棒性。實驗結(jié)果實驗結(jié)果顯示,改進的YOLOv11模型在儀表讀數(shù)識別任務中表現(xiàn)優(yōu)異,相較于其他YOLO版本,其平均精度有了顯著提升。實驗結(jié)果與分析YOLOv11模型改進01通過采用更深的特征提取網(wǎng)絡、優(yōu)化網(wǎng)絡結(jié)構(gòu)、增加數(shù)據(jù)增強策略、改進損失函數(shù)以及采用精準的類別推理策略等方面對YOLOv11模型進行了改進。輕量化與高效性02改進的YOLOv11模型在保持高精度的同時,具有輕量化和高效性的特點。通過使用輕量化模型的設計思路,有效降低了模型的計算量和參數(shù)數(shù)量。實驗驗證與性能提升03通過實驗驗證,改進的YOLOv11模型在儀表讀數(shù)識別任務中表現(xiàn)卓越,不僅平均精度有了顯著提升,且推理速度更快,滿足了實時性要求。本章小結(jié)指針式與數(shù)字式儀表自動讀數(shù)系統(tǒng)05指針式儀表讀數(shù)方案對于指針式儀表,提出了一種改進的YOLOv8目標檢測儀表讀數(shù)方法,通過對表盤區(qū)域進行標注,提取出表盤區(qū)域圖片,制作成新的數(shù)據(jù)集。輕量級模型設計提出了一種改進的YOLOv8目標檢測模型,分別在模型主干部分和模型檢測頭部分進行了改進,使模型在保持高精度的同時使模型變得更佳輕量。YOLOv11儀表讀數(shù)提出了一種改進的YOLOv11目標檢測儀表讀數(shù)方法,YOLOv11是最新YOLO系列模型,有著更高的準確率以及更佳輕量,解決了精度與計算量的問題。儀表關(guān)鍵點檢測檢測儀表的同時,檢測出儀表表盤上的表盤中心點,指針尖點,刻度最小最大值點等關(guān)鍵點坐標信息,之后利用關(guān)鍵點坐標信息計算儀表讀數(shù)。指針式儀表讀數(shù)系統(tǒng)YOLOv8讀數(shù)方法基于YOLOv8目標檢測模型的數(shù)字儀表讀數(shù)方法,對數(shù)據(jù)集圖片進行數(shù)字區(qū)域位置檢測,使用YOLOv8對目標區(qū)域進行定位,對數(shù)字區(qū)域進行字符檢測。數(shù)字儀表讀數(shù)流程通過訓練后得到最優(yōu)模型,使用最右模型對數(shù)據(jù)集進行推理,后可得到目標框數(shù)數(shù)據(jù)點坐標,后通過使用算法對數(shù)據(jù)點坐標進行轉(zhuǎn)換,轉(zhuǎn)換成所標注的類別名。數(shù)字式儀表讀數(shù)系統(tǒng)設計了一種能夠?qū)崿F(xiàn)指針式儀表和數(shù)字式儀表的前后端系統(tǒng),通過使用PyQt5進行GUI開發(fā)和YOLO進行深度學習模型的推理。儀表自動讀數(shù)系統(tǒng)通過YOLO檢測到的信息通過算法進行處理,指針式儀表通過角度計算公式可以將最終讀數(shù)顯示在程序界面上,數(shù)字式儀表同樣是可在前端顯示最終讀數(shù)。儀表讀數(shù)顯示前端頁面上還是實現(xiàn)了顯示檢測時間,指針儀表的檢測角度、修改清楚等信息,這些信息能夠幫用戶了解檢測的過程和結(jié)果,提升使用的體驗。前端信息顯示本章小結(jié)系統(tǒng)的實現(xiàn)06智能巡檢機器人挑戰(zhàn)智能巡檢機器人在工業(yè)中廣泛應用,但儀表識別大多也是通過巡檢機器人來實現(xiàn)的,場景適應性和實用性低,且部署在移動設備上消耗的計算資源較大。人工讀數(shù)局限性人工讀數(shù)這種方式不僅需要耗費大量的人力、財力,而且讀數(shù)記錄產(chǎn)生的誤差較大,通過研究提出了一種基于深度學習目標檢測算法與圖像處理算法相結(jié)合。指針式儀表識別方法對指針式儀表自動讀數(shù)結(jié)果準確率大大提升且穩(wěn)定性較高,對不同場景下的指針適應性較強,主要取得了研究成果有提升識別準確率和穩(wěn)定性的方法。系統(tǒng)的實現(xiàn)YOLOv8精度與速度針對移動端設備資源有限問題,提出了YOLOv8目標檢測模型輕量化改進的儀表讀數(shù)方法,通過改進模型結(jié)構(gòu),在保持高準確率的同時,實現(xiàn)了輕量化。YOLOv11高效推理針對計算資源消耗大以及效率低的問題,提出了YOLOv11目標檢測模型輕量化改進的儀表讀數(shù)方法,并引入PP-Lconv模型進行Backbone部分的替換。優(yōu)化模型性能通過深度可分離卷積、H-Swish激活函數(shù)、SE模塊和大卷積核等改進,提升了網(wǎng)絡性能,同時通道剪枝和微調(diào)恢復了精度,使改進的YOLOv11模型性能大幅提升。系統(tǒng)的實現(xiàn)儀表識別系統(tǒng)使用PyQt5和YOLO進行GUI開發(fā)和深度學習模型推理,實現(xiàn)了圖像處理和實時反饋功能的程序,用戶可以導入圖像并執(zhí)行檢測查看結(jié)果。數(shù)顯儀表識別研究數(shù)顯儀表廣泛應用但部分缺乏接口,仍需依賴人工讀取數(shù)據(jù),易生人為誤差且效率低,文章運用深度學習技術(shù)提高識別準確性和實時性,對自動識別技術(shù)進行研究。系統(tǒng)的實現(xiàn)實驗結(jié)果與分析07實驗結(jié)果分析:文章對基于深度學習的工業(yè)儀表自動讀數(shù)方法進行了實驗驗證,通過對比實驗分析了該方法的有效性和準確性。實驗結(jié)果展示:文章展示了實驗結(jié)果,包括讀數(shù)準確率、穩(wěn)定性、適應性等指標,證明了該方法在工業(yè)儀表自動讀數(shù)中的優(yōu)勢。實驗結(jié)果與分析總結(jié)與展望08輕量化模型設計01為解決計算資源限制,本文設計了基于YOLOv8的輕量化模型,通過Double-conv和Ghost-conv減少參數(shù)和計算量,同時保證特征提取能力,提高檢測速度和精度。儀表盤讀數(shù)優(yōu)化02針對儀表盤讀數(shù)存在誤差的問題,本文提出了改進的YOLOv8模型,并基于圖像矯正和透視變換提高了讀數(shù)準確性,通過實驗驗證了該方法的有效性。實時反饋系統(tǒng)實現(xiàn)03利用PyQt5框架構(gòu)建了儀表讀數(shù)的實時反饋系統(tǒng),將深度學習模型的檢測結(jié)果直觀展示在界面上,方便用戶實時監(jiān)控和讀取儀表數(shù)據(jù),具有較高的實用價值??偨Y(jié)內(nèi)容未來工作可將進一步研究更多類型的儀表,如液位計、壓力傳感器等,擴大系統(tǒng)的通用性,使其能適應更多的工業(yè)檢測場景,提高智能檢測的覆蓋率。儀表類型擴展研究針對現(xiàn)有模型在復雜環(huán)境下的識別精度問題,將開展模型優(yōu)化研究,包括超參數(shù)調(diào)整、特征融合等,提高模型對相似儀表的區(qū)分能力和抗干擾能力。模型優(yōu)化與精度提升為了便于現(xiàn)場應用,將開展基于嵌入式系統(tǒng)的模型部署研究,包括硬件選型、系統(tǒng)優(yōu)化等,使系統(tǒng)能在資源受限的嵌入式設備上高效運行,降低系統(tǒng)成本。嵌入式系統(tǒng)部署后續(xù)工作展望參考文獻09[1]SablatnigR,RuppM,PardoB,etal.Robustreadingofinstrumentdials:anapproachbasedoncolorsegmentationandtemplatematching[J].ImageandVisionComputing,2000,18(13):10.[2]AlegriaP,ZapataE,MartinezA,etal.Automatedinstrumentdialreadingusingcolorimageprocessing[J].IEEETransactionsonInstrumentationandMeasurement,2006,55(6):2179-2186.[3]郭子海,鄭南寧,蘇光大.基于霍夫變換的實時儀表讀數(shù)識別方法[J].西安交通大學學報,2006(09):1017-1020.[4]孟祥雪.儀表盤圖像處理與讀數(shù)識別方法研究[D].哈爾濱工業(yè)大學,2012.[5]石偉,李艷,馮衍秋.基于圖像處理的指針式儀表自動檢測系統(tǒng)[J].計算機測量與控制,2013,21(02):477-479.[6]ZhangJ,SunZ,ZhouF,etal.Researchoninstrumentdialrecognitionbasedonmachinevision[J].JournalofIntelligent&FuzzySystems,2016,31(4):1677-1683.參考文獻[7]TongH,LiS,ZhangH,etal.Adaptiverecognitionmethodfordouble-pointermechanicalinstrumentsinpetroleumengineeringbasedonHoughtransform[J].JournalofPetroleumScienceandEngineering,2017,156:639-650.[8]HeK,GkioxariG,DollárP,etal.Maskr-cnn[C]//2017IEEEInternationalConferenceonComputerVision(ICCV).IEEE,2017:2980-2988.[9]RenS,HeK,GirshickR,etal.FasterR-CNN:towardspracticalobjectdetectionwithregionproposalnetworks[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2016,39(6):1137-1149.[10]劉晏,陳佳佳,張帆.基于YOLOv5s與DeepLabV3+的儀表讀數(shù)識別方法[J].計算機工程與設計,2021,42(04):1033-1038.[11]LiF,ChenY,WangB.Anindicatorrecognitionalgorithmdesignbasedonimageprocessing[C]//2019IEEEInternationalConferenceonImageProcessing(ICIP).IEEE,2019:478-482.參考文獻[12]彭道剛,馬志強,汪渤.基于YOLOv4與改進Hough變換的指針式儀表讀數(shù)方法[J].計算機工程與設計,2021,42(09):2475-2480.[13]陶中涵,彭宇,汪渤.基于改進YOLOv8與特征匹配的儀表識別算法[J].計算機工程與設計,2023,44(03):836-841.[14]張海波,許奚鋮,王東峰.基于深度學習的數(shù)字儀表讀數(shù)識別方法研究[J].計算機工程與應用,2019,55(15):155-160.[15]陳剛,王進華.基于列切的數(shù)字字符快速識別方法研究[J].計算機工程與應用,2019,55(24):157-162.[16]朱娜.深度學習與傳統(tǒng)圖像算法結(jié)合的儀表讀數(shù)識別研究[D].西安科技大學,2020.[17]KrizhevskyA,SutskeverI,HintonGE.Imagenetclassificationwithdeepconvolutionalneuralnetworks[C]//AdvancesinNeuralInformationProcessingSystems.2012:1097-1105.參考文獻[18]饒毅,彭宇,汪渤.基于YOLOv5的數(shù)字儀表識別算法研究[J].計算機工程與設計,2023,44(04):1234-1239.[19]GirshickR,DonahueJ,DarrellT,etal.Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation[C]//2014IEEEConferenceonComputerVisionandPatternRecognition.IEEE,2014:580-587.[20]RedmonJ,DivvalaS,GirshickR,etal.Youonlylookonce:unified,real-timeobjectdetection[C]//2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).IEEE,2016:779-788.[21]BochkovskiyA,WangCY,LiaoHYM.YOLOv5:betterultralyticsimplementationofYOLO[EB/OL].(2020-06-13)[2023-04-05]..[22]成鵬飛.基于深度學習的目標檢測算法研究[D].南京郵電大學,2019.[23]RedmonJ.YouOnlyLookOnce:unifiedreal-timeobjectdetection[EB/OL].(2016-03-15)[2023-04-05]..參考文獻[24]RedmonJ,FarhadiA.YOLOv2:better,_faster,%Ubetterstronger%[EB/OL].(2016-12-28)[2023-04-05]..[25]RedmonJ,FarhadiA.YOLOv3:anincrementalimprovement[EB/OL].(2018-04-08)[2023-04-05]..[26]BochkovskiyA,WangCY,LiaoHYM.YOLOv4:detectingobjectsinthewildwithYOLOv4%UYOLOv4detectingobjectsinthewildwithYOLOv4[EB/OL].(2020-04-15)[2023-04-05]..[27]JocherG.UltralyticsYOLOv5:bbiaaquicklookatwhat'snewinYOLOv5[EB/OL].(2021-06-15)[2023-04-05]..[28]MeituanResearchandAILabs.MeituanSharesYOLOv6:anEfficientAnchor-%UYOLOv6:anEfficientAnchor-%UYOLOv6AnchorFreeDetectorforIndustrialApplications[EB/OL].(2023-XX-%UYOLOv6AnchorFreeDetectorforIndustrialApplications[EB/OL]..參考文獻[29]WongKinYiu%,SoubbotinM%,Robinsonsamuel%,etal.%YOLOv7:%Toward%UYOLOv7%Toward%UYOLOv7FasterandStronger%UYOLOv7FasterandStrongerDetectionWithoutCompromisingAccuracy%UYOLOv7DetectionWithoutCompromisingAccuracy[EB/OL].(XXXX-%UYOLOv7DetectionWithoutCompromisingAccuracy[EB/OL]..[30]UltralyticsReleasesYOLOv8:%PowerfulNewModelforObjectDetectionandInstanceSegmentation%UYOLOv8:%PowerfulNewModelforObjectDetectionandInstanceSegmentation/blog/yolov8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv8.%UYOLOv

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論