版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
高空墜物智能檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)摘要:高空墜物智能檢測(cè)系統(tǒng)是智慧城市系統(tǒng)的一個(gè)重要組成部分,然而目前還沒有一款特定有關(guān)于高空墜物檢測(cè)的系統(tǒng)。為此使其不在是懸在城市上空的隱形殺手和加快智慧城市的發(fā)展,本文旨在基于嵌入式深度學(xué)習(xí)平臺(tái)設(shè)計(jì)了一套高空墜物智能檢測(cè)系統(tǒng)。首先,基于計(jì)算機(jī)視覺技術(shù)、深度學(xué)習(xí)圖像處理方法、運(yùn)動(dòng)估計(jì)原理以及卷積神經(jīng)網(wǎng)絡(luò)相關(guān)技術(shù)并通過對(duì)現(xiàn)場(chǎng)進(jìn)行實(shí)時(shí)監(jiān)控獲得墜物圖像數(shù)據(jù)后進(jìn)行深層理解與分析,自動(dòng)檢測(cè)場(chǎng)景中的異常事件與報(bào)警設(shè)計(jì)了高空墜物智能檢測(cè)系統(tǒng)。本系統(tǒng)實(shí)現(xiàn)了高空墜物檢測(cè),墜物預(yù)警,墜物識(shí)別的功能。其次基于嵌入式深度學(xué)習(xí)平臺(tái)對(duì)墜物檢測(cè)與墜物識(shí)別進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)分為基于TensorFlow遷移學(xué)習(xí)平臺(tái)的物體檢測(cè)和基于人工智能實(shí)驗(yàn)平臺(tái)的物體識(shí)別。最終實(shí)驗(yàn)結(jié)果表明本系統(tǒng)有效的實(shí)現(xiàn)了墜物檢測(cè)與墜物識(shí)別的功能并符合本系統(tǒng)設(shè)計(jì)要求從而有利于推動(dòng)智慧城市的發(fā)展。關(guān)鍵字:高空墜物;深度學(xué)習(xí);墜物識(shí)別;墜物檢測(cè);1緒論1.1研究意義隨著我國(guó)城市化的飛速發(fā)展和人民的生活水平日益的提高,高層建筑群已成為城市建筑的標(biāo)志。據(jù)不完全數(shù)據(jù)統(tǒng)計(jì),2019年中國(guó)城市總量已經(jīng)達(dá)到672城[1],然而,隨著城市高層建筑的日益增多,高空墜物的問題也隨之而來。2019年6月13日,深圳福田區(qū)5歲男孩小宇航被高空墜落的窗戶擊中。雖然被多方搶救,卻因傷致死。2019年6月19日下午,江蘇省南京市東寶路附近一名10歲女童在上學(xué)途中被墜物擊中頭部,被送往醫(yī)院治療。同一天江陰的一個(gè)男孩也被突然掉落的鋼管擊中,導(dǎo)致頭部受傷[2]。高空墜物多次傷人。墜物造成的人員傷亡時(shí)有發(fā)生。從問題的根源來看,這不僅是一個(gè)人員素養(yǎng)的問題,也是一個(gè)逐漸挑戰(zhàn)智慧城市公共安全風(fēng)險(xiǎn)問題。相關(guān)實(shí)驗(yàn)數(shù)據(jù)表明:一個(gè)30克的生雞蛋從4樓掉下會(huì)打暈路過的行人;從8樓掉下來會(huì)傷到行人頭皮。如果從18樓的自由落體上摔下來,可以砸碎行人的腦殼;從25樓掉下去會(huì)導(dǎo)致行人當(dāng)場(chǎng)死亡[3]。實(shí)驗(yàn)數(shù)據(jù)使人觸目驚心,因此解決高空墜物已經(jīng)迫在眉睫,為了解決高空墜物問題便產(chǎn)生了一系列利用計(jì)算機(jī)技術(shù)與計(jì)算機(jī)視覺結(jié)合實(shí)現(xiàn)的基于智能識(shí)別的高空物體墜落分析,對(duì)墜物目標(biāo)檢測(cè)[4]和計(jì)算機(jī)視覺技術(shù)[5]是解決高空墜物智能檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)的關(guān)鍵?;谝陨蠁栴},為了避免墜物在生活中的安全隱患,從源頭上減少墜物造成的事故,減少墜物造成的傷害,使墜物不再是籠罩城市的痛苦,開發(fā)一種智能的墜物檢測(cè)和自動(dòng)攔截裝置具有重要意義。。1.2國(guó)內(nèi)外研究現(xiàn)狀1.2.1墜物防護(hù)國(guó)內(nèi)外研究現(xiàn)狀目前,對(duì)生活環(huán)境中墜物安全性的研究主要從社會(huì)學(xué)、法學(xué)和管理學(xué)的角度進(jìn)行。在國(guó)內(nèi)各種建筑設(shè)計(jì)規(guī)范和標(biāo)準(zhǔn)中,關(guān)于防拋防墜的條款屈指可數(shù),涉及的范圍非常有限,主要是關(guān)于欄桿的高度和桿間距的寬度。另外提出了一些關(guān)于出入口防墜的一般性說法,但沒有過多涉及距離和大小的概念。但現(xiàn)行居住區(qū)規(guī)劃規(guī)范要求道路邊緣與建筑物、構(gòu)筑物保持一定距離。但就高空拋擲和墜落的安全性而言,規(guī)定值很難滿足要求,距離是根據(jù)道路等級(jí)來區(qū)分的,缺乏足夠的依據(jù),思路不夠科學(xué)[7]。在中國(guó),已經(jīng)從電子設(shè)備和管理方面研究了避免相關(guān)事故的措施,如安裝攝像頭進(jìn)行監(jiān)控和管理。一方面,由于設(shè)備投資大,適用范圍窄;另一方面,如果這些監(jiān)測(cè)和調(diào)查措施是以犧牲部分居民的正常行為需求為代價(jià)的,那么它們的立足點(diǎn)就不同于構(gòu)建和諧社會(huì)的要求和科學(xué)發(fā)展觀的主題。另外,從香港多年用電子設(shè)備監(jiān)測(cè)調(diào)查墜物的經(jīng)驗(yàn)來看,效果有限。[8]可見,國(guó)內(nèi)對(duì)高空墜物安全措施的研究不夠系統(tǒng)全面,出發(fā)點(diǎn)缺乏足夠的行為學(xué)依據(jù),而從建筑設(shè)計(jì)角度對(duì)墜物安全措施的研究一直是空白。與國(guó)內(nèi)相比,歐美國(guó)家更加重視建筑環(huán)境的安全性研究。20世紀(jì)六七十年代,一些歐美國(guó)家的社會(huì)學(xué)家、規(guī)劃師和建筑師開始關(guān)注建筑環(huán)境的安全性。目前,對(duì)這類安全問題的研究已經(jīng)達(dá)到了一定的深度。但其研究范圍主要集中在建筑工地的墜落、外墻材料的墜落、樓梯和建筑物的墜落等。而真正關(guān)注高空使用者、行人及其行為心理,從建筑設(shè)計(jì)和規(guī)劃角度探討解決方案的文獻(xiàn)卻很少。當(dāng)然,這種情況是東西方文化差異,以及社會(huì)發(fā)展等國(guó)情造成的。這部分不是本文的內(nèi)容。綜上所述,國(guó)內(nèi)外對(duì)于高空墜物造成的危害都沒有很好的解決方案。[9]1.2.2國(guó)內(nèi)外高空墜物攔截研究現(xiàn)狀目前為了彌補(bǔ)高空墜物智能預(yù)測(cè)攔截領(lǐng)域的空白。國(guó)內(nèi)研究者提出高空物體落點(diǎn)的理論模型,計(jì)算高空物體在施工現(xiàn)場(chǎng)的散射半徑,給出施工現(xiàn)場(chǎng)地面安全防護(hù)的水平寬度;這些研究理論具有很強(qiáng)的針對(duì)性,對(duì)本文研究的高空墜物智能檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)具有一定的參考意義。高空物體落點(diǎn)理論模型直接指出高空物體下落的運(yùn)動(dòng)軌跡,計(jì)算水平高度和初速度的理論公式,也直接指出下落物體的動(dòng)量。給定的安全防護(hù)水平寬度為我們研究設(shè)備的有效攔截半徑提供了重要的參考依據(jù),這就要求攔截器的有效攔截半徑應(yīng)大于或等于預(yù)期落物的下落半徑。雖然這一理論對(duì)于降低高空墜物帶來的危害有一定的意義,但主要用于建筑工地,適用范圍并不廣。國(guó)外研究者斯圖爾特·拉塞爾提出了一種外部物理知識(shí)輔助的無標(biāo)記監(jiān)督學(xué)習(xí)。[10]該方法在真實(shí)世界和模擬計(jì)算機(jī)視覺任務(wù)中效果良好,可以訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)來檢測(cè)和跟蹤目標(biāo)。最重要的是,這種方法可以顯著減少標(biāo)記訓(xùn)練數(shù)據(jù)的需要。一些研究人員通過用照相機(jī)進(jìn)行立體拍攝來獲得下落物體的三維數(shù)據(jù),然后分析這些數(shù)據(jù)[11]。也有關(guān)于自動(dòng)裝置的研究,這些裝置使用墜落物體檢測(cè)和識(shí)別系統(tǒng)(ODRS)和計(jì)算機(jī)視覺庫(kù)OPENCV來識(shí)別和推理墜落物體,并將信息轉(zhuǎn)換到處理器(工控機(jī))。以及根據(jù)摩爾理論計(jì)算三維物體可能墜落的捕捉區(qū)域的算法,有助于我們預(yù)測(cè)行人疏散的安全區(qū)域。1.2.3運(yùn)動(dòng)估計(jì)國(guó)內(nèi)外研究現(xiàn)狀運(yùn)動(dòng)目標(biāo)檢測(cè)是檢測(cè)運(yùn)動(dòng)部件(如行人、車輛、墜落物體等)。)從周圍靜態(tài)環(huán)境中,提取檢測(cè)區(qū)域幀,確定運(yùn)動(dòng)目標(biāo)的坐標(biāo)。通常分為兩種情況:一是觀察者處于靜止?fàn)顟B(tài),此時(shí)需要區(qū)分靜止背景區(qū)域和運(yùn)動(dòng)目標(biāo)區(qū)域。研究方法一般是分析運(yùn)動(dòng)目標(biāo)在幀前幀后視頻序列中的位置變化,或者根據(jù)靜止區(qū)域本身的先驗(yàn)知識(shí)進(jìn)行分析;第二,觀察者也處于運(yùn)動(dòng)狀態(tài)。此時(shí)不僅要分析運(yùn)動(dòng)目標(biāo)本身的運(yùn)動(dòng)變化,還要結(jié)合實(shí)際環(huán)境分析運(yùn)動(dòng)目標(biāo)與觀察者的相對(duì)運(yùn)動(dòng)關(guān)系,建立合適的運(yùn)動(dòng)模型[12]進(jìn)行求解。傳統(tǒng)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法包含背景減除法、幀間差分法、光流法[13]。在各自適合的場(chǎng)景下都取得了不錯(cuò)的效果,但也都有一定的缺點(diǎn)。隨著計(jì)算機(jī)視覺理論的發(fā)展和計(jì)算機(jī)計(jì)算性能的提高,許多學(xué)者對(duì)上述算法進(jìn)行了大量的改進(jìn),如基于邊緣特征的三幀差分算法[14],解決了目標(biāo)區(qū)域孔洞不完整的問題。光流信息被引入幀間差分法[15],提高了檢測(cè)的準(zhǔn)確性,但增加了計(jì)算的復(fù)雜性。在動(dòng)態(tài)背景、光照變化、同類干擾等復(fù)雜環(huán)境下,檢測(cè)效果會(huì)受到影響。背景減除法因其檢測(cè)效果準(zhǔn)確、提取目標(biāo)區(qū)域完整、抗干擾效果好而受到研究者的青睞。經(jīng)過深入的研究和創(chuàng)新,在工程中得到了廣泛的應(yīng)用。該方法的性能取決于背景的選擇和構(gòu)造,背景建模算法通常分為參數(shù)化和非參數(shù)化兩種。Stauffer等人在總結(jié)像素統(tǒng)計(jì)分布規(guī)律的基礎(chǔ)上,提出了一種基于高斯混合背景建模的GMM算法[16](GaussianMixureModel),在背景變化比較微小的情況下,檢測(cè)效果優(yōu)異,但是該算法的計(jì)算量大,復(fù)雜度高,是實(shí)際場(chǎng)景中無法保證實(shí)時(shí)性,因此難以推廣使用。ZivKovice[17]等人為了進(jìn)一步提升算法的效率,使用自適應(yīng)的方式去選擇高斯模型的個(gè)數(shù),本質(zhì)上是對(duì)混合高斯模型方法的改進(jìn)?;旌细咚鼓P托枰斯ふ{(diào)節(jié)很多參數(shù),參數(shù)的調(diào)試直接影響實(shí)驗(yàn)結(jié)果,為了解決這一問題,Elgammal[18]提出了一種非參數(shù)核密度估計(jì)的建模方法KDE(KernelDensityEstimation),在復(fù)雜環(huán)境中效果出色,目標(biāo)檢測(cè)精度高,但是該算法需要耗費(fèi)大量的存儲(chǔ)空間,且計(jì)算復(fù)雜度高,無法進(jìn)行工程應(yīng)用。2011年Barmich[19]提出了一種新穎的Vibe背景建模算法,初始化階段,首先對(duì)每個(gè)像素點(diǎn)都創(chuàng)建獨(dú)立的背景模型集合,然后從視頻中的第一幀隨機(jī)選取像素值填充模型集。在執(zhí)行目標(biāo)檢測(cè)階段,計(jì)算當(dāng)前幀各像素點(diǎn)與其對(duì)應(yīng)的模型集中的像素點(diǎn)的差異來判斷像素點(diǎn)屬于靜止背景或者運(yùn)動(dòng)前景,并提取前景目標(biāo)區(qū)域。Vibe算法簡(jiǎn)單,處理速度快,即使在動(dòng)態(tài)背景干擾或者輕微抖動(dòng)的環(huán)境下,這種算法也有良好的檢測(cè)效果。這種簡(jiǎn)單快捷的背景建模方法和快速有效的前景判斷方式比較適合實(shí)時(shí)場(chǎng)景下的運(yùn)動(dòng)目標(biāo)檢測(cè)。目前,Vibe算法因?yàn)槠渲T多的優(yōu)點(diǎn)和良好的性能,成為該領(lǐng)域研究的主流算法,例如:改進(jìn)版的Vibe+算法[20],在相機(jī)抖動(dòng),多峰背景,大面積閃爍像素等環(huán)境下提高了檢測(cè)的準(zhǔn)確性。此外,還有SOBS[21]算法,SACON[22]算法和Color[23]等背景建模的算法。2012年以后,卷積神經(jīng)網(wǎng)絡(luò)[24]CNN(ConvolutionalNeuralNetworks)發(fā)展迅速,在運(yùn)動(dòng)目標(biāo)檢測(cè)領(lǐng)域,CNN提供了一種新的研究思路和方法,將一系列視頻流中的序列當(dāng)做互相獨(dú)立的一幀,通過圖像的目標(biāo)檢測(cè)模型來處理每一幀圖片,在視頻中組合成動(dòng)態(tài)的效果。從2014年以來,相繼出現(xiàn)了如R-CNN(Region-CNN)[25]、FastR-CNN[26]、FasterR_CNN[27]等優(yōu)秀的目標(biāo)檢測(cè)模型,這些方法都是基于候選區(qū)域來進(jìn)行分類預(yù)測(cè)的思想,這種思想極大地提高了單幀圖像的檢測(cè)精度,但是,由于該方法需要在處理每一幀圖像時(shí)產(chǎn)生很多候選區(qū)域,而且針對(duì)每一個(gè)區(qū)域都要進(jìn)行復(fù)雜的計(jì)算,而視頻中每秒將產(chǎn)生30-60張圖片,因此該方法在實(shí)際應(yīng)用時(shí)緩慢,無法達(dá)到實(shí)時(shí)性的要求。針對(duì)應(yīng)用實(shí)時(shí)性的問題,研究人員采用回歸的思想分別提出了一些高效快速的檢測(cè)模型,例如YOLO(Youonlylookonce)[28]、SSD(SingleShotMultiBoxDetector)[29]等。YOLO算法只需要一次CNN運(yùn)算,提供端到端的預(yù)測(cè),提高了檢測(cè)的速度,視頻檢測(cè)幀率可以達(dá)到45FPS,但是檢測(cè)效果只能維持在63.4%mAP,原因是該算法對(duì)物體的尺度很敏感,當(dāng)物體的尺度變化較大時(shí),算法的泛化能力會(huì)隨之變差,尤其是面對(duì)小墜物體時(shí),檢測(cè)準(zhǔn)確度很低,SSD算法能夠提取圖像的多尺度特征,算法會(huì)根據(jù)所檢測(cè)目標(biāo)的尺度來選取合適的特征圖,即針對(duì)小目標(biāo)使用大特征、大目標(biāo)使用小特征,這種方式極大地增強(qiáng)了算法的泛化能力,提高了檢測(cè)的準(zhǔn)確度。在VOC2007數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)時(shí),取得了72.1%mAP,58fps的檢測(cè)效果。但是SSD算法在使用時(shí)需要手工設(shè)置defaultboxes的參數(shù),而且網(wǎng)絡(luò)中每一層的defaultboxes的參數(shù)都不一樣,致使算法在實(shí)際應(yīng)用時(shí)參數(shù)調(diào)試復(fù)雜且依賴經(jīng)驗(yàn)。上述用于視頻序列的單幀目標(biāo)檢測(cè)算法,將當(dāng)前圖像中所有目標(biāo)(包括靜止和運(yùn)動(dòng)的)都檢測(cè)出來,無法突出運(yùn)動(dòng)區(qū)域,忽略了相鄰幀之間的時(shí)間信息和上下文的相關(guān)性。TCNN(TubeletswithConvolutionalNeuralNetworks)[30]實(shí)現(xiàn)了將當(dāng)前幀圖像的位置和置信度信息傳遞給相鄰幀,因?yàn)槲矬w在連續(xù)相鄰幀之間的運(yùn)動(dòng)具有相關(guān)性,因此該算法的檢測(cè)精度得到了提升。2016年Braham等人針對(duì)視頻序列,采取了提取背景的時(shí)域平均值來構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的方式,進(jìn)一步提升了檢測(cè)效果。2017年發(fā)表的DeepFeatureFlow[31]算法,利用flowestimetion、flowpropagation提取關(guān)鍵幀的CNN特征,然后將深度特征從關(guān)鍵幀傳遞到其他幀,在關(guān)鍵幀之間利用光流網(wǎng)絡(luò)傳遞數(shù)據(jù),由于算法只處理關(guān)鍵幀,因此減少了計(jì)算量,提高了檢測(cè)效率。2019年,Lipeiliang等人提出了一種雙目的3D目標(biāo)檢測(cè),將幾何約束的優(yōu)化方式融入到傳統(tǒng)的檢測(cè)任務(wù),實(shí)現(xiàn)了對(duì)目標(biāo)三維位置的估計(jì),將深度學(xué)習(xí)和SLAM(Simultaneouslocalizationandmapping)結(jié)合在一起。1.3研究?jī)?nèi)容本課題主要開展高空拋物的智能檢測(cè)與攔截方法研究。高空拋物AI智能識(shí)別系統(tǒng)使用前端配備的高清攝像頭或者后端安裝的高清攝像頭返回的監(jiān)控視頻。后端視頻分析處理儀集成了機(jī)器視覺、深度學(xué)習(xí)圖像處理、模式識(shí)別、測(cè)量等相關(guān)技術(shù),通過對(duì)監(jiān)控現(xiàn)場(chǎng)獲得的視頻數(shù)據(jù)進(jìn)行實(shí)時(shí)深度理解,自動(dòng)檢測(cè)場(chǎng)景中的異常事件和報(bào)警。比如運(yùn)動(dòng)檢測(cè)、異常行為預(yù)測(cè)、越界報(bào)警、高空拋物等不同應(yīng)用對(duì)視頻監(jiān)控的要求不同,所以視頻分析算法要針對(duì)各自的應(yīng)用量身定做。首先對(duì)深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)進(jìn)行相關(guān)的學(xué)習(xí),了解深度學(xué)習(xí)的發(fā)展史并對(duì)物體檢測(cè)、物體識(shí)別相關(guān)算法的知識(shí),最終基于人工智能實(shí)驗(yàn)平臺(tái)和TensorFlow遷移學(xué)習(xí)平臺(tái)實(shí)現(xiàn)高空墜物檢測(cè)、墜物識(shí)別模型訓(xùn)練之后進(jìn)行相關(guān)實(shí)驗(yàn)測(cè)試該模型。1.4結(jié)構(gòu)安排首先給出了高空墜物智能檢測(cè)系統(tǒng)的整體設(shè)計(jì)方案,并對(duì)本系統(tǒng)的硬件設(shè)計(jì)和軟件設(shè)計(jì)進(jìn)行了闡述,并對(duì)本系統(tǒng)的墜物檢測(cè)與墜物分類的相關(guān)算法進(jìn)行介紹,其次基于TensorFlow遷移學(xué)習(xí)平臺(tái)和人工智能實(shí)驗(yàn)平臺(tái)進(jìn)行了物體檢測(cè)和物體識(shí)別的實(shí)驗(yàn)并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析,其實(shí)驗(yàn)結(jié)果相對(duì)較為理想符合本系統(tǒng)設(shè)計(jì)要求,最后對(duì)本文整體進(jìn)行總結(jié)。2墜物智能檢測(cè)的系統(tǒng)設(shè)計(jì)2.1設(shè)計(jì)要求本課題主要開展高空拋物的智能檢測(cè)與攔截方法研究。高空拋物AI智能識(shí)別系統(tǒng)使用前端配備的高清攝像頭或者后端安裝的高清攝像頭返回的監(jiān)控視頻。后端視頻分析處理儀集成了機(jī)器視覺、深度學(xué)習(xí)圖像處理、模式識(shí)別、測(cè)量等相關(guān)技術(shù),通過對(duì)監(jiān)控現(xiàn)場(chǎng)獲得的視頻數(shù)據(jù)進(jìn)行實(shí)時(shí)深度理解,自動(dòng)檢測(cè)場(chǎng)景中的異常事件和報(bào)警。比如運(yùn)動(dòng)檢測(cè)、異常行為預(yù)測(cè)、越界報(bào)警、高空拋物等不同應(yīng)用對(duì)視頻監(jiān)控的要求不同,所以視頻分析算法要針對(duì)各自的應(yīng)用量身定做。同時(shí),基于拋物的檢測(cè),實(shí)現(xiàn)高空拋物的有效攔截設(shè)計(jì)。1.基于計(jì)算機(jī)基礎(chǔ)、信號(hào)與系統(tǒng)、數(shù)字信號(hào)處理,數(shù)字圖像處理基本知識(shí);并結(jié)合本專業(yè)所學(xué)知識(shí)綜述高空拋物及應(yīng)對(duì)方法的研究現(xiàn)狀。2.熟悉的高空墜物系統(tǒng)設(shè)計(jì)以及基于深度學(xué)習(xí)的物體智能檢測(cè)使用的網(wǎng)絡(luò)模型與訓(xùn)練方法。3.完成基于人工智能的高空拋物及攔截系統(tǒng)的總體設(shè)計(jì),硬件結(jié)構(gòu)設(shè)計(jì)以及軟件處理流程,完成相關(guān)模型制作。4.熟悉tensorflow平臺(tái),安裝軟件平臺(tái),建立墜物檢測(cè)的神經(jīng)網(wǎng)絡(luò)模型,并進(jìn)行實(shí)驗(yàn)拋物檢測(cè)的神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程,在GPU上實(shí)現(xiàn)或嵌入式硬件實(shí)現(xiàn),并進(jìn)行測(cè)試和結(jié)果對(duì)比分析。2.2總體設(shè)計(jì)高空墜物智能檢測(cè)系統(tǒng)設(shè)計(jì)了墜物檢測(cè),墜物識(shí)別,墜物預(yù)警三大模塊所組成,如圖2.1所示。該系統(tǒng)首先通過計(jì)算機(jī)視覺技術(shù)對(duì)墜物預(yù)防區(qū)域進(jìn)行掃描,用運(yùn)動(dòng)估計(jì)算法檢測(cè)到有墜物落下時(shí),系統(tǒng)此時(shí)會(huì)通過聲光以及手機(jī)APP進(jìn)行墜物預(yù)警,系統(tǒng)并將計(jì)算機(jī)視覺技術(shù)采集回的墜物圖片進(jìn)行物體識(shí)別。圖2.1整體設(shè)計(jì)框圖2.3硬件設(shè)計(jì)高空墜物智能檢測(cè)系統(tǒng)硬件主要包括攝像頭、揚(yáng)聲器、閃光燈報(bào)警器、移動(dòng)終端、服務(wù)器如下圖2.2所示是各硬件信號(hào)傳輸流程圖,首先系統(tǒng)通過攝像頭實(shí)時(shí)進(jìn)行采集,將采集來的圖片數(shù)據(jù)傳輸給處理器,處理器通過運(yùn)動(dòng)估計(jì)判斷是否有墜物落下,如有墜物落下處理器控制揚(yáng)聲器,閃光燈報(bào)警器和移動(dòng)終端進(jìn)行預(yù)警。圖2.2信號(hào)傳輸流程圖2.4軟件設(shè)計(jì)高空墜物智能檢測(cè)系統(tǒng)的流程圖如圖2.3所示,智能識(shí)別模塊首先用計(jì)算機(jī)視覺技術(shù)對(duì)有可能墜下墜物的面進(jìn)行實(shí)時(shí)掃描分析。如果系統(tǒng)通過運(yùn)動(dòng)估計(jì)算法檢測(cè)到有墜物落下,系統(tǒng)通過計(jì)算機(jī)視覺技術(shù)進(jìn)行判斷是墜物或者是正在飛行的動(dòng)物還是其他的干擾物,其墜物判斷網(wǎng)絡(luò)如圖4.2所示。此時(shí)系統(tǒng)進(jìn)入全部工作狀態(tài),系統(tǒng)確定是高空墜物時(shí)立刻啟動(dòng)預(yù)警模塊進(jìn)行揚(yáng)聲預(yù)警來提醒下面的行人有墜物落下注意躲避。圖2.3系統(tǒng)流程圖2.4.1墜物檢測(cè)本系統(tǒng)通過運(yùn)動(dòng)估計(jì)算法對(duì)墜物進(jìn)行檢測(cè)如圖2.4所示,首先將實(shí)時(shí)采集回的圖片背景進(jìn)行差分運(yùn)算得到二值化圖像,然后通過二值化圖像判別是否有墜物落下。圖2.4運(yùn)動(dòng)估計(jì)算法流程圖2.4.2墜物識(shí)別如圖2.5所示是物體識(shí)別流程圖,首先將采集來的墜物圖像和系統(tǒng)模型庫(kù)圖像進(jìn)行特征提取,將提取出的特征值與圖片特征數(shù)據(jù)庫(kù)進(jìn)行比對(duì),然后通過索引和圖像匹配從而識(shí)別出墜物類別。圖2.5物體識(shí)別流程圖2.4.3墜物預(yù)警如圖2.6所示是本系統(tǒng)的墜物預(yù)警流程圖,當(dāng)系統(tǒng)判別出有墜物落下時(shí),處理器會(huì)在第一時(shí)間給揚(yáng)聲器,閃光燈報(bào)警器和手機(jī)APP發(fā)出指令使其做出相應(yīng)的應(yīng)答來提醒下面的行人進(jìn)行墜物避讓。圖2.6墜物預(yù)警流程圖小結(jié)本章主要介紹了高空墜物智能檢測(cè)系統(tǒng)的設(shè)計(jì)方案以及軟硬件的設(shè)計(jì)和高空墜物智能檢測(cè)系統(tǒng)主要的墜物檢測(cè)、墜物識(shí)別、墜物報(bào)警三個(gè)模塊具體實(shí)現(xiàn)方法。3墜物檢測(cè)算法3.1引言在傳統(tǒng)的視覺領(lǐng)域,目標(biāo)檢測(cè)是一個(gè)非常熱門的研究方向。由于70年代技術(shù)條件落后,應(yīng)用場(chǎng)景有限,直到90年代目標(biāo)檢測(cè)才走上正軌。物體檢測(cè)對(duì)于人眼來說并不困難,通過感知圖片中不同的顏色、紋理和邊緣模塊,很容易定位目標(biāo)物體。然而,對(duì)于計(jì)算機(jī)視覺來說,很難從圖像中直接獲得動(dòng)物的抽象概念并定位它們的位置。此外,物體姿態(tài)、光照和復(fù)雜背景混合在一起,使得物體檢測(cè)更加困難。檢測(cè)算法通常包括三個(gè)部分,第一是檢測(cè)窗口的選擇,第二是特征的設(shè)計(jì),第三是分類器的設(shè)計(jì)。自21世紀(jì)初ViolaJones提出基于Adaboost的人臉檢測(cè)方法以來,目標(biāo)檢測(cè)算法經(jīng)歷了人工設(shè)計(jì)特征+淺層分類器的傳統(tǒng)框架,逐步向基于大數(shù)據(jù)和深度神經(jīng)網(wǎng)絡(luò)的端到端目標(biāo)檢測(cè)框架發(fā)展,日趨成熟。圖3.1背景相減法思路圖如上圖3.1所示是最近簡(jiǎn)單的物體體檢測(cè)思路圖,其對(duì)物體實(shí)時(shí)進(jìn)行采集,將采集回的相鄰兩個(gè)圖的背景進(jìn)行做差看其結(jié)果是否為0,來判斷該物體是否在運(yùn)動(dòng)。3.2運(yùn)動(dòng)檢測(cè)原理這指的是基于塊的運(yùn)動(dòng)估計(jì)?;舅枷胧菍⒁粋€(gè)圖像序列的每一幀分成許多不重疊的塊,并考慮塊中所有像素的位移是相同的。然后根據(jù)一定的塊匹配準(zhǔn)則,從每個(gè)宏塊到給定的參考幀的特定搜索范圍,找到與當(dāng)前塊最相似的塊,即匹配塊,匹配塊與當(dāng)前塊之間的相對(duì)位移即為運(yùn)動(dòng)矢量。目前的運(yùn)動(dòng)估計(jì)算法主要分為兩種估計(jì)方法:空間域和頻率域。空間估計(jì)主要包括光流法、像素遞歸法、貝葉斯法和塊匹配法。頻域估計(jì)主要包括相位法、離散余弦變換法和小波域法。運(yùn)動(dòng)估計(jì)算法框架如圖3.2所示。圖3.2運(yùn)動(dòng)估計(jì)算法框架3.2.1特征點(diǎn)匹配的運(yùn)動(dòng)估計(jì)算法一般的運(yùn)動(dòng)估計(jì)方法如下:讓時(shí)間t的幀圖像為當(dāng)前幀f(x,y),時(shí)間t1的幀圖像為參考幀f1(x,y),在時(shí)間上可以超前或滯后于當(dāng)前幀。如圖3.3所示,當(dāng)t1<t時(shí),稱為后向運(yùn)動(dòng)估計(jì),當(dāng)t1>t時(shí),稱為前向運(yùn)動(dòng)估計(jì)。當(dāng)在參考幀t1中搜索當(dāng)前幀T中的塊的最佳匹配時(shí),可以獲得對(duì)應(yīng)的運(yùn)動(dòng)場(chǎng)d(xt,t+△t),即可以獲得當(dāng)前幀的運(yùn)動(dòng)矢量。圖3.3運(yùn)動(dòng)估計(jì)原理特征匹配算法從基本原理上不同于上述運(yùn)動(dòng)估計(jì)算法。該算法不是直接利用視頻幀像素的灰度值信息來計(jì)算運(yùn)動(dòng)矢量,而是提取視頻幀的信息特征,描述信息特征,實(shí)現(xiàn)匹配來計(jì)算運(yùn)動(dòng)矢量。所謂信息特征,就是能夠表示圖像特征信息的信息特征。常見的圖像特征包括角、邊、形心和表面積。隨著特征匹配算法的發(fā)展,角點(diǎn)特征逐漸顯示出其優(yōu)勢(shì),在眾多圖像特征中脫穎而出,被越來越多的特征匹配算法所采用。以角點(diǎn)為圖像特征的特征匹配算法的基本原理是:首先利用數(shù)字圖像處理算法提取視頻幀的特征點(diǎn),然后描述只包含位置信息的特征點(diǎn)來豐富特征點(diǎn)信息,然后利用描述的信息特征進(jìn)行特征點(diǎn)匹配。匹配的特征點(diǎn)之間會(huì)存在一定的不匹配,因此需要對(duì)匹配的特征點(diǎn)對(duì)進(jìn)行優(yōu)化,消除不匹配的點(diǎn)對(duì);最后,根據(jù)匹配點(diǎn)對(duì)獲得運(yùn)動(dòng)變換模型的參數(shù)。因此,基于特征匹配的運(yùn)動(dòng)估計(jì)算法主要包括四個(gè)步驟:特征描述、特征匹配、不匹配特征對(duì)的消除和圖像變換模型參數(shù)的估計(jì)。1).特征描述對(duì)于特征提取得到的特征,一般只包含該特征在圖像中的位置信息,如特征點(diǎn)提取的結(jié)果就是它在圖像中的位置(x,y),當(dāng)攝像機(jī)運(yùn)動(dòng)時(shí),只用特征點(diǎn)的位置進(jìn)行匹配顯然是不合理的。隨著攝像機(jī)的運(yùn)動(dòng),特征點(diǎn)的位置會(huì)發(fā)生相應(yīng)的改變,因此我們需要對(duì)所提取特征進(jìn)行描述,豐富其信息特征,便于特征匹配。特征描述實(shí)際上就是根據(jù)該特征鄰域像素的灰度分布情況、梯度變化情況等對(duì)其作更加詳細(xì)的描述,特征描述的結(jié)果是生成特征描述向量,這一特征描述向量包括了特征所在的位置、所在尺度空間的尺度以及主方向等信息,這些信息對(duì)下一步的特征匹配很有幫助。2).特征匹配特征匹配是指通過計(jì)算特征描述向量之間的距離并根據(jù)距離的大小進(jìn)行匹配。根據(jù)搜索力度的不同,主要包括暴力匹配法和快速匹配法兩種:暴力匹配法通過計(jì)算其與當(dāng)前幀中的每一個(gè)特征描述向量的距離來得到最佳匹配對(duì);快速匹配法與暴力匹配法不同,它是基于快速近似最近鄰搜索算法實(shí)現(xiàn)的,即對(duì)于參考幀中的每個(gè)特征描述向量,快速匹配法只將它與其在當(dāng)前圖像中的鄰域范圍內(nèi)所存在的特征描述向量進(jìn)行比較,進(jìn)而得到局部最佳匹配對(duì)。暴力匹配法是一種全局搜索算法,當(dāng)圖像中的特征比較多時(shí)無疑是非常耗時(shí)的,快速匹配法是對(duì)暴力匹配法的一種改進(jìn),雖然它比較省時(shí),但是快速匹配尋找的是局部最優(yōu)匹配,容易產(chǎn)生誤匹配,因此,其往往和誤匹配特征對(duì)的剔除方法一起使用。3).誤匹配特征點(diǎn)對(duì)的刪除特征匹配得到特征匹配對(duì),由于算法本身精度的不足或誤差的存在,會(huì)產(chǎn)生一定的誤匹配點(diǎn),不能直接用來求取圖像變換模型參數(shù)。對(duì)于誤匹配特征對(duì)的產(chǎn)生,主要分為兩種情況:由于運(yùn)動(dòng)物體的影響,導(dǎo)致提取得到的特征分布在運(yùn)動(dòng)物體上,而運(yùn)動(dòng)估計(jì)求取的是背景運(yùn)動(dòng)變化量,因此這些特征對(duì)會(huì)對(duì)運(yùn)動(dòng)估計(jì)帶來影響;由于特征之間具有一定的相似性,在特征匹配過程中,會(huì)引起了特征誤匹配,即當(dāng)分布在圖像中的特征相似但不是在一個(gè)位置時(shí),我們進(jìn)行匹配的時(shí)候容易產(chǎn)生誤匹配。一般情況下,將由上述兩種原因造成的匹配特征對(duì)都稱為誤匹配,誤匹配的存在會(huì)影響運(yùn)動(dòng)估計(jì)的精度,導(dǎo)致穩(wěn)像效果相對(duì)較差,因此在求取運(yùn)動(dòng)模型參數(shù)之前,需要對(duì)匹配對(duì)進(jìn)行優(yōu)化處理,提高匹配精度。近些年來,隨著特征匹配算法越來越多的被人使用,各種誤匹配特征對(duì)剔除的算法不斷涌現(xiàn),其中,隨機(jī)抽樣一致(RANSACRandomSampleConsensus)算法及其改進(jìn)算法由于其本身具有的優(yōu)良特性被廣泛使用。其基本原理是對(duì)一組數(shù)據(jù)集進(jìn)行反復(fù)的迭代把數(shù)據(jù)點(diǎn)分為內(nèi)點(diǎn)與外點(diǎn),最終得到數(shù)學(xué)模型參數(shù)。RANSAC算法的處理過程如下:首先選定一個(gè)參數(shù)模型,在電子穩(wěn)像的過程中這個(gè)參數(shù)模型可以是相似變換模型,假設(shè)樣本數(shù)據(jù)中既包含正確數(shù)據(jù)也包含異常數(shù)據(jù),即是說樣本數(shù)據(jù)集中含有對(duì)參數(shù)模型估計(jì)的噪聲;最后通過遍歷樣本集、迭代尋最優(yōu)值的方法估計(jì)出所選變換模型中的參數(shù)并將異常數(shù)據(jù)(也有稱是外點(diǎn))從樣本數(shù)據(jù)集中分離出來。雖然RANSAC算法在誤匹配特征對(duì)剔除方面具有不錯(cuò)的處理結(jié)果,但仍然存在一些不足:對(duì)于RANSAC算法,樣本數(shù)據(jù)集越大精度越高,在相對(duì)較小的數(shù)據(jù)集下其精度響度不足,而且要求異常數(shù)據(jù)要明顯偏離正常范圍時(shí)才能取得相對(duì)較好的效果;對(duì)于RANSAC算法迭代的次數(shù)、迭代終止條件都會(huì)影響結(jié)果,而且迭代次數(shù)的增多會(huì)造成計(jì)算量的增大,不利于實(shí)時(shí)性處理。3.2.2UMHS算法為了有效監(jiān)測(cè)高空墜落物體,對(duì)壓縮前后的采樣幀進(jìn)行運(yùn)動(dòng)估計(jì)。利用塊匹配技術(shù)完成運(yùn)動(dòng)估計(jì)。非對(duì)稱交叉多級(jí)六邊形混合搜索算法(UMHS)用于運(yùn)動(dòng)估計(jì)。首先用非對(duì)稱十字作為模板進(jìn)行檢測(cè),然后用不同大小的六邊形作為模板進(jìn)行多級(jí)檢測(cè),從而找到最小匹配點(diǎn),達(dá)到計(jì)算運(yùn)動(dòng)矢量的目的,如圖3.4所示。UMHS算法的步驟如下:(a)分別利用5種模式來預(yù)測(cè)起始搜索點(diǎn),求出預(yù)測(cè)運(yùn)動(dòng)矢量;(b)非對(duì)稱十字形模板搜索;(c)螺旋搜索。用5×5的正方形模板,中心建立在當(dāng)前最小點(diǎn),對(duì)模板內(nèi)的2-5個(gè)點(diǎn)進(jìn)行檢測(cè),跟FS非常相似;(d)從四分之一邊緣檢測(cè)的范圍里,用大六邊形模板循環(huán)進(jìn)行擴(kuò)大—倍直徑的檢測(cè);(e)用中六邊形模板進(jìn)行多圈檢測(cè);(f)最后用小菱形循環(huán)檢測(cè),得到最終的運(yùn)動(dòng)矢量。另外,在上述過程步驟(a)和(b)內(nèi)放入閾值判斷,達(dá)到提前終止的目的。假如檢測(cè)到的點(diǎn)是最小匹配點(diǎn)直接跳到(f);假如檢測(cè)到的點(diǎn)不是最小匹配點(diǎn),則跳到(e);除以上兩種情況外,其它任何情況下均按步進(jìn)行。圖3.4UMHS搜索示意圖UMHS是混合多層次搜索算法,其搜索過程可分為大范圍粗搜索、細(xì)搜索和精細(xì)搜索階段,其中粗搜索階段包含非對(duì)稱大十字模板、5×5正方形模板和非均勻多層次六邊形模板,細(xì)搜索階段使用正六邊形模板搜索,直到得到的最佳點(diǎn)位于正六邊形中心時(shí),進(jìn)入精細(xì)搜索階段,使用小鉆石模板搜索,當(dāng)搜索點(diǎn)位于小鉆石中心時(shí)即可得到最佳運(yùn)動(dòng)矢量,搜索結(jié)束。UMHS不僅可以精確預(yù)測(cè)幀內(nèi)的相關(guān)運(yùn)動(dòng)矢量,還可以高效處理幀間的特殊運(yùn)動(dòng)矢量。UMHS的矢量集合包括參考幀相同位置宏塊預(yù)測(cè)矢量、預(yù)測(cè)矢量、上層預(yù)測(cè)矢量、相鄰參考幀預(yù)測(cè)矢量等。這些矢量集可以被高效檢索,假如不滿足檢索條件,就會(huì)提前終止。但是,該矢量會(huì)作為再次搜索的有效起點(diǎn)。基于矢量集的該特性,被它檢索的特定點(diǎn),可以有效地反映墜物場(chǎng)景運(yùn)動(dòng)狀況。如果有非零運(yùn)動(dòng)矢量,則表明出現(xiàn)墜物,由此實(shí)現(xiàn)高空墜物的有效監(jiān)測(cè)。一旦監(jiān)測(cè)到有高空墜物的出現(xiàn),就將有墜物的壓縮成像結(jié)果發(fā)送到負(fù)責(zé)墜物識(shí)別的處理器。3.2.4交并比對(duì)于落體檢測(cè)的精度,有一個(gè)很重要的概念,就是交并比(IOU)。因?yàn)槲覀兊乃惴ú荒芡耆ヅ淙斯?biāo)注的數(shù)據(jù),所以有一個(gè)定位精度的評(píng)價(jià)公式:IOU,也叫交并比。IOU定義了兩個(gè)重疊度,如下圖3.5所示圖3.5IOU定義展示圖矩形框A、B的一個(gè)重合度IOU計(jì)算公式為:(3-1)就是矩形框A、B的重疊面積占A、B并集的面積比例:(3-2)3.3物體分來目標(biāo)識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的一項(xiàng)基礎(chǔ)研究。它的任務(wù)是識(shí)別圖像中的對(duì)象,并報(bào)告它在圖像所代表的場(chǎng)景中的位置和方向。目前,對(duì)象識(shí)別方法可以分為兩類:基于模型或基于上下文的方法,二維對(duì)象識(shí)別或三維對(duì)象識(shí)別方法。格里姆森總結(jié)了大多數(shù)研究人員認(rèn)可的四個(gè)主要標(biāo)準(zhǔn):健壯性、正確性、效率和范圍。基于模型的物體識(shí)別系統(tǒng)如圖3.6所示。圖3.6基于模型的物體識(shí)別系統(tǒng)3.3.1預(yù)處理圖像預(yù)處理幾乎是所有計(jì)算機(jī)視覺算法的第一步。其目的是使表觀特征(如顏色分布、整體亮度、大小等。)在盡可能不改變圖像所攜帶的本質(zhì)信息的情況下,盡可能一致,主要完成模式獲取、模數(shù)轉(zhuǎn)換、濾波、模糊消除、降噪和幾何失真校正等操作。預(yù)處理往往與具體的采樣設(shè)備和要處理的問題有關(guān)。例如,要從一幅圖像中識(shí)別出一個(gè)汽車牌照的號(hào)碼,就需要先從圖像中找到車牌,然后再對(duì)車牌進(jìn)行分割,將每個(gè)號(hào)碼分開。經(jīng)過這一步,每個(gè)號(hào)碼都可以被識(shí)別。用于目標(biāo)識(shí)別的典型預(yù)處理方法是直方圖均衡化和濾波。高斯模糊可以使梯度計(jì)算更精確;直方圖均衡化可以在一定程度上克服光照的影響。值得注意的是,有些特征已經(jīng)有了預(yù)處理的屬性,不需要進(jìn)行預(yù)處理。預(yù)處理通常包括五個(gè)基本操作:(1)編碼:實(shí)現(xiàn)模式的有效描述,適合計(jì)算機(jī)運(yùn)算。(2)閥值或者濾波運(yùn)算:按需要選出某些函數(shù),抑制另一些。(3)模式改善:排除或修正模式中的錯(cuò)誤,或不必要的函數(shù)值。(4)正規(guī)化:使某些參數(shù)值適應(yīng)標(biāo)準(zhǔn)值,或標(biāo)準(zhǔn)值域。(5)離散模式運(yùn)算:離散模式處理中的特殊運(yùn)算。3.3.2特征提?。禾卣魈崛∈悄繕?biāo)識(shí)別的第一步,也是識(shí)別方法的重要組成部分。良好的圖像特征使不同的物體在高維特征空間中得到更好的分離,可以有效減輕識(shí)別算法后續(xù)步驟的負(fù)擔(dān),達(dá)到事半功倍的效果。近年來,子空間方法,如主成分分析(PCA)和判別成分分析(LDA),也成為一種相對(duì)重要的特征提取方法。該方法將圖像在高維空間中拉長(zhǎng)成向量,通過奇異值分解得到特征方向。人臉識(shí)別是一個(gè)成功的應(yīng)用實(shí)例。該方法可以處理全局噪聲,模型相當(dāng)簡(jiǎn)單,易于實(shí)現(xiàn)。但是這種算法對(duì)圖像的內(nèi)部結(jié)構(gòu)進(jìn)行了拆分,因此本質(zhì)上是非視覺的,模型的內(nèi)部機(jī)制很難理解,也沒有消除應(yīng)用于圖像的仿射變換的機(jī)制。圖像特征提取是提取一幅圖像不同于其他圖像的基本屬性,從而區(qū)分不同的圖像。比如灰度、亮度、紋理、形狀都對(duì)應(yīng)著圖像的視覺外觀;其他缺乏自然對(duì)應(yīng),如顏色直方圖、灰度直方圖、空間譜等?;趫D像特征的物體識(shí)別實(shí)際上是根據(jù)提取的圖像特征來判斷圖像中的物體屬于什么類別。圖像紋理特征提取、圖像形狀特征提取和空間特征提取是最常用的視覺特征,也是基于圖像的物體識(shí)別技術(shù)中使用的主要特征提取方法。3.3.3物體識(shí)別的主要方法基于統(tǒng)計(jì)的方法和基于對(duì)象的方法根據(jù)識(shí)別方法是否對(duì)局部特征之間的關(guān)系進(jìn)行建模,可以分為基于統(tǒng)計(jì)的方法和基于對(duì)象的方法。Bow(WordPackage)嚴(yán)格來說不是物體識(shí)別的方法,而是物體分類的方法。這個(gè)模型的靈感來源于NLP中的BoW模型。生成學(xué)習(xí)方法的學(xué)習(xí)和識(shí)別生成學(xué)習(xí)方法通過先驗(yàn)知識(shí)來擬合和解釋圖像中的信號(hào)。在中,主要有兩種生成方法,一種是圖3.5所示的NB(樸素貝葉斯),另一種是圖3.7和圖3.8所示的pLSA(概率潛在語(yǔ)義分析)和LDA(線性判別分析)。在NB中,根據(jù)特征在圖像中出現(xiàn)的頻率,用后驗(yàn)概率來推斷圖像的類別屬性:圖3.7Na?veBayesModel的推理模型c=argmaxpCw∝pcpwc=p(c)PLSA在上面的模型中引入了一個(gè)隱藏變量來表示對(duì)象類別。它的基本出發(fā)點(diǎn)是圖像按照一定的概率生成各種對(duì)象,這些對(duì)象按照一定的概率生成特征詞。圖3.8PLSA的推理模型圖3.9PLSA推理的矩陣表示基于上下文的對(duì)象識(shí)別方法在現(xiàn)實(shí)世界中,對(duì)象所處的場(chǎng)景為識(shí)別對(duì)象提供了更豐富、更有用的信息。在現(xiàn)實(shí)世界中,沒有物體會(huì)單獨(dú)出現(xiàn),而是會(huì)出現(xiàn)在一些場(chǎng)景中或者與其他物體一起出現(xiàn)。當(dāng)人們觀察和推測(cè)一個(gè)物體是什么時(shí),除了物體本身的特征之外,他們還根據(jù)物體所處的環(huán)境來推斷它。基于模型的物體識(shí)別方法雖然只利用了物體的特征信息,有效的縮短了物體識(shí)別的時(shí)間,但是完全忽略了物體出現(xiàn)的場(chǎng)景,導(dǎo)致了一些錯(cuò)誤的判斷。比如網(wǎng)球場(chǎng),如果不考慮網(wǎng)球場(chǎng)的場(chǎng)景,網(wǎng)球會(huì)被識(shí)別為檸檬,考慮到場(chǎng)景的話,網(wǎng)球會(huì)很快被識(shí)別出來,不會(huì)被誤認(rèn)。因此,研究人員在研究物體識(shí)別方法時(shí),有助于更好地解釋場(chǎng)景不同的物體,如玩具車和真車,有些物體只能出現(xiàn)在某些場(chǎng)景中?;谏舷挛淖R(shí)別對(duì)象的難點(diǎn)在于如何建立對(duì)象與其上下文之間的關(guān)系。比如桌椅容易同時(shí)出現(xiàn),大象和床極不可能同時(shí)出現(xiàn),馬路上經(jīng)常出現(xiàn)汽車等。對(duì)象和它們的上下文之間的關(guān)系也是強(qiáng)弱的。比如一個(gè)盤子大部分時(shí)間出現(xiàn)在桌子上,但也有可能出現(xiàn)在其他地方,但消防栓永遠(yuǎn)在人行道上。現(xiàn)在已經(jīng)對(duì)這些對(duì)象和上下文之間的強(qiáng)弱關(guān)系做了相關(guān)的工作。通過計(jì)數(shù)包含對(duì)象的圖像的低級(jí)特征來獲得對(duì)象及其上下文之間的關(guān)系,圖像搜索系統(tǒng)結(jié)構(gòu)如圖3.8所示。圖3.10圖像搜索系統(tǒng)結(jié)構(gòu)小結(jié)本章通過計(jì)算機(jī)視覺技術(shù)的發(fā)展引出高空墜物智能檢測(cè)系統(tǒng)的多種運(yùn)動(dòng)估計(jì)算法和墜物識(shí)別算法。4嵌入式深度學(xué)習(xí)平臺(tái)4.1基于TensorF1ow深度學(xué)習(xí)平臺(tái)實(shí)驗(yàn)4.1.1TensorF1ow深度學(xué)習(xí)框架TensorFlow是Google基于distscredit開發(fā)的第二代人工智能學(xué)習(xí)平臺(tái)。它的名字來源于它自身的運(yùn)行原理。張量表示張量維度數(shù)組,流表示基于數(shù)據(jù)流圖的計(jì)算,張量流是張量從流圖的一端流向另一端的計(jì)算過程。TensorFlow是將復(fù)雜的數(shù)據(jù)結(jié)構(gòu)傳輸給人工智能神經(jīng)網(wǎng)絡(luò)進(jìn)行分析和處理的系統(tǒng)。張量流是一個(gè)開源的高性能數(shù)值計(jì)算軟件庫(kù)。憑借其靈活的架構(gòu),用戶可以輕松地將計(jì)算工作部署到各種平臺(tái)(CPU、GPU、TPU)和設(shè)備(桌面設(shè)備、服務(wù)器集群、移動(dòng)設(shè)備、邊緣設(shè)備等)。).TensorFlow最初是由GoogleBrain團(tuán)隊(duì)(隸屬于Google的AI部門)的研究人員和工程師開發(fā)的,可以為機(jī)器學(xué)習(xí)和深度學(xué)習(xí)提供強(qiáng)有力的支持。其靈活的數(shù)值計(jì)算核心被廣泛應(yīng)用于許多其他科學(xué)領(lǐng)域。張量流可以用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的許多領(lǐng)域,如語(yǔ)音識(shí)別或圖像識(shí)別。Distcredit是2011年開發(fā)的深度學(xué)習(xí)基礎(chǔ)設(shè)施,各方面都有改進(jìn)。它可以在從智能手機(jī)到數(shù)千臺(tái)數(shù)據(jù)中心服務(wù)器的設(shè)備上運(yùn)行。TensorFlow完全開源,任何人都可以用TensorFlow表達(dá)高級(jí)機(jī)器學(xué)習(xí)計(jì)算,大大簡(jiǎn)化了第一代系統(tǒng),具有更好的靈活性和可擴(kuò)展性。TensorFlow支持異構(gòu)設(shè)備的分布式計(jì)算。它可以在各種平臺(tái)上自動(dòng)運(yùn)行模型,從手機(jī)、單CPU/GPU到數(shù)百個(gè)GPU卡組成的分布式系統(tǒng)。張量流支持CNN、RNN和LSTM算法,這些算法是圖像、語(yǔ)音和自然語(yǔ)言處理中最流行的深度神經(jīng)網(wǎng)絡(luò)模型。4.1.2測(cè)試環(huán)境搭建本文結(jié)合本專業(yè)所學(xué)知識(shí)將在實(shí)驗(yàn)室著重點(diǎn)研究研究墜物檢測(cè)與識(shí)別,具體實(shí)驗(yàn)將采用TensorFlow學(xué)習(xí)平臺(tái)并使用VGG16算法對(duì)墜物圖像目標(biāo)進(jìn)行訓(xùn)練學(xué)習(xí),訓(xùn)練過程中采用的數(shù)據(jù)集和測(cè)試時(shí)使用的數(shù)據(jù)集均在網(wǎng)絡(luò)上隨機(jī)爬取的與高空墜物相關(guān)的圖像。本實(shí)驗(yàn)使用的計(jì)算機(jī)操作系統(tǒng)為Windows10旗艦版SP164位,中央處理器為Intel奔騰G4560@3.5GHz3.5GHz,語(yǔ)言環(huán)境為Python3.7,主要Python包為Tensorflow1.14(CPU版),系統(tǒng)運(yùn)行環(huán)境為PyCharm2020版如圖4.1所示。圖4.1PyCharmPyCharm是一個(gè)PythonIDE,它有一套工具和軟件,可以幫助用戶在用Python語(yǔ)言開發(fā)時(shí)提高效率,比如調(diào)試、自動(dòng)完成、單元測(cè)試、版本語(yǔ)法高亮、項(xiàng)目管理、代碼跳轉(zhuǎn)、智能提示、控件等。此外,IDE還提供了一些高級(jí)功能,支持Django框架下的專業(yè)Web開發(fā)。同時(shí)支持GoogleAppEngine,PyCharm也支持高級(jí)代碼分析程序下運(yùn)行的IronPython。這些功能使得PyCharm成為Python專業(yè)開發(fā)人員和初學(xué)者的強(qiáng)大工具。秀PyCharm。其下載地址:/pycharm/download/Python是一種計(jì)算機(jī)編程語(yǔ)言,由GuidoVanRothum創(chuàng)建。Python提供了高效的高層數(shù)據(jù)結(jié)構(gòu)和簡(jiǎn)單有效的面向?qū)ο缶幊?。其解釋器易于擴(kuò)展,可以用C或C++擴(kuò)展新的函數(shù)和數(shù)據(jù)類型,也可以作為可定制軟件中的擴(kuò)展程序語(yǔ)言。如下圖4.2所示為運(yùn)行環(huán)境搭建界面。圖4..2運(yùn)行環(huán)境搭建4.1.3數(shù)據(jù)集的準(zhǔn)備Pascal視覺對(duì)象類是世界級(jí)的計(jì)算機(jī)視覺挑戰(zhàn)。帕斯卡的全名是模式分析、統(tǒng)計(jì)建模和計(jì)算學(xué)習(xí),其官方地址是http://host.robots.ox.ac.uk/pascal/VOC/PASCALVOC為圖像識(shí)別和分類提供了一套完整的標(biāo)準(zhǔn)化數(shù)據(jù)集,用于構(gòu)建和評(píng)估圖像分類、目標(biāo)檢測(cè)和分割等算法,以及常用的計(jì)算機(jī)視覺模型。比如R-CNN系列,SSD,YOLO等等都是基于PASCALVOC數(shù)據(jù)集。目前最完整的數(shù)據(jù)集是PASCALVOC2012數(shù)據(jù)集,而大多數(shù)研究者一般使用PASCALVOC2007和PASCALVOC2012數(shù)據(jù)集,兩者互斥不兼容。PASCALVOC2012包含20種對(duì)象,train和val共有11530張圖片。部分圖片如圖4.3所示,共有27450個(gè)目標(biāo)檢測(cè)標(biāo)簽和6929個(gè)分割標(biāo)簽。圖4.3數(shù)據(jù)集圖庫(kù)4.1.4模型的訓(xùn)練將數(shù)據(jù)集PASCALVOC導(dǎo)入搭建好的實(shí)驗(yàn)環(huán)境進(jìn)行模型訓(xùn)練,如圖4.4所示是訓(xùn)練模型的部分程序界面。在本電腦上首先嘗試了1000次的模型訓(xùn)練,但是由于本系統(tǒng)配置低端,不但訓(xùn)練時(shí)間長(zhǎng)久而且導(dǎo)致電腦死機(jī)訓(xùn)練并未成功。其次嘗試了100次的模型訓(xùn)練,本次少次數(shù)的訓(xùn)練取得了成功,但是測(cè)試效果并不理想。第三次在實(shí)驗(yàn)室較高配置的計(jì)算機(jī)上嘗試了10000次的模型訓(xùn)練,本次訓(xùn)練不但取得了成功而且耗時(shí)短測(cè)試效果比較理想。圖4.4模型訓(xùn)練部分程序4.2人工智能實(shí)驗(yàn)平臺(tái)人工智能實(shí)驗(yàn)平臺(tái)(FS_AIARM)如圖4.5所示,集成了人工智能技術(shù)+嵌入式系統(tǒng)技術(shù)+機(jī)械臂應(yīng)用技術(shù)+AR技術(shù)。該平臺(tái)包括:1)計(jì)算機(jī)視覺倉(cāng)庫(kù)貨物分揀:基于TensorFlow框架,通過深度學(xué)習(xí)CNN神經(jīng)網(wǎng)絡(luò)算法對(duì)倉(cāng)庫(kù)貨物進(jìn)行識(shí)別,并在終端進(jìn)行顯示和控制。貨物可以通過機(jī)械臂在倉(cāng)庫(kù)之間運(yùn)輸,倉(cāng)庫(kù)中的貨物也可以分揀和退回。2)語(yǔ)音機(jī)械臂控制和物品分揀:基于AI語(yǔ)音識(shí)別+機(jī)械臂控制,用戶可以通過語(yǔ)音發(fā)出指令來控制機(jī)械臂執(zhí)行動(dòng)作。3)倉(cāng)庫(kù)貨物分揀:將AR增強(qiáng)現(xiàn)實(shí)技術(shù)與人工智能計(jì)算機(jī)視覺技術(shù)相結(jié)合,實(shí)現(xiàn)圖像識(shí)別,創(chuàng)建與真實(shí)物體關(guān)聯(lián)的虛擬模型,對(duì)機(jī)械臂進(jìn)行實(shí)例化和控制。圖4.5人工智能實(shí)驗(yàn)平臺(tái)4.2.1實(shí)驗(yàn)步驟(1)打開試驗(yàn)箱將機(jī)械臂安裝在實(shí)驗(yàn)區(qū),連接好機(jī)械臂電源和數(shù)據(jù)傳輸線和攝像頭USB線并打開攝像頭保護(hù)蓋;(2)接通實(shí)驗(yàn)平臺(tái)電源,開啟電源和機(jī)械臂開關(guān);(3)給實(shí)驗(yàn)平臺(tái)連接WiFi;(4)運(yùn)行實(shí)驗(yàn)程序,部分實(shí)驗(yàn)程序如圖4.6所示;圖4.6目標(biāo)檢測(cè)實(shí)驗(yàn)部分程序(5)打開應(yīng)用程序并輸入密碼1進(jìn)入初始化界面如圖4.7所示;圖4.7初始化界面(6)點(diǎn)擊打開攝像頭進(jìn)行選擇顯示的圖片的格式:RGB、灰度圖、二值化圖。(7)根據(jù)實(shí)驗(yàn)室現(xiàn)有模型分別對(duì)數(shù)字,漢字,字母,動(dòng)物,蔬菜,水果,車標(biāo)進(jìn)行識(shí)別;小結(jié)本章主要介紹了基于TensorF1ow深度學(xué)習(xí)平臺(tái)和人工智能實(shí)驗(yàn)平臺(tái)以及對(duì)應(yīng)的實(shí)驗(yàn)及實(shí)驗(yàn)過程。5實(shí)驗(yàn)結(jié)果分析5.1基于TensorF1ow深度學(xué)習(xí)平臺(tái)實(shí)驗(yàn)結(jié)果5.1.1低次訓(xùn)練結(jié)果經(jīng)過對(duì)模型進(jìn)行100次訓(xùn)練后,點(diǎn)擊開始運(yùn)行模型,程序運(yùn)行界面如圖5.1所示。圖5.1運(yùn)行測(cè)試界面選取不同物種進(jìn)行物體檢測(cè)測(cè)試其最終運(yùn)行結(jié)果如圖5.2所示,對(duì)圖片中不同的物體檢測(cè)標(biāo)框相對(duì)相對(duì)理想。圖5.2測(cè)試結(jié)果圖5.1.2高次訓(xùn)練結(jié)果在配置較高的計(jì)算機(jī)上經(jīng)過對(duì)模型進(jìn)行1000次訓(xùn)練后,點(diǎn)擊開始運(yùn)行模型,程序運(yùn)行界面如圖5.3所示。圖5.3模型訓(xùn)練界面經(jīng)過反復(fù)將模型運(yùn)行,如圖5.4所示,對(duì)于同一幅圖對(duì)物體有不同的標(biāo)框,有的甚至沒有標(biāo)框,其結(jié)果相也不是很理想。圖5.4同圖片不同次數(shù)訓(xùn)練比較如圖5.5所示是比較理想的檢測(cè)結(jié)果,系統(tǒng)準(zhǔn)確的檢測(cè)出目標(biāo)物體。圖5.5較為理想的訓(xùn)練結(jié)果5.2人工智能實(shí)驗(yàn)平臺(tái)實(shí)驗(yàn)結(jié)果倉(cāng)庫(kù)一作為識(shí)別倉(cāng)庫(kù),倉(cāng)庫(kù)二作為空倉(cāng)庫(kù)進(jìn)行搬運(yùn)分類,當(dāng)點(diǎn)擊某種物體分類時(shí),系統(tǒng)會(huì)通過機(jī)械臂,將不是這類物體搬運(yùn)到倉(cāng)庫(kù)二從而實(shí)現(xiàn)物體分來。5.2.1識(shí)別動(dòng)物點(diǎn)擊識(shí)別動(dòng)物,識(shí)別完畢如圖5.6所示,待識(shí)別物體是狗,櫻桃,蒜,貓。其識(shí)別結(jié)果只顯示動(dòng)物狗、貓,不是動(dòng)物的則是問號(hào)。圖5.6識(shí)別動(dòng)物圖圖5.7動(dòng)物分類圖點(diǎn)擊動(dòng)物分類時(shí),系統(tǒng)會(huì)識(shí)別倉(cāng)庫(kù)一中的動(dòng)物,然后將不是動(dòng)物的物體通過機(jī)械臂搬到倉(cāng)庫(kù)二中,如圖5.7所示。5.2.2識(shí)別蔬菜點(diǎn)擊識(shí)別蔬菜,識(shí)別完畢如圖5.8所示,待識(shí)別物體是貳,狗,西紅柿,蒜。其識(shí)別結(jié)果只顯示蔬菜西紅柿和蒜,不是蔬菜的則是問號(hào)。圖5.8識(shí)別蔬菜圖5.2.3識(shí)別水果點(diǎn)擊識(shí)別水果,識(shí)別完畢如圖5.9所示,待識(shí)別物體是香蕉,石榴,西紅柿,蒜。其識(shí)別結(jié)果只顯示水果香蕉和石榴,不是水的則是問號(hào)。圖5.9識(shí)別水果圖圖5.10水果分類圖點(diǎn)擊水果分類時(shí),系統(tǒng)會(huì)識(shí)別倉(cāng)庫(kù)一中的水果物,然后將不是水果的物體通過機(jī)械臂搬到倉(cāng)庫(kù)二中,如圖5.10所示。小結(jié)本章進(jìn)行了基于TensorF1ow深度學(xué)習(xí)平臺(tái)實(shí)驗(yàn)和人工智能實(shí)驗(yàn)平臺(tái)實(shí)驗(yàn)結(jié)果分析,最終實(shí)驗(yàn)結(jié)果表明本系統(tǒng)墜物檢測(cè)與墜物識(shí)別模塊的性能比較理想,符合設(shè)計(jì)要求。6總結(jié)與展望6.1總結(jié)本文主要介紹了高空墜物智能檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)方案并結(jié)合本專業(yè)所學(xué)知識(shí)著重點(diǎn)研究了墜物檢測(cè)與墜物識(shí)別模塊。首先介紹了本題的研究背景和研究意義以及國(guó)內(nèi)外的研究現(xiàn)狀,并且有針對(duì)性的對(duì)現(xiàn)有的研究現(xiàn)狀進(jìn)行了分析學(xué)習(xí)。其次系統(tǒng)的設(shè)計(jì)了高空墜物智能檢測(cè)系統(tǒng)并詳細(xì)闡述了墜物檢測(cè)與墜物識(shí)別相關(guān)算法,本系統(tǒng)主要有墜物檢測(cè)、墜物識(shí)別、墜物預(yù)警、三個(gè)模塊所組成。最后重點(diǎn)對(duì)本系統(tǒng)的墜物檢測(cè)和墜物識(shí)別模塊進(jìn)行了基于TensorF1ow深度學(xué)習(xí)平臺(tái)實(shí)驗(yàn)和人工智能實(shí)驗(yàn)平臺(tái)實(shí)驗(yàn)?;赥ensorF1ow深度學(xué)習(xí)平臺(tái)實(shí)驗(yàn)以計(jì)算機(jī)視覺系統(tǒng)與深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)平臺(tái)在網(wǎng)絡(luò)上爬取大量的墜物圖片的數(shù)據(jù)集。以此模型進(jìn)行訓(xùn)練,并將訓(xùn)練好的墜物識(shí)別模型進(jìn)行檢測(cè)試驗(yàn)。人工智能實(shí)驗(yàn)平臺(tái)實(shí)驗(yàn)是在實(shí)驗(yàn)室結(jié)合軟件與攝像頭對(duì)部分物體進(jìn)行物體識(shí)別來模擬本系統(tǒng)中的墜物識(shí)別。最終對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行測(cè)試分析,實(shí)驗(yàn)結(jié)果顯示模型訓(xùn)練次數(shù)越多,墜物檢測(cè)與墜物識(shí)別結(jié)果越來越滿意,能夠滿足墜物識(shí)別的要求,但是由于計(jì)算機(jī)配置較低而不能滿足成千上萬次的模型訓(xùn)練。其試驗(yàn)結(jié)果雖然滿足要求,但是相信識(shí)別與檢測(cè)的準(zhǔn)確度還可以進(jìn)一步提高。在實(shí)驗(yàn)室用攝像頭進(jìn)行相關(guān)物體識(shí)別結(jié)果較為理想。6.2展望本文所設(shè)計(jì)的高空墜物智能檢測(cè)系統(tǒng)各模塊均處于初級(jí)研究階段,只對(duì)墜物檢測(cè)和墜物識(shí)別模塊進(jìn)行了試驗(yàn),其它模塊只是設(shè)計(jì)方案并未試驗(yàn),其中墜物檢測(cè)和墜物識(shí)別模塊試驗(yàn)是使用網(wǎng)絡(luò)現(xiàn)有的數(shù)據(jù)集。我相信在不久的將來會(huì)有本系統(tǒng)自己的數(shù)據(jù)集與更完整的訓(xùn)練模型,以及其它模塊的實(shí)驗(yàn)和測(cè)試數(shù)據(jù)。未來需要對(duì)本系統(tǒng)設(shè)計(jì)方案進(jìn)一步優(yōu)化并設(shè)計(jì)墜物攔截模塊以達(dá)到真正的實(shí)用性和可行性,同時(shí)提高各個(gè)模塊之接的銜接性并在生活中大量的采集高空墜物的圖片來訓(xùn)練實(shí)驗(yàn)?zāi)P吞岣邏嬑镒R(shí)別與檢測(cè)的準(zhǔn)確性從而全面達(dá)到高空墜物智能檢測(cè)系統(tǒng)優(yōu)化升級(jí)以達(dá)到服務(wù)社會(huì)造福人類的作用。參考文獻(xiàn)[1]OverHorizon.1949到2019年,中國(guó)城市數(shù)量從132城增加至672城,2020-01-14.[2]北青報(bào):孔令晗,郭琳琳.高空墜物傷人事故頻發(fā)事先預(yù)防究竟有無可能,2019.6.20[3]張修國(guó).基于智能識(shí)別的高空物體墜落分析[J].電子技術(shù)與軟件工程,2020(20):82-83.[4]鄭胤,陳權(quán)崎,章毓晉.深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J].中國(guó)圖象圖形學(xué)報(bào),2014.19(02):175-184.[5]RussakovskyO,DengJ,SuH,et.ImageNetLargeScaleVisualRecognitionChallenge[J].InternationalJournalofComputerVision,2015,115(03):211-252.[6]國(guó)家質(zhì)量技術(shù)監(jiān)督局,中華人民共和國(guó)建設(shè)部聯(lián)合發(fā)布.GB50096-1999.住宅設(shè)計(jì)規(guī)范.北京:中國(guó)建筑工業(yè)出版社,1999.11[7]國(guó)家質(zhì)量技術(shù)監(jiān)督局,中華人民共和國(guó)建設(shè)部聯(lián)合發(fā)布.GB50180-93.城市居住區(qū)設(shè)計(jì)規(guī)劃設(shè)計(jì)規(guī)范.北京:中國(guó)建筑工業(yè)出版社,2002.22[8]田北俊.高空拋物必須嚴(yán)懲.田北俊個(gè)人網(wǎng)站/,2007.10.23[9]李晨.城市居民居住環(huán)境下高空墜物及建筑設(shè)計(jì)防墜措施研究.南昌大學(xué).2007年12月22日.[10]StewartR,ErmonS.Label-freesupervisionofneuralnetworkswithphysicsanddomainknowledge[C]//Thirty-FirstAAAICOnferenceonArtificialIntelligence.2017[11]SirisathitkulC,GlawtanongP,EadkongT,etal.DigitalvideoanalysisoffallingobjectsinairandliquidusingTracker[J].RevistaBrasileiradeensinodeFisica,2013,35(1):1-6[12]程愛靈,黃昶,李小雨.運(yùn)動(dòng)目標(biāo)檢測(cè)算法研究綜述[J]信息通信,2017(01):12-14.[13]HossenMK,TuliSH.ASurveillanceSystemBasedonMotionDetectionandMotionEstimationUsingOpticalFlow[C]/Informatics,ElectronicsandVision(ICIEV),20165hInternationalConferenceon.IEEE,2016:646-651.[14]白一帆,李海芳,宸夢(mèng)楠.基于Vibe和三幀差法的目標(biāo)檢測(cè)算法[J].湖南科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2018.33(02):54-59.[15]郝慧琴,王耀力.基于幀間差分和金字塔光流法的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].電視2016,40(7):134-138.[16]C.StaufferandW.E.L.Grimson,Adaptivebackgroundmixturemodelsforreal-timetracking[C]EEEComputerSocietyConferenceonComputerVisionandPatternRecognition,1999,pp.246-252[17]ZivkovicZ,HeijdenFVD.Efficientadaptivedensityestimationperimagepixelforthetaskofbackgroundsubtraction[J].PatternRecognitionLetters,200627(7):773-780.[18]ElgammalA,DuraiswamiR,HarwoodD,etal.Backgroundandforegroundmodelingusingnonparametrickemneldensityestimationforvisualsurveillance[J].ProceedingsoftheEEE,2002,90(7):1151-1163.[19]Olivier,Barnich,Marc,VanDroogenbroeck.Vibe:auniversalbackgroundsubtractionalgorithmforvideosequence[J
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年網(wǎng)絡(luò)教育心理學(xué)基礎(chǔ)考試題庫(kù)
- 2026年安慶師范大學(xué)附屬龍城幼兒園招聘1名備考題庫(kù)及完整答案詳解一套
- 2026寧夏招錄選調(diào)生選報(bào)5人備考題庫(kù)(含答案詳解)
- 2026太平洋財(cái)險(xiǎn)安慶中支招聘信息13人備考題庫(kù)(安徽)及參考答案詳解1套
- 2026年湖口縣公安局交通管理大隊(duì)公開招聘交通協(xié)管員備考題庫(kù)完整答案詳解
- 2026年黃陂區(qū)教育局聘用制教師公開招聘27人備考題庫(kù)有答案詳解
- 2025江蘇南京大學(xué)前沿科學(xué)學(xué)院特任助理研究員招聘1人備考題庫(kù)及1套完整答案詳解
- 2026年?yáng)|營(yíng)廣饒縣事業(yè)單位公開招聘工作人員備考題庫(kù)(35人)有答案詳解
- 2026廣西來賓市忻城縣發(fā)展和改革局招聘編外人員1人備考題庫(kù)及完整答案詳解
- 2026新興際華集團(tuán)所屬中新聯(lián)公司招聘事業(yè)部總經(jīng)理副總經(jīng)理備考題庫(kù)及參考答案詳解一套
- 長(zhǎng)沙股權(quán)激勵(lì)協(xié)議書
- 問卷星使用培訓(xùn)
- 心源性腦卒中的防治課件
- 2025年浙江輔警協(xié)警招聘考試真題含答案詳解(新)
- 果園合伙經(jīng)營(yíng)協(xié)議書
- 節(jié)能技術(shù)咨詢合同范本
- 物業(yè)管理經(jīng)理培訓(xùn)課件
- 員工解除競(jìng)業(yè)協(xié)議通知書
- 【語(yǔ)文】太原市小學(xué)一年級(jí)上冊(cè)期末試題(含答案)
- 儲(chǔ)能電站員工轉(zhuǎn)正述職報(bào)告
- DB3301∕T 0165-2018 城市照明設(shè)施養(yǎng)護(hù)維修服務(wù)標(biāo)準(zhǔn)
評(píng)論
0/150
提交評(píng)論