智能機器人原理與應用 課件 第12章 家庭智能空間服務機器人環(huán)境功能區(qū)認知_第1頁
智能機器人原理與應用 課件 第12章 家庭智能空間服務機器人環(huán)境功能區(qū)認知_第2頁
智能機器人原理與應用 課件 第12章 家庭智能空間服務機器人環(huán)境功能區(qū)認知_第3頁
智能機器人原理與應用 課件 第12章 家庭智能空間服務機器人環(huán)境功能區(qū)認知_第4頁
智能機器人原理與應用 課件 第12章 家庭智能空間服務機器人環(huán)境功能區(qū)認知_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

智能機器人原理與應用“智能檢測技術與模式識別”研究所12家庭智能空間服務機器人環(huán)境功能區(qū)認知室內功能區(qū)是指根據(jù)房屋的使用功能和各共有建筑部位的服務范圍而劃分的區(qū)域.服務機器人室內功能區(qū)認知旨在建立一種人機共融式的功能區(qū)認知框架,機器人通過視覺系統(tǒng)將室內功能區(qū)場景圖像捕捉到大腦,經(jīng)由預先學習的認知框架加以分析,得到該場景圖像的深層功能屬性,這一過程與人類場景認知機理類似.本章提出了基于CLM(無碼本模型)的家庭服務機器人室內功能區(qū)分類方法.首先,采用SURF(加速魯棒特征)提取算法獲得底層特征;其次,考慮到本文采用的室內功能區(qū)數(shù)據(jù)集背景噪聲特點,去除背景雜波的濾除過程,提高運算效率;最后,采用改進的SVM作為分類器,較現(xiàn)有CLM方法更加簡潔高效,適用于較低配置的機器人.12.1功能區(qū)認知的系統(tǒng)框架不同于詞袋模型通過學習碼本統(tǒng)計局部特征分布并對描述符進行編碼的方法(如圖12.1所示),CLM模型直接用描述符表示圖像,無需預先訓練碼本和隨后的編碼,具有規(guī)避詞袋模型上述限制的優(yōu)勢。此外,本章從底層特征與分類器兩方面進行了優(yōu)化改進。圖12.1詞袋模型與CLM模型構建過程及對比基于CLM的家庭服務機器人室內服務環(huán)境分類方法主要分為特征提取、離線構建圖像表示模型和在線分類檢測3個階段。特征提取階段:以室內環(huán)境的灰度圖像作為輸入,計算SURF特征描述子,獲得不同場景類別的特征描述。離線構建圖像表示模型階段:考慮到構建碼本的局限性,本文采用無碼本的CLM替代詞袋模型構建室內功能區(qū)的表示模型。首先,構建單高斯模型的圖像表示;然后,使用一個有效的兩步度量方法匹配高斯模型,并引入2個重要參數(shù)改進所使用的距離度量公式;最后,采用改進的SVM學習方法,進行室內功能區(qū)的分類。在線檢測階段:將一組新的圖像作為測試集,通過與訓練的圖像模型匹配,對測試集圖像進行分類,通過分類精度判斷模型的有效性和實用性。12.1功能區(qū)認知的系統(tǒng)框架12.2功能區(qū)圖像模型構建12.2.1提取圖像特征描述符即使同類別的2張室內功能區(qū)圖像之間也會存在拍攝角度、光照變化、尺度大小等方面的差異,從而影響分類判別的精度.SURF算法是一種圖像局部特征計算方法,基于物體上的一些局部外觀的興趣點而生成,對方向旋轉、亮度變化、尺度縮放具有不變性,對視角偏移、仿射變換、噪聲雜波也具有一定的穩(wěn)定性.SURF算法在保留了SIFT算法的優(yōu)良性能的基礎上,特征更為精簡,在降低算法復雜度的同時提高了計算效率.12.2功能區(qū)圖像模型構建12.2.1提取圖像特征描述符基于SURF算法的功能區(qū)特征提取算法具體如下:輸入:室內功能區(qū)的灰度圖像.輸出:室內功能區(qū)的64維SURF特征矩陣.步驟1:對輸入圖像進行高斯濾波,得到濾波后圖像,繼而分別求各個方向上的2階導數(shù).步驟2:構造圖像的Hessian.步驟3:通過對每個像素的Hessian矩陣求行列式的值,得到每個像素點的近似表示,遍歷每個像素的Hessian矩陣,得到圖像的響應圖像.步驟4:改變參數(shù)值,得到不同尺度下的高斯平滑圖像,形成高斯金字塔.步驟5:對某一像素點,得到鄰域內的極值,記為鄰域內的特征點.步驟6:選取主方向,然后把正方形框分為16個子區(qū)域,在每個子區(qū)域內統(tǒng)計水平方向和垂直方向(相對主方向而言)的Haar小波特征,得到64維的圖像特征向量..12.2功能區(qū)圖像模型構建12.2.2分類器的選擇本文通過采用對數(shù)-歐氏計算框架,得到了基于線性空間的高斯模型匹配度量公式,故可以采用線性分類器對數(shù)據(jù)進行分類.常見的線性分類器有邏輯回歸、SVM、感知機、K均值法等.將SVM分類器用于本文中功能區(qū)分類具有如下優(yōu)勢:(1)SVM以結構化風險最小為優(yōu)化目標,相較于其他幾種分類器具有更強的泛化能力;(2)家庭服務機器人的應用場景主要為室內,功能區(qū)樣本集種類有限,而SVM在少量的支持向量的基礎上確定的分類超平面,其受樣本數(shù)量的影響較小,具有很好的魯棒性;(3)本文采用CLM構建的室內功能區(qū)表示模型,相較于傳統(tǒng)基于碼本的表示方法維度較高,SVM提供了一種規(guī)避高維空間復雜性問題的思路,即直接用此空間的內積函數(shù)(核函數(shù)),結合在線性可分情況下的求解方法,直接求解高維空間的決策問題.基于上述考慮,故本章采用SVM作為最終的分類器.12.2.3室內功能區(qū)建模算法輸入:5種室內功能區(qū)的灰度級圖像.輸出:室內功能區(qū)表示模型.步驟1:在5種室內功能區(qū)的灰度級圖像上計算SURF特征描述子;步驟2:運用空間金字塔匹配方法,將功能區(qū)圖像分成一些規(guī)則的區(qū)域;步驟3:在每個區(qū)域上,運用最大似然法,聯(lián)合平均向量和協(xié)方差矩陣,構建一個單高斯模型,并引入?yún)?shù)和作為平均向量和協(xié)方差矩陣平衡因子;步驟4:連接各區(qū)域得到的單高斯模型,每個高斯模型進行加權,由連接后的混合高斯模型表示整體的功能區(qū)圖像;步驟5:由混合高斯模型表示的整體功能區(qū)圖像數(shù)據(jù),聯(lián)合SVM訓練用于功能區(qū)圖像的分類器.12.2功能區(qū)圖像模型構建12.3在線檢測算法為了驗證本文方法的可靠性和實用性,選取新的圖片作為測試集對模型進行匹配檢驗.輸入:5種室內功能區(qū)的灰度級圖像.輸出:室內功能區(qū)分類精度及其分類混淆矩陣.步驟1:選取不同于訓練集的5種室內功能區(qū)圖像各20張組成測試集,并在功能區(qū)灰度級圖像上計算SURF特征描述子,為了確保協(xié)方差矩陣是正定的,設置圖像的寬度和高度的最小尺寸為64;步驟2:在室內功能區(qū)圖像上依照離線訓練階段基于CLM模型的建模方法,構建測試集中是室內功能區(qū)的圖像表示模型;步驟3:將室內功能區(qū)的圖像表示模型分別送入SVM分類器進行分類檢驗,得到各自的分類精度、分類效率以及分類混淆矩陣.12.4實驗本文采用Scene15數(shù)據(jù)集,針對家庭服務機器人室內服務環(huán)境分類問題驗證所提出的模型的性能.該數(shù)據(jù)集收集了包括室內和室外共15種場景,室內場景有臥室、廚房、客廳、辦公室、商店5五種場景.考慮到家庭服務機器人工作于室內環(huán)境,故本文在該數(shù)據(jù)集中的5種室內場景上檢驗本文提出的模型的性能.該數(shù)據(jù)集的5種室內場景數(shù)據(jù)中,每種場景都包含200多張不同格局布置的圖像,是目前研究室內場景分類判別問題比較理想的數(shù)據(jù)集.本文每種場景分別選取40張圖像作為訓練集,20張圖像組成測試集,5種場景的示例圖片如圖12.2所示.12.4.1實驗數(shù)據(jù)集圖12.25種室內場景示例12.4實驗從表12.1給出的實驗結果中可分析得出以下結論:對于5種場景的分類情況,本文所使用的CLM模型對每類場景的分類精度與分類效率都高于LazebnikS和WangQL的方法.對比LazebnikS的方法,由于本文方法省去了視覺詞典的構建以及碼本的編碼過程,因此模型的構建速度得到大幅度提升,且降低了對計算設備的配置要求,更具實用性和推廣性.WangQL首先采用SIFT特征提取算法計算圖像的多尺度特征,其次加入了背景濾波的方法對圖像特征加以篩選,然后基于CLM模型表示圖像,最后采用低秩變換SVM進行分類.對比WangQL采用的方法,首先,本文采用SURF算法計算圖像底層特征,在很大程度上降低了特征的維度計算,此外,鑒于采用低秩變換后的SVM會丟失圖像信息,降低分類精確率,故本文并未采用低秩變換.12.4.2實驗結果及分析方法單類分類正確率平均正確率樣本分類平均時間臥室廚房客廳辦公室商店LazebnikS方法65.00%60.00%70.00%65.00%95.00%71.00%0.36s本文方法95.00%80.00%95.00%86.67%98.33%91.04%0.36sWangQL方法95.00%75.00%98.33%73.33%93.33%87.00%0.51s表12.1本文算法與其他算法的性能對比分析12.4實驗圖12.3給出了一次實驗的分類混淆矩陣,圖12.3(a)是詞袋模型與SVM相結合的分類結果,圖12.3(b)是CLM模型與SVM相結合的分類結果,可以看出使用詞袋模型時室內場景的分類混淆情況是比較嚴重的,而本文采用的方法具有很好的魯棒性.12.4.2實驗結果及分析(a)BOW+SVM(b)CLM+SVM圖12.3不同模型下的分類混淆情況對比12.4實驗分類器的選擇與分類結果是相互耦合的關系,所以為了驗證本文采用的分類器的合理性,本文做了進一步的驗證實驗,分別對比了AdaBoost分類器、隨機森林分類器和本文所用SVM分類器的性能.從表12.2的實驗結果來看,無論是在基于詞袋模型的場景分類實驗中,還是在本文提出的模型實驗中,分類器的不同會對分類精度和分類效率產(chǎn)生明顯的影響.本文使用的分類方法,分類精度理想,分類效率高,滿足了服務機器人實時自主作業(yè)的要求.12.4.2實驗結果及分析方法單類分類正確率平均正確率樣本分類平均時間臥室廚房客廳辦公室商店LazebnikS方法65.00%60.00%70.00%65.00%95.00%71.00%0.36sLazebnikS方法+AdaBoost分類器45.00%30.00%60.00%60.00%70.00%53.00%0.40s本文方法95.00%80.00%95.00%86.67%98

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論