壓縮包內(nèi)含有CAD圖紙和說明書,均可直接下載獲得文件,所見所得,電腦查看更方便。Q 197216396 或 11970985
一個有關(guān)移動機(jī)器人定位的視覺傳感器模型
Matthias Fichtner Axel Gro_mann
Arti_cial Intelligence Institute
Department of Computer Science
Technische Universitat Dresden
Technical Report WV-03-03/CL-2003-02
摘要
我們提出一個在走廊和傳感器模型凌亂的奧西環(huán)境下的概率估計(jì)。該模型是基于在相機(jī)中所獲得的圖像特性與本發(fā)明的特征的環(huán)境中的一個給定的三維幾何模型的比較。所涉及的技術(shù)比最先進(jìn)的攝影測量方法還簡單。這使得模型用于概率機(jī)器人的定位方法中。此外,他非常適合傳感器融合。傳感器模型已經(jīng)用于蒙特卡羅定位跟蹤的移動機(jī)器人位置導(dǎo)航任務(wù)里。實(shí)證結(jié)果提出了這個應(yīng)用程序。
1 介紹
準(zhǔn)確的本地化問題是移動機(jī)器人技術(shù)的基礎(chǔ)。為了成功的解決復(fù)雜的任務(wù),自主機(jī)器人必須可以正確的可靠地估計(jì)其目前的狀態(tài)。該定位方法的選擇通常取決于傳感器的種類和號碼,有關(guān)操作環(huán)境的先驗(yàn)知識,和可用的計(jì)算資源。最近,應(yīng)用導(dǎo)航技術(shù)已經(jīng)越來越受歡迎。在室內(nèi)機(jī)器人的技術(shù)中,我們可以區(qū)分的方法是古人的攝影測量和計(jì)算機(jī)視覺,該方法起源于人工智能機(jī)器人。以視覺為基礎(chǔ)的導(dǎo)航技術(shù)的發(fā)展的一個重要的技術(shù)貢獻(xiàn)是通過識別來自未知的觀點(diǎn)在使用特征不變的特征單幅圖像的3D對象的工作。后來,這種技術(shù)拓展到全球定位和同步地圖建設(shè)。
最后系統(tǒng)進(jìn)行位置跟蹤通過使用一個環(huán)境的幾何模型和統(tǒng)計(jì)模型的機(jī)器人的不確定性運(yùn)動姿勢和吩咐。機(jī)器人的位置是由一個高斯分布表示,并通過卡爾曼濾波更新。尋找相應(yīng)的攝像機(jī)圖像和模型的特點(diǎn)進(jìn)行了優(yōu)化,由此突出姿勢的不確定性為攝像機(jī)圖像。
在蒙特卡洛定位的基礎(chǔ)上,凝結(jié)算法已經(jīng)成功的應(yīng)用于導(dǎo)游機(jī)器人。這種基于視覺的貝葉斯過濾技術(shù)利用一個基于采樣的密度表示。在結(jié)論的對比中,他可以代表多峰概率分布。由于天花板的視覺地圖,它能定位全球范圍內(nèi)使用標(biāo)量的亮度測量機(jī)器人。結(jié)合了視覺距離特性和視覺地標(biāo)在機(jī)器人中的應(yīng)用程序提出了一個建立產(chǎn)線的方法。由于他們的方法依賴于專業(yè)的標(biāo)志性建筑,它并不適用于一次環(huán)境。
我們工作的目的是開發(fā)一種概率傳感器模式的攝像機(jī)位置估計(jì)。給定一個3D幾何環(huán)境地圖,我們想近似測量當(dāng)前相機(jī)圖像在某個地方獲得的機(jī)器人的工作環(huán)境。我們使用這個傳感器模型與MCL跟蹤在走廊移動機(jī)器人導(dǎo)航的位置??赡艿脑?,它也可以用于定位在雜亂的辦公環(huán)境和基于形狀的物體的檢測。
一方面,我們結(jié)合攝影技術(shù)基于地圖的特征攝影與韌帶的靈活性和魯棒性,如處理本地化歧義的能力。另一方面,特征匹配操作應(yīng)該足夠快,以允許傳感器融合。除了視覺輸入,我們想使用距離讀數(shù)從聲波和激光來提高定位精度。
本文組織如下。在第二節(jié)中,我們討論之前的工作。在第三節(jié)中,我們描述了視覺傳感器模型的組件。在第四節(jié)中,我們目前的實(shí)驗(yàn)結(jié)果通過MCL位置跟蹤。我們的結(jié)論在第五節(jié)。
2 相關(guān)工作
在經(jīng)典的基于模型的構(gòu)成方法測定中,我們可以區(qū)分兩個相互關(guān)聯(lián)的問題。對應(yīng)的問題是涉及到求相應(yīng)的模型和圖像特征。這種映射發(fā)生之前,位置模型的模型特性生成使用給定的相機(jī)姿勢。據(jù)說特性可以匹配如果他們相互靠近。而造成的問題由3D相機(jī)坐標(biāo)對世界起源的模型考慮到相對應(yīng)的功能結(jié)束。顯然,有一個問題需要對方事先解決,這使得解決任何耦合問題非常困難。
上面的經(jīng)典問題的解決方案如下假設(shè)—測試途徑:
(1) 給定一個攝像機(jī)位置估計(jì),最佳匹配特征對群體提供初始猜測。
(2) 對于每一個假說,估計(jì)的相對相機(jī)的姿勢被給定計(jì)算誤差的函數(shù)最小化。
(3) 現(xiàn)在有一個更準(zhǔn)確的姿勢估計(jì)用于每個假說,其余模型特性投射到的圖像與使用相機(jī)的姿勢有關(guān)。匹配的質(zhì)量評估使用合適的誤差函數(shù),在所有的假設(shè)收益率中排名。
(4) 排名最高的假設(shè)被選中。
注意,對應(yīng)的問題解決步驟(1)和(3),構(gòu)成問題(2)和(4)。
該算法的性能將取決于所使用的特征的類型,例如邊緣,線段,或色彩,以及圖像和模型之間的相似性度量的選擇,在這里被稱為誤差函數(shù)。線段是我們的選擇,因?yàn)樗麄兛梢栽诟淖児庹諚l件下被相對可靠地檢測到。作為世界模型,我們使用的操作環(huán)境是一個線框模型,在VRML中表示。設(shè)計(jì)一個合適的相似性度量是更加困難的。
原則上,誤差函數(shù)是基于取向差異相應(yīng)行段在圖像和模型中,他們的距離和長度的差異,為了減少重要性,考慮到目前多有的功能對。這個已經(jīng)建立在以下三種常見的措施中。3D被定義為模型線端點(diǎn)之間距離的總和和相應(yīng)的平面。這一措施很大程度上依賴于與相機(jī)相反投影的距離。e2D稱為無限圖像行,是預(yù)測模型線的垂直距離對應(yīng)的端點(diǎn)與無限延伸線在平面上的圖像。雙測度,e2D2,簡稱為在有限模型的線條,是總和超過所有的圖像線條端點(diǎn)對應(yīng)在圖像平面奈特雷擴(kuò)展模型的行。
圖1:視覺傳感器模型的處理步驟
限制搜索空間的匹配步驟,提出了限制可能的對應(yīng)數(shù)量,對于一個給定的姿勢估計(jì)通過結(jié)合線特性引入感性結(jié)構(gòu)。因?yàn)檫@些初始的對應(yīng)是通過e2D1和e2D2評價很高的要求強(qiáng)加在初始姿態(tài)估計(jì)與圖像處理作業(yè),包括去除失真和噪聲和特征提取的精度。假設(shè)在完整的長度下獲得所有可見模型。已經(jīng)證明了一些異常值會嚴(yán)重影響最初的通訊,在老的原始方法中由于頻繁截?cái)嘁鸬木€路壞下,阻塞和雜物。
3 傳感器模型
我們的方法是出于這個問題是否解決通信問題的估計(jì)可以避免相機(jī)姿勢。相反,我們建議進(jìn)行的圖像和模型的功能相對簡單,直接匹配。我們想調(diào)查的準(zhǔn)確性和魯棒性是這種方式所能達(dá)到的水平。
參與本方法的處理步驟示于圖1.從相機(jī)中取出圖像失真后,我們用算子提取邊緣。這個操作符合在改變光照條件下提取。從邊緣線段確定結(jié)束點(diǎn)的坐標(biāo)被忽略。在這種表示中,截?cái)嗷蚍指罹€將有類似的坐標(biāo)在霍夫空間。同樣,行3D地圖投影到圖像平面使用攝像機(jī)姿態(tài)估計(jì),并考慮到可見性約束,被表示為坐標(biāo)空間。我們已經(jīng)在匹配步驟中設(shè)計(jì)了幾種誤差函數(shù)被用來作為相似性度量。他們在下面描述。
中心匹配計(jì)數(shù)
該RST相似性度量是基于線段在霍夫空間的距離。我們認(rèn)為只能在一個長方形細(xì)胞內(nèi)的霍夫空間模型周圍為中心的功能,這些圖像特征作為可能匹配,對這些匹配結(jié)果進(jìn)行計(jì)數(shù),并由此對產(chǎn)生的總和歸一化。從模型特征來測量措施應(yīng)該是不變的,就在3D地圖或是經(jīng)營環(huán)境的變化不是模仿的對象。通過歸一化得到明顯特點(diǎn)的人數(shù)的不變性。具體而言,集中匹配計(jì)數(shù)測量SCMC被定義為:
其中未命名的使用距離參數(shù)的有效匹配。一般來說,這種相似性度量計(jì)算預(yù)期模型的比例至少由一個測量圖像點(diǎn)組成。注意,這里端點(diǎn)坐標(biāo)和長度都不考慮。
網(wǎng)格長度匹配
所述第二相似性度量是基于行組的總長度值的比較。圖像中分割線條組合在一起使用一個統(tǒng)一的離散空間。這種方法類似于霍夫變換擬合的直線。執(zhí)行相同的線路段的三維模型。讓測量線的長度落入網(wǎng)格單元,同樣根據(jù)模型,然后網(wǎng)格長度匹配測量是:
對所有包含模型的所有特性的網(wǎng)格單元,這種方法測量的長度與預(yù)期的來衡量。再次,該映射是有方向性的,也就是說,該模型被用作參考,以獲得噪聲,雜波和動態(tài)對象的不確定性。
近鄰和豪斯多夫距離
此外,我們嘗試了兩個通用的方法對兩組幾何實(shí)體的比較:近鄰和豪斯多夫距離。詳細(xì)信息請參閱【7】。都依賴于距離函數(shù),我們基于離散坐標(biāo)空間,即線路參數(shù)和可選的長度,線性和指數(shù)的方式。查看完整描述【5】。
常見的錯誤功能
為了比較,我們還實(shí)施了常用的誤差函數(shù)e3D,e2D1和e2D2,在笛卡爾空間中定義,我們代表行黑森符號xsinφ-ycosφ=d。通用誤差函數(shù)f,我們定義了相似度測量:
其中M是一組測量線,E是一組預(yù)期的行。在e2D1的情況下,f是由兩個模型之間的垂直距離線端點(diǎn)e1,e2,和無限擴(kuò)展的圖像行定義為:
同樣,雙重相似性度量,通過使用誤差函數(shù)e2D2,基于圖像之間的垂直距離線端點(diǎn)和無限擴(kuò)展行模式。
回憶的誤差函數(shù)e3D模型線端點(diǎn)的距離成正比,視圖平面通過一個圖像行和相機(jī),我們可以使用f3D實(shí)例化方程定義為:
獲取概率
理想情況下,我們希望返回單遞減值的相似性度量方法用于預(yù)測模型的姿勢估計(jì)和實(shí)際偏離特性的姿勢估計(jì)。一般,我們的目標(biāo)是在一個有效而簡單的視覺傳感器模型中,抽象的想法是特定的姿勢和環(huán)境條件平均了大量的,獨(dú)立的情況。對于公度,我們想表達(dá)模型機(jī)器人的相對坐標(biāo)而不是絕對坐標(biāo)。換句話說,我們假設(shè)測量m的概率,鑒于姿勢lm的這張照片姿勢估計(jì)W的世界模型,等于這測量三維姿勢偏差的概率和世界模型。
由視覺傳感器模型返回的概率是通過簡單的比例獲得:
4 實(shí)驗(yàn)結(jié)果
我們已經(jīng)在一系列實(shí)驗(yàn)中提出了評估傳感器模型的相似措施。使用理想化條件下人為創(chuàng)建圖像,然后我們將扭曲和噪聲添加到測試圖像中。隨后,我們使用在走廊已經(jīng)獲得的機(jī)器人真實(shí)圖像。最后,我們使用了傳感器模型穿越走廊跟蹤機(jī)器人的位置。在所有這些情況下,得到的三維可視化模型,他被用來評估解決方案。
模擬使用人為創(chuàng)造的圖像
作為第一種評價,我們生成的合成圖像特性通過從某個相機(jī)姿勢中生成一個視圖的模型。一般來說,我們從右分支到左邊重復(fù)圖1。通過引入帶來Δl,我們可以直接顯示其影響相似度值。對可視化的目的,平移偏差Δx和Δy組成一個空間偏差Δt。初步實(shí)驗(yàn)顯示只有微不足道的差異時,他們被認(rèn)為是獨(dú)立的。
圖2 :在人為創(chuàng)造的圖像中CMC的性能
對于每一個上面給出的相似性度量,至少1500萬個隨機(jī)相機(jī)姿勢加上一個隨機(jī)造成偏差的范圍構(gòu)成收益率模型。中央軍委測量的結(jié)果如圖2所示。使用GNUPLOT的平滑算子得到表面的3D圖。我們注意到一個獨(dú)特的峰值在零偏差處理單遞減相似性值誤差增加。請注意,這個簡單的測量認(rèn)為端點(diǎn)坐標(biāo)和長度的行。然而,我們已經(jīng)取得了良好的結(jié)果。
而由此產(chǎn)生的GLM,CMC類似于一個標(biāo)準(zhǔn)曲線,峰值則更加與眾不同。這符合我們的預(yù)期,因?yàn)樵谶@里考慮到圖像和模型線非常的重要。與中央的測量相比,在這種方法中會有偶然的錯誤匹配,由于不同的長度。
緊鄰的衡量是不使用的。雖然線性和指數(shù)加權(quán)方案嘗試,即使考慮到線段的長度,沒有獲得獨(dú)特的高峰,在進(jìn)一步考慮中導(dǎo)致其被排除。
基于豪斯多夫距離測量的表現(xiàn)不如前兩個,CMC和GLM,但是它的方式是所需要的。但其溫和的表現(xiàn)并不支付其最長的計(jì)算時間消耗在所有提出的措施中,并隨后被忽視。到目前為止,我們已經(jīng)表明我們的相似性措施可執(zhí)行。接下來,我們將使用誤差函數(shù)在這個框架中。在我們的設(shè)置函數(shù)e2D1表現(xiàn)很好。由此產(chǎn)生的曲線非常相似措施GLM中的曲線。這兩種方法都表現(xiàn)出一種獨(dú)特的峰值在正確的位置姿態(tài)中偏差為零。注意,線段的長度直接影響測量返回的相似度值,雖然兩個線性屬性有助于衡量e2D1。令人驚訝的是,其他兩個誤差函數(shù)e2D2和e3D表現(xiàn)不佳。
更現(xiàn)實(shí)的條件
在我們的傳感器模型中為了排除扭曲和嘈雜的圖像數(shù)據(jù),我們描述進(jìn)行另一組實(shí)驗(yàn)。為此,我們應(yīng)用一下所有綜合誤差模型生成的圖像特征匹配模型特性。每個原始行被復(fù)制的小概率(p值=0.2),并移入空間。任何線路長度超過30 像素被分成以概率p=0.3.此外,設(shè)有不存在于模型和噪聲通過添加隨機(jī)線條圖像中的均勻分布進(jìn)行了模擬。本方向是根據(jù)電流分布的角度產(chǎn)生相當(dāng)?shù)牡湫吞卣鳌?
從第一組實(shí)驗(yàn)中,這些模擬的結(jié)果沒有顯著地差異。相似度在零偏差的最大值降低,所有的形狀和特征相似性措施仍在考慮保持不變。
使用真實(shí)的走廊照片
對現(xiàn)實(shí)世界的情況自上述模擬結(jié)果可能是有問題的,我們進(jìn)行了另一組實(shí)驗(yàn)取代合成特性測量的實(shí)際相機(jī)圖像。比較結(jié)果為各種參數(shù)設(shè)置,我們收集圖片2在先驅(qū)機(jī)器人在走廊上離線和記錄功能。對于走廊示例典型的觀點(diǎn),機(jī)器人姿態(tài)在三維空間中的兩個不同的位置幾乎被離散化。后將手動機(jī)器人在每個頂點(diǎn)歸零,它執(zhí)行一個完整的當(dāng)場將逐步記錄圖像。這樣可以確保最高的準(zhǔn)確性造成坐標(biāo)和圖像想關(guān)聯(lián)。這樣,已經(jīng)有超過3200張圖片收集到64個不同的位置(x,y)。同樣以上面的模擬,對姿勢進(jìn)行了系統(tǒng)選擇從所涵蓋的測量范圍內(nèi)。通過傳感器模型指的姿態(tài)偏差Δl中的相同的離散值計(jì)算出的值,根據(jù)公式2中的假設(shè)進(jìn)行平均。
圖3:GLM對從走廊真實(shí)圖像中表現(xiàn)
結(jié)果可視化的相似性度量空間(x,y)和旋轉(zhuǎn)偏離正確的相機(jī)姿態(tài)CMC衡量展覽一個獨(dú)特的峰值約零點(diǎn)誤差。當(dāng)然,由于數(shù)量小得多的數(shù)據(jù)樣本相對于模擬使用合成數(shù)據(jù),曲線的形狀更崎嶇不平,但這是符合我們的期望。
采用此設(shè)置中的GLM措施的結(jié)果示于圖3。因?yàn)樗沂玖艘粋€更獨(dú)特的峰值相比,CMC的曲線,他或多或少的演示了特征圖譜之間的比較,考慮到了線路的長度。
蒙特卡洛本地化使用了視覺傳感器模型
我們的目標(biāo)是設(shè)計(jì)一個概率傳感器相機(jī)安裝在移動機(jī)器人的模型上,我們繼續(xù)呈現(xiàn)的結(jié)果應(yīng)用到移動機(jī)器人的本地化上。
傳感器的通用接口模型允許它用于貝葉斯本地化方法的校正步驟,例如,標(biāo)準(zhǔn)版的蒙特卡洛本地化算法。統(tǒng)計(jì)獨(dú)立以來,傳感器讀書中呈現(xiàn)了一個基本假設(shè)線,我們希望的是使用相機(jī)來代替獲得更高的準(zhǔn)確度和魯棒性除了常用的距離傳感器還有聲吶獲激光。
圖4 :本地化圖像和預(yù)測模型
在走廊實(shí)驗(yàn)中,移動機(jī)器人配備了固定安裝的CCD相機(jī)必須按照預(yù)定的路線形狀的雙重循環(huán)。途中,他必須停在八個預(yù)定義的位置,或者打開視圖在附近的一個角落里。每個圖像捕獲啟動MCL的所謂校正步驟和所有樣本的權(quán)重,根據(jù)該傳感器模型重新計(jì)算,收益率密度最高的樣品可能在重新采樣正確的姿勢坐標(biāo)。在上述預(yù)測步驟中,將整個樣本集根據(jù)機(jī)器人的運(yùn)動模型和當(dāng)前測距傳感器的讀數(shù)移入空間。
我們的初步結(jié)果看起來很有希望。在位置跟蹤實(shí)驗(yàn)中,機(jī)器人被賦予了其開始位置的估計(jì)值,大部分時間里,機(jī)器人的位置假設(shè)在最好的姿勢。在這個實(shí)驗(yàn)中,我們已經(jīng)使用了CMC措施,在圖4中,一個典型的相機(jī)如圖所示,而機(jī)器人如下所示請求路徑?;叶燃増D像描繪了視覺輸入的失真排除和預(yù)處理后的特征提取,也顯示提取線特征。此外,世界模型是根據(jù)兩個伸出姿勢,該測距跟蹤的構(gòu)成和通過MCL計(jì)算出的估計(jì)值,他大約對應(yīng)于正確的姿勢,在他們之間,我們觀察和旋轉(zhuǎn)誤差。
畫面還顯示,旋轉(zhuǎn)誤差對巧合特性有很強(qiáng)的影響程度。對應(yīng)于上述給出的結(jié)果,數(shù)據(jù)表現(xiàn)出旋轉(zhuǎn)偏差比平移偏差表現(xiàn)出更高的梯度。這一發(fā)現(xiàn)可以解釋出運(yùn)動裸關(guān)節(jié)的功能空間,因此我們的相機(jī)傳感器模型將在檢測旋轉(zhuǎn)中個出現(xiàn)分歧。像我們的先鋒軸承旋轉(zhuǎn)測程法遠(yuǎn)高于平移誤差,這個屬性使它特別適用于雙輪驅(qū)動的機(jī)器人。
5 結(jié)論和未來的工作
我們已經(jīng)提出了一個概率傳感器模型攝像機(jī)位置估計(jì)。通用的設(shè)計(jì)使得它適合與距離傳感器融合來感知來自其他的傳感器。在理想和現(xiàn)實(shí)的條件下,我們展示了廣泛的模擬和確定了合適的相似性度量。傳感器模型的本地化任務(wù)的移動機(jī)器人的申請符合我們的預(yù)測偏差。在本文中我們強(qiáng)調(diào)了很多可以改進(jìn)的空間。
我們正在研究合適的技術(shù)來定量地評價定位算法的設(shè)計(jì)傳感器模型的移動機(jī)器人的性能。這將使我們能夠嘗試雜亂的環(huán)境和動態(tài)對象。結(jié)合相機(jī)傳感器模型使用的距離傳感器融合信息呈現(xiàn)強(qiáng)勁的下一個步驟和導(dǎo)航。因?yàn)橛杏玫墓δ軘?shù)量顯著變化作為機(jī)器人穿越室內(nèi)環(huán)境,這個想法駕馭相機(jī)對準(zhǔn)更豐富的視圖(主動視覺)提供了一個很有前途的研究路徑,以及強(qiáng)大的導(dǎo)航功能。
參考文獻(xiàn)
[1] F. Dellaert, W. Burgard, D. Fox, and S. Thrun. Using the condensation algorithm for robust, vision-based mobile robot localisation. In Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition, 1999.
[2] D. DeMenthon, P. David, and H. Samet. SoftPOSIT: An algorithm for registration of 3D models to noisy perspective images combining Softassign and POSIT. Technical report, University of Maryland, MD, 2001.
[3] G. N. DeSouza and A. C. Kak. Vision for mobile robot navigation: A survey. IEEE Trans. on Pattern Analysis and Machine Intelligence, 24(2):237{267, 2002.
[4] S. Enderle, M. Ritter, D. Fox, S. Sablatnog, G. Kraetzschmar, and G. Palm. Soccer-robot localisation using sporadic visual features. In Intelligent Autonomous Systems 6, pages 959{966. IOS, 2000.
[5] M. Fichtner. A camera sensor model for sensor fusion. Master's thesis, Dept. of Computer Science, TU Dresden, Germany, 2002.
[6] S. A. Hutchinson, G. D. Hager, and P. I. Corke. A tutorial on visual servo control. IEEE Trans. on Robotics and Automation, 12(5):651{ 670, 1996.
[7] D. P. Huttenlocher, G. A. Klanderman, and W. J. Rucklidge. Comparing images using the Hausdor_ distance. IEEE Trans. on Pattern Analysis and Machine Intelligence, 15(9):850{863, 1993.
[8] A. Kosaka and A. C. Kak. Fast vision-guided mobile robot navigation using model-based reasoning and prediction of uncertainties. Com- puter Vision, Graphics, and Image Processing { Image Understanding, 56(3):271{329, 1992.
[9] R. Kumar and A. R. Hanson. Robust methods for estimating pose and a sensitivity analysis. Computer Vision, Graphics, and Image Processing { Image Understanding, 60(3):313{342, 1994.
[10] D. G. Lowe. Three-dimensional object recognition from single twodimensional images. Arti_cial Intelligence, 31(3):355{395, 1987.
[11] S. Se, D. G. Lowe, and J. Little. Vision-based mobile robot localization and mapping using scale-invariant features. In Proc. of the IEEE Int. Conf. on Robotics and Automation, pages 2051{2058, 2001.
[12] G. D. Sullivan, L. Du, and K. D. Baker. Quantitative analysis of the viewpoint consistency constraint in model-based vision. In Proc. of the 4th Int. IEEE Conf. on Computer Vision, pages 632{639, 1993.
- 12 -