壓縮包內(nèi)含有CAD圖紙和說明書,均可直接下載獲得文件,所見所得,電腦查看更方便。Q 197216396 或 11970985
一個有關移動機器人定位的視覺傳感器模型
Matthias Fichtner Axel Gro_mann
Arti_cial Intelligence Institute
Department of Computer Science
Technische Universitat Dresden
Technical Report WV-03-03/CL-2003-02
摘要
我們提出一個在走廊和傳感器模型凌亂的奧西環(huán)境下的概率估計。該模型是基于在相機中所獲得的圖像特性與本發(fā)明的特征的環(huán)境中的一個給定的三維幾何模型的比較。所涉及的技術比最先進的攝影測量方法還簡單。這使得模型用于概率機器人的定位方法中。此外,他非常適合傳感器融合。傳感器模型已經(jīng)用于蒙特卡羅定位跟蹤的移動機器人位置導航任務里。實證結(jié)果提出了這個應用程序。
1 介紹
準確的本地化問題是移動機器人技術的基礎。為了成功的解決復雜的任務,自主機器人必須可以正確的可靠地估計其目前的狀態(tài)。該定位方法的選擇通常取決于傳感器的種類和號碼,有關操作環(huán)境的先驗知識,和可用的計算資源。最近,應用導航技術已經(jīng)越來越受歡迎。在室內(nèi)機器人的技術中,我們可以區(qū)分的方法是古人的攝影測量和計算機視覺,該方法起源于人工智能機器人。以視覺為基礎的導航技術的發(fā)展的一個重要的技術貢獻是通過識別來自未知的觀點在使用特征不變的特征單幅圖像的3D對象的工作。后來,這種技術拓展到全球定位和同步地圖建設。
最后系統(tǒng)進行位置跟蹤通過使用一個環(huán)境的幾何模型和統(tǒng)計模型的機器人的不確定性運動姿勢和吩咐。機器人的位置是由一個高斯分布表示,并通過卡爾曼濾波更新。尋找相應的攝像機圖像和模型的特點進行了優(yōu)化,由此突出姿勢的不確定性為攝像機圖像。
在蒙特卡洛定位的基礎上,凝結(jié)算法已經(jīng)成功的應用于導游機器人。這種基于視覺的貝葉斯過濾技術利用一個基于采樣的密度表示。在結(jié)論的對比中,他可以代表多峰概率分布。由于天花板的視覺地圖,它能定位全球范圍內(nèi)使用標量的亮度測量機器人。結(jié)合了視覺距離特性和視覺地標在機器人中的應用程序提出了一個建立產(chǎn)線的方法。由于他們的方法依賴于專業(yè)的標志性建筑,它并不適用于一次環(huán)境。
我們工作的目的是開發(fā)一種概率傳感器模式的攝像機位置估計。給定一個3D幾何環(huán)境地圖,我們想近似測量當前相機圖像在某個地方獲得的機器人的工作環(huán)境。我們使用這個傳感器模型與MCL跟蹤在走廊移動機器人導航的位置??赡艿脑?,它也可以用于定位在雜亂的辦公環(huán)境和基于形狀的物體的檢測。
一方面,我們結(jié)合攝影技術基于地圖的特征攝影與韌帶的靈活性和魯棒性,如處理本地化歧義的能力。另一方面,特征匹配操作應該足夠快,以允許傳感器融合。除了視覺輸入,我們想使用距離讀數(shù)從聲波和激光來提高定位精度。
本文組織如下。在第二節(jié)中,我們討論之前的工作。在第三節(jié)中,我們描述了視覺傳感器模型的組件。在第四節(jié)中,我們目前的實驗結(jié)果通過MCL位置跟蹤。我們的結(jié)論在第五節(jié)。
2 相關工作
在經(jīng)典的基于模型的構(gòu)成方法測定中,我們可以區(qū)分兩個相互關聯(lián)的問題。對應的問題是涉及到求相應的模型和圖像特征。這種映射發(fā)生之前,位置模型的模型特性生成使用給定的相機姿勢。據(jù)說特性可以匹配如果他們相互靠近。而造成的問題由3D相機坐標對世界起源的模型考慮到相對應的功能結(jié)束。顯然,有一個問題需要對方事先解決,這使得解決任何耦合問題非常困難。
上面的經(jīng)典問題的解決方案如下假設—測試途徑:
(1) 給定一個攝像機位置估計,最佳匹配特征對群體提供初始猜測。
(2) 對于每一個假說,估計的相對相機的姿勢被給定計算誤差的函數(shù)最小化。
(3) 現(xiàn)在有一個更準確的姿勢估計用于每個假說,其余模型特性投射到的圖像與使用相機的姿勢有關。匹配的質(zhì)量評估使用合適的誤差函數(shù),在所有的假設收益率中排名。
(4) 排名最高的假設被選中。
注意,對應的問題解決步驟(1)和(3),構(gòu)成問題(2)和(4)。
該算法的性能將取決于所使用的特征的類型,例如邊緣,線段,或色彩,以及圖像和模型之間的相似性度量的選擇,在這里被稱為誤差函數(shù)。線段是我們的選擇,因為他們可以在改變光照條件下被相對可靠地檢測到。作為世界模型,我們使用的操作環(huán)境是一個線框模型,在VRML中表示。設計一個合適的相似性度量是更加困難的。
原則上,誤差函數(shù)是基于取向差異相應行段在圖像和模型中,他們的距離和長度的差異,為了減少重要性,考慮到目前多有的功能對。這個已經(jīng)建立在以下三種常見的措施中。3D被定義為模型線端點之間距離的總和和相應的平面。這一措施很大程度上依賴于與相機相反投影的距離。e2D稱為無限圖像行,是預測模型線的垂直距離對應的端點與無限延伸線在平面上的圖像。雙測度,e2D2,簡稱為在有限模型的線條,是總和超過所有的圖像線條端點對應在圖像平面奈特雷擴展模型的行。
圖1:視覺傳感器模型的處理步驟
限制搜索空間的匹配步驟,提出了限制可能的對應數(shù)量,對于一個給定的姿勢估計通過結(jié)合線特性引入感性結(jié)構(gòu)。因為這些初始的對應是通過e2D1和e2D2評價很高的要求強加在初始姿態(tài)估計與圖像處理作業(yè),包括去除失真和噪聲和特征提取的精度。假設在完整的長度下獲得所有可見模型。已經(jīng)證明了一些異常值會嚴重影響最初的通訊,在老的原始方法中由于頻繁截斷引起的線路壞下,阻塞和雜物。
3 傳感器模型
我們的方法是出于這個問題是否解決通信問題的估計可以避免相機姿勢。相反,我們建議進行的圖像和模型的功能相對簡單,直接匹配。我們想調(diào)查的準確性和魯棒性是這種方式所能達到的水平。
參與本方法的處理步驟示于圖1.從相機中取出圖像失真后,我們用算子提取邊緣。這個操作符合在改變光照條件下提取。從邊緣線段確定結(jié)束點的坐標被忽略。在這種表示中,截斷或分割線將有類似的坐標在霍夫空間。同樣,行3D地圖投影到圖像平面使用攝像機姿態(tài)估計,并考慮到可見性約束,被表示為坐標空間。我們已經(jīng)在匹配步驟中設計了幾種誤差函數(shù)被用來作為相似性度量。他們在下面描述。
中心匹配計數(shù)
該RST相似性度量是基于線段在霍夫空間的距離。我們認為只能在一個長方形細胞內(nèi)的霍夫空間模型周圍為中心的功能,這些圖像特征作為可能匹配,對這些匹配結(jié)果進行計數(shù),并由此對產(chǎn)生的總和歸一化。從模型特征來測量措施應該是不變的,就在3D地圖或是經(jīng)營環(huán)境的變化不是模仿的對象。通過歸一化得到明顯特點的人數(shù)的不變性。具體而言,集中匹配計數(shù)測量SCMC被定義為:
其中未命名的使用距離參數(shù)的有效匹配。一般來說,這種相似性度量計算預期模型的比例至少由一個測量圖像點組成。注意,這里端點坐標和長度都不考慮。
網(wǎng)格長度匹配
所述第二相似性度量是基于行組的總長度值的比較。圖像中分割線條組合在一起使用一個統(tǒng)一的離散空間。這種方法類似于霍夫變換擬合的直線。執(zhí)行相同的線路段的三維模型。讓測量線的長度落入網(wǎng)格單元,同樣根據(jù)模型,然后網(wǎng)格長度匹配測量是:
對所有包含模型的所有特性的網(wǎng)格單元,這種方法測量的長度與預期的來衡量。再次,該映射是有方向性的,也就是說,該模型被用作參考,以獲得噪聲,雜波和動態(tài)對象的不確定性。
近鄰和豪斯多夫距離
此外,我們嘗試了兩個通用的方法對兩組幾何實體的比較:近鄰和豪斯多夫距離。詳細信息請參閱【7】。都依賴于距離函數(shù),我們基于離散坐標空間,即線路參數(shù)和可選的長度,線性和指數(shù)的方式。查看完整描述【5】。
常見的錯誤功能
為了比較,我們還實施了常用的誤差函數(shù)e3D,e2D1和e2D2,在笛卡爾空間中定義,我們代表行黑森符號xsinφ-ycosφ=d。通用誤差函數(shù)f,我們定義了相似度測量:
其中M是一組測量線,E是一組預期的行。在e2D1的情況下,f是由兩個模型之間的垂直距離線端點e1,e2,和無限擴展的圖像行定義為:
同樣,雙重相似性度量,通過使用誤差函數(shù)e2D2,基于圖像之間的垂直距離線端點和無限擴展行模式。
回憶的誤差函數(shù)e3D模型線端點的距離成正比,視圖平面通過一個圖像行和相機,我們可以使用f3D實例化方程定義為:
獲取概率
理想情況下,我們希望返回單遞減值的相似性度量方法用于預測模型的姿勢估計和實際偏離特性的姿勢估計。一般,我們的目標是在一個有效而簡單的視覺傳感器模型中,抽象的想法是特定的姿勢和環(huán)境條件平均了大量的,獨立的情況。對于公度,我們想表達模型機器人的相對坐標而不是絕對坐標。換句話說,我們假設測量m的概率,鑒于姿勢lm的這張照片姿勢估計W的世界模型,等于這測量三維姿勢偏差的概率和世界模型。
由視覺傳感器模型返回的概率是通過簡單的比例獲得:
4 實驗結(jié)果
我們已經(jīng)在一系列實驗中提出了評估傳感器模型的相似措施。使用理想化條件下人為創(chuàng)建圖像,然后我們將扭曲和噪聲添加到測試圖像中。隨后,我們使用在走廊已經(jīng)獲得的機器人真實圖像。最后,我們使用了傳感器模型穿越走廊跟蹤機器人的位置。在所有這些情況下,得到的三維可視化模型,他被用來評估解決方案。
模擬使用人為創(chuàng)造的圖像
作為第一種評價,我們生成的合成圖像特性通過從某個相機姿勢中生成一個視圖的模型。一般來說,我們從右分支到左邊重復圖1。通過引入帶來Δl,我們可以直接顯示其影響相似度值。對可視化的目的,平移偏差Δx和Δy組成一個空間偏差Δt。初步實驗顯示只有微不足道的差異時,他們被認為是獨立的。
圖2 :在人為創(chuàng)造的圖像中CMC的性能
對于每一個上面給出的相似性度量,至少1500萬個隨機相機姿勢加上一個隨機造成偏差的范圍構(gòu)成收益率模型。中央軍委測量的結(jié)果如圖2所示。使用GNUPLOT的平滑算子得到表面的3D圖。我們注意到一個獨特的峰值在零偏差處理單遞減相似性值誤差增加。請注意,這個簡單的測量認為端點坐標和長度的行。然而,我們已經(jīng)取得了良好的結(jié)果。
而由此產(chǎn)生的GLM,CMC類似于一個標準曲線,峰值則更加與眾不同。這符合我們的預期,因為在這里考慮到圖像和模型線非常的重要。與中央的測量相比,在這種方法中會有偶然的錯誤匹配,由于不同的長度。
緊鄰的衡量是不使用的。雖然線性和指數(shù)加權(quán)方案嘗試,即使考慮到線段的長度,沒有獲得獨特的高峰,在進一步考慮中導致其被排除。
基于豪斯多夫距離測量的表現(xiàn)不如前兩個,CMC和GLM,但是它的方式是所需要的。但其溫和的表現(xiàn)并不支付其最長的計算時間消耗在所有提出的措施中,并隨后被忽視。到目前為止,我們已經(jīng)表明我們的相似性措施可執(zhí)行。接下來,我們將使用誤差函數(shù)在這個框架中。在我們的設置函數(shù)e2D1表現(xiàn)很好。由此產(chǎn)生的曲線非常相似措施GLM中的曲線。這兩種方法都表現(xiàn)出一種獨特的峰值在正確的位置姿態(tài)中偏差為零。注意,線段的長度直接影響測量返回的相似度值,雖然兩個線性屬性有助于衡量e2D1。令人驚訝的是,其他兩個誤差函數(shù)e2D2和e3D表現(xiàn)不佳。
更現(xiàn)實的條件
在我們的傳感器模型中為了排除扭曲和嘈雜的圖像數(shù)據(jù),我們描述進行另一組實驗。為此,我們應用一下所有綜合誤差模型生成的圖像特征匹配模型特性。每個原始行被復制的小概率(p值=0.2),并移入空間。任何線路長度超過30 像素被分成以概率p=0.3.此外,設有不存在于模型和噪聲通過添加隨機線條圖像中的均勻分布進行了模擬。本方向是根據(jù)電流分布的角度產(chǎn)生相當?shù)牡湫吞卣鳌?
從第一組實驗中,這些模擬的結(jié)果沒有顯著地差異。相似度在零偏差的最大值降低,所有的形狀和特征相似性措施仍在考慮保持不變。
使用真實的走廊照片
對現(xiàn)實世界的情況自上述模擬結(jié)果可能是有問題的,我們進行了另一組實驗取代合成特性測量的實際相機圖像。比較結(jié)果為各種參數(shù)設置,我們收集圖片2在先驅(qū)機器人在走廊上離線和記錄功能。對于走廊示例典型的觀點,機器人姿態(tài)在三維空間中的兩個不同的位置幾乎被離散化。后將手動機器人在每個頂點歸零,它執(zhí)行一個完整的當場將逐步記錄圖像。這樣可以確保最高的準確性造成坐標和圖像想關聯(lián)。這樣,已經(jīng)有超過3200張圖片收集到64個不同的位置(x,y)。同樣以上面的模擬,對姿勢進行了系統(tǒng)選擇從所涵蓋的測量范圍內(nèi)。通過傳感器模型指的姿態(tài)偏差Δl中的相同的離散值計算出的值,根據(jù)公式2中的假設進行平均。
圖3:GLM對從走廊真實圖像中表現(xiàn)
結(jié)果可視化的相似性度量空間(x,y)和旋轉(zhuǎn)偏離正確的相機姿態(tài)CMC衡量展覽一個獨特的峰值約零點誤差。當然,由于數(shù)量小得多的數(shù)據(jù)樣本相對于模擬使用合成數(shù)據(jù),曲線的形狀更崎嶇不平,但這是符合我們的期望。
采用此設置中的GLM措施的結(jié)果示于圖3。因為他揭示了一個更獨特的峰值相比,CMC的曲線,他或多或少的演示了特征圖譜之間的比較,考慮到了線路的長度。
蒙特卡洛本地化使用了視覺傳感器模型
我們的目標是設計一個概率傳感器相機安裝在移動機器人的模型上,我們繼續(xù)呈現(xiàn)的結(jié)果應用到移動機器人的本地化上。
傳感器的通用接口模型允許它用于貝葉斯本地化方法的校正步驟,例如,標準版的蒙特卡洛本地化算法。統(tǒng)計獨立以來,傳感器讀書中呈現(xiàn)了一個基本假設線,我們希望的是使用相機來代替獲得更高的準確度和魯棒性除了常用的距離傳感器還有聲吶獲激光。
圖4 :本地化圖像和預測模型
在走廊實驗中,移動機器人配備了固定安裝的CCD相機必須按照預定的路線形狀的雙重循環(huán)。途中,他必須停在八個預定義的位置,或者打開視圖在附近的一個角落里。每個圖像捕獲啟動MCL的所謂校正步驟和所有樣本的權(quán)重,根據(jù)該傳感器模型重新計算,收益率密度最高的樣品可能在重新采樣正確的姿勢坐標。在上述預測步驟中,將整個樣本集根據(jù)機器人的運動模型和當前測距傳感器的讀數(shù)移入空間。
我們的初步結(jié)果看起來很有希望。在位置跟蹤實驗中,機器人被賦予了其開始位置的估計值,大部分時間里,機器人的位置假設在最好的姿勢。在這個實驗中,我們已經(jīng)使用了CMC措施,在圖4中,一個典型的相機如圖所示,而機器人如下所示請求路徑?;叶燃増D像描繪了視覺輸入的失真排除和預處理后的特征提取,也顯示提取線特征。此外,世界模型是根據(jù)兩個伸出姿勢,該測距跟蹤的構(gòu)成和通過MCL計算出的估計值,他大約對應于正確的姿勢,在他們之間,我們觀察和旋轉(zhuǎn)誤差。
畫面還顯示,旋轉(zhuǎn)誤差對巧合特性有很強的影響程度。對應于上述給出的結(jié)果,數(shù)據(jù)表現(xiàn)出旋轉(zhuǎn)偏差比平移偏差表現(xiàn)出更高的梯度。這一發(fā)現(xiàn)可以解釋出運動裸關節(jié)的功能空間,因此我們的相機傳感器模型將在檢測旋轉(zhuǎn)中個出現(xiàn)分歧。像我們的先鋒軸承旋轉(zhuǎn)測程法遠高于平移誤差,這個屬性使它特別適用于雙輪驅(qū)動的機器人。
5 結(jié)論和未來的工作
我們已經(jīng)提出了一個概率傳感器模型攝像機位置估計。通用的設計使得它適合與距離傳感器融合來感知來自其他的傳感器。在理想和現(xiàn)實的條件下,我們展示了廣泛的模擬和確定了合適的相似性度量。傳感器模型的本地化任務的移動機器人的申請符合我們的預測偏差。在本文中我們強調(diào)了很多可以改進的空間。
我們正在研究合適的技術來定量地評價定位算法的設計傳感器模型的移動機器人的性能。這將使我們能夠嘗試雜亂的環(huán)境和動態(tài)對象。結(jié)合相機傳感器模型使用的距離傳感器融合信息呈現(xiàn)強勁的下一個步驟和導航。因為有用的功能數(shù)量顯著變化作為機器人穿越室內(nèi)環(huán)境,這個想法駕馭相機對準更豐富的視圖(主動視覺)提供了一個很有前途的研究路徑,以及強大的導航功能。
參考文獻
[1] F. Dellaert, W. Burgard, D. Fox, and S. Thrun. Using the condensation algorithm for robust, vision-based mobile robot localisation. In Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition, 1999.
[2] D. DeMenthon, P. David, and H. Samet. SoftPOSIT: An algorithm for registration of 3D models to noisy perspective images combining Softassign and POSIT. Technical report, University of Maryland, MD, 2001.
[3] G. N. DeSouza and A. C. Kak. Vision for mobile robot navigation: A survey. IEEE Trans. on Pattern Analysis and Machine Intelligence, 24(2):237{267, 2002.
[4] S. Enderle, M. Ritter, D. Fox, S. Sablatnog, G. Kraetzschmar, and G. Palm. Soccer-robot localisation using sporadic visual features. In Intelligent Autonomous Systems 6, pages 959{966. IOS, 2000.
[5] M. Fichtner. A camera sensor model for sensor fusion. Master's thesis, Dept. of Computer Science, TU Dresden, Germany, 2002.
[6] S. A. Hutchinson, G. D. Hager, and P. I. Corke. A tutorial on visual servo control. IEEE Trans. on Robotics and Automation, 12(5):651{ 670, 1996.
[7] D. P. Huttenlocher, G. A. Klanderman, and W. J. Rucklidge. Comparing images using the Hausdor_ distance. IEEE Trans. on Pattern Analysis and Machine Intelligence, 15(9):850{863, 1993.
[8] A. Kosaka and A. C. Kak. Fast vision-guided mobile robot navigation using model-based reasoning and prediction of uncertainties. Com- puter Vision, Graphics, and Image Processing { Image Understanding, 56(3):271{329, 1992.
[9] R. Kumar and A. R. Hanson. Robust methods for estimating pose and a sensitivity analysis. Computer Vision, Graphics, and Image Processing { Image Understanding, 60(3):313{342, 1994.
[10] D. G. Lowe. Three-dimensional object recognition from single twodimensional images. Arti_cial Intelligence, 31(3):355{395, 1987.
[11] S. Se, D. G. Lowe, and J. Little. Vision-based mobile robot localization and mapping using scale-invariant features. In Proc. of the IEEE Int. Conf. on Robotics and Automation, pages 2051{2058, 2001.
[12] G. D. Sullivan, L. Du, and K. D. Baker. Quantitative analysis of the viewpoint consistency constraint in model-based vision. In Proc. of the 4th Int. IEEE Conf. on Computer Vision, pages 632{639, 1993.
- 12 -