【摘 要】GPS信號對建筑物的穿透能力有限,無法滿足人們室內(nèi)定位精度的需求。為了彌補這一不足,通過對現(xiàn)有室內(nèi)定位技術(shù)進(jìn)行研究,對比分析各種技術(shù)在不同室內(nèi)環(huán)境下的優(yōu)缺點,提出了基于PDR輔助視覺室內(nèi)定位的方法。首先對光照條件不足和誤差累積對于定位精度的影響進(jìn)行獨立評價,然后綜合考慮多種因素融合算法性能進(jìn)行分析,并給出了復(fù)雜室內(nèi)環(huán)境下應(yīng)用該算法進(jìn)行定位的可行性。最后通過實驗證實了該算法的可靠性和魯棒性。
【關(guān)鍵詞】室內(nèi)定位;視覺定位;PDR;融合算法
推薦閱讀:《影像視覺》(月刊)創(chuàng)刊于1973年,由科學(xué)技術(shù)部和新聞出版署批準(zhǔn),國內(nèi)外公開發(fā)行,全國感光材料信息站主辦。
1 引言
由于室內(nèi)環(huán)境復(fù)雜多變,人們對于室內(nèi)位置服務(wù)的要求也越來越高。一系列的定位技術(shù)如Wi-Fi定位、藍(lán)牙定位、慣性導(dǎo)航系統(tǒng)(INS, Inertial Navigation System)、基于視覺的定位等技術(shù)得到了研究人員的高度關(guān)注。然而,每種技術(shù)都有自己的優(yōu)勢和局限性。目前室內(nèi)定位研究的熱點方向是如何結(jié)合不同的技術(shù)實現(xiàn)高精度定位。
文獻(xiàn)[1]中提出的新方案是將行人航跡推算(PDR, Pedestrian Dead Reckoning)和Wi-Fi指紋技術(shù)結(jié)合起來。這種方案的主要優(yōu)勢在于,它只依賴于少部分建筑參數(shù)和智能手機中的加速度計、指南針和Wi-Fi卡。但隨著手機攜帶方式的改變,慣性傳感器定位系統(tǒng)很難從多個復(fù)雜的疊加運動中提取出完整、準(zhǔn)確的運動軌跡。在文獻(xiàn)[2]中,利用檢測到的目標(biāo)像素的變化率來說明PDR在未標(biāo)定相機中的有效性,這有助于提高PDR的定位性能。Ashish Gupa和Alper Yilmaz的研究表明,使用視覺和慣性傳感器進(jìn)行室內(nèi)定位只需要在移動設(shè)備上安裝一個平面建筑信息模型(BIM, Building Information Modeling)和廉價的傳感器套件[3]。綜上所述,多源定位系統(tǒng)的定位性能得到了很大的提升。
基于視覺的定位和基于PDR的定位是兩種常用的室內(nèi)定位方法。文獻(xiàn)[4]-文獻(xiàn)[7]中提出了許多室內(nèi)定位系統(tǒng),其共同優(yōu)點是成本低、能耗低。但智能手機相機受光照條件、圖像分辨率和相機自動對焦速度的影響[8],采集到的視覺圖像具有不穩(wěn)定性。ARCore是谷歌提出的AR增強現(xiàn)實項目。ARCore的區(qū)域?qū)W習(xí)功能可以讓智能手機尋找和記憶物理空間的關(guān)鍵特征,比如邊緣、角落等。ARCore有自己的參照系,提取目標(biāo)特征的方法比其他基于視覺的定位系統(tǒng)更加精確。但在光照條件不足的情況下,其提取結(jié)果會有很大偏差。如果想要實現(xiàn)無論何種光照條件下都能達(dá)到精確定位的效果,就需要選擇其他室內(nèi)定位技術(shù)來彌補這一不足。
如文獻(xiàn)[9]中所描述的,PDR是相對定位技術(shù),即從已知的位置出發(fā),對行走距離和行走方向進(jìn)行估計的技術(shù),其對光照沒有任何要求。雖然PDR定位可以實現(xiàn)連續(xù)的位置跟蹤,但隨著行走距離和行走方向的改變,誤差累積是主要問題[10]。此外,在運動模式復(fù)雜的室內(nèi)環(huán)境中,PDR定位系統(tǒng)需要進(jìn)行不斷更新,這就給室內(nèi)定位提出了更大的挑戰(zhàn)。
本研究提出了一種基于PDR的輔助視覺室內(nèi)定位新算法,通過融合基于視覺的定位和基于PDR定位的優(yōu)勢,實現(xiàn)了高精度的定位,并且同時保證了定位的魯棒性。
2 系統(tǒng)描述
本文提出了一種基于視覺和慣性傳感器相融合的多源室內(nèi)定位系統(tǒng)。系統(tǒng)框圖如圖1所示。基于ARCore的定位算法用于提供視覺定位測量。基于慣性的定位結(jié)果由智能手機內(nèi)置的加速度計和陀螺儀進(jìn)行計算。這兩個系統(tǒng)獨立工作。然后分別對定位結(jié)果的有效性進(jìn)行評估,并采用松耦合的方法進(jìn)行融合。
2.1 基于ARCore視覺定位算法
基于ARCore的視覺定位算法進(jìn)行定位的過程是篩選、識別特征點、匹配特征點、濾除錯誤匹配、轉(zhuǎn)換坐標(biāo)。在其運動跟蹤中,攝像機的加速度和運動方向由6軸慣性傳感器(加速度和陀螺儀)進(jìn)行捕捉。然后將上述兩個傳感器的數(shù)據(jù)進(jìn)行整合,通過區(qū)域?qū)W習(xí)來解決運動跟蹤中積累的誤差,從而實現(xiàn)三維運動跟蹤。基于ARCore的視覺定位算法提供的坐標(biāo)位于一個自定義的虛擬框架中。為了與視覺定位的數(shù)據(jù)融合,PDR幀中的坐標(biāo)在基于ARCore的視覺幀中的映射方法如下所示:
2.3 基于ARCore的視覺定位和基于PDR定位的
融合算法
基于ARCore的視覺定位在光照充足的大多數(shù)環(huán)境下都能進(jìn)行精準(zhǔn)的定位。但是當(dāng)行人移動到光線較差、反光度較大的室內(nèi)環(huán)境時,其定位精度會隨之變低。雖然PDR的定位結(jié)果必然會隨著時間的累積而產(chǎn)生誤差,進(jìn)而影響定位精度,但慣性測量單元(IMU, Inertial Measurement Unit)在各點的估計誤差范圍是可靠的。因此本文將使用IMU來判斷基于ARCore的輸出點的有效性。如果輸出點在誤差范圍內(nèi),表明其輸出有效,否則輸出無效。誤差范圍ε的判定如圖3所示:
3 研究結(jié)果
通過現(xiàn)場實驗對所提出的融合算法性能進(jìn)行了測試。實驗地點為黑龍江大學(xué)物理實驗樓七樓。測試軌跡持續(xù)時間約為15分鐘。本文利用校驗點表示地面真值,分析了該方法的定位誤差,并與傳統(tǒng)方法進(jìn)行了比較。
3.1 基于ARCore視覺定位的結(jié)果
基于ARCore的視覺定位結(jié)果如圖4所示,其中紅點表示預(yù)設(shè)路徑中的檢查點,黑線為輸出的軌跡,藍(lán)線表示實驗樓七樓的墻面。
3.2 PDR定位結(jié)果
PDR的定位結(jié)果如圖5所示。PDR定位的軌跡在很多地方偏離了指定的區(qū)域。開始時,位移的偏移誤差很小,隨著時間的推移,誤差逐漸累積,導(dǎo)致圖5中的軌跡與預(yù)設(shè)路徑中的檢查點出現(xiàn)了很大的偏差。
3.3 融合定位系統(tǒng)的結(jié)果
圖6表明融合定位系統(tǒng)的輸出軌跡與單獨基于ARCore的視覺定位系統(tǒng)的輸出相似。但從圖6中可以看出,當(dāng)室內(nèi)環(huán)境中光照條件發(fā)生變化或行人前方墻體太白時,其輸出異常,與融合系統(tǒng)存在明顯的差異。
通過對以上定位系統(tǒng)輸出誤差的分析,比較了所有標(biāo)記點輸出誤差的中位數(shù)、平均值、均方根和四分之三值,如表1所示。通過比較可以看出,PDR的定位精度低于基于ARCore的視覺定位的精度。
三種算法定位結(jié)果輸出的誤差積累分布如圖7所示,其中橫軸為定位誤差,用εd表示,單位為米,縱軸為誤差積累概率Pa。當(dāng)Pa=1時,即誤差積累概率為100%時,對應(yīng)的橫軸的值為本次實驗的最大定位誤差。當(dāng)Pa=0時,即誤差積累概率為0時,對應(yīng)的縱軸的值為本實驗的最小定位誤差。
實驗所得定位誤差εd和定位累計誤差εa隨定位時間t的變化情況分別如圖8(a)和圖8(b)所示。通過數(shù)據(jù)對比不難看出,基于PDR定位的精度遠(yuǎn)低于基于ARCore的視覺定位和融合算法定位系統(tǒng)的精度。基于ARCore的視覺定位誤差與融合系統(tǒng)定位誤差在80%以內(nèi)是相同的,但在光照條件不足的環(huán)境下,基于ARCore的視覺定位出現(xiàn)了較大的誤差,而融合定位系統(tǒng)的定位誤差相對穩(wěn)定。綜上所述,本文提出的融合定位算法大大提高了室內(nèi)定位系統(tǒng)的定位精度。
4 結(jié)束語
本文提出了一種新型融合室內(nèi)定位算法,將基于視覺的定位算法和基于慣性的定位算法融合在一個松散耦合的體系結(jié)構(gòu)中,利用PDR的輸出值對基于ARCore的定位獲得的測量值進(jìn)行分析與測試。如果基于ARCore的定位給出的步長可靠,則直接用于融合系統(tǒng)中,否則步長由倒立擺模型導(dǎo)出。卡爾曼濾波器用于航向融合。實驗結(jié)果表明,與傳統(tǒng)的室內(nèi)定位系統(tǒng)相比,融合定位系統(tǒng)實現(xiàn)了更高精度的室內(nèi)定位。
參考文獻(xiàn):
[1] Wang B, Liu Xuelin, Yu Baoguo, et al. Pedestrian Dead Reckoning Based on Motion Mode Recognition Using a Smartphone[J]. Sensors, 2018,18(6):1811.
[2] Li Y, He Z, Nielsen J. Enhancing Wi-Fi based indoor pedestrian dead reckoning with security cameras[C]//Ubiquitous Positioning, Indoor Navigation and Location Based Services (UPINLBS), 2016 Fourth International Conference for IEEE. 2016: 107-112.
[3] Yilmaz A, Gupta A. Indoor positioning using visual and inertial sensors[J]. SENSORS, 2016: 1-3.
[4] 李華亮,錢志鴻,田洪亮. 基于核函數(shù)特征提取的室內(nèi)定位算法研究[J]. 通信學(xué)報, 2017(1): 158-167.
論文指導(dǎo) >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >