11月4日,全球機器人規(guī)模最大的學(xué)術(shù)會議之一——ieee智能機器人與系統(tǒng)國際會議(iros)正式開幕,大會吸引了4000多名世界各地的機器人、自動化系統(tǒng)及人工智能等領(lǐng)域的專業(yè)人士、頂尖研究團隊代表及企業(yè)界人士參加交流。除了聚焦最新機器人研究成果,iros還會舉辦機器人比賽,以更為直接而又輕松的方式展現(xiàn)機器人的魅力。今年的機器人挑戰(zhàn)賽聚焦機器視覺前沿領(lǐng)域,旨在通過比賽探索,賦予ai終生學(xué)習(xí)能力。當(dāng)天,iros 2019大會正式揭曉了lifelong slam挑戰(zhàn)賽結(jié)果,來自九號機器人有限公司的segwayrobotics團隊以絕對優(yōu)勢獲得了冠軍。

代替人類從事繁重、危險的工作,一直是機器人研究的終極目標(biāo)。機器人在現(xiàn)實環(huán)境中具有實用性,必需要響應(yīng)和適應(yīng)人類與環(huán)境的變化,而機器人的「眼睛」——機器視覺,可以通過光學(xué)裝置和傳感器讓機器人通過圖像認(rèn)知周圍環(huán)境,并做出相應(yīng)的判斷和決策。
今年的iros機器人挑戰(zhàn)賽有兩項,lifelong slam - 適應(yīng)場景變化的定位算法競賽就是其中之一,比拼的是機器人通過視覺進行持續(xù)自我定位的能力。
slam全稱“同時定位與建圖”,旨在使機器人在移動過程中能夠自主估計自身所處的位置和姿態(tài),是機器人領(lǐng)域的核心問題之一。通俗一點來說,slam指的是當(dāng)機器人來到一個完全陌生的環(huán)境時,它需要精準(zhǔn)地建立時間和空間的對應(yīng)關(guān)系,并能完美地知道:我剛才在哪里,現(xiàn)在在哪里?我看到了什么,現(xiàn)在看到的和之前看到的有什么不一樣?我剛走過的軌跡抖嗎,我現(xiàn)在的位置飄嗎?如果我迷路了我該怎么辦,我還能追蹤到自己的軌跡嗎?

一般大家研究slam往往著重考察機器人在靜態(tài)環(huán)境中或在包含某些明顯動態(tài)特性(例如移動人和物體)場景中的定位精準(zhǔn)度,而忽視場景變化帶來的定位失敗和錯誤匹配問題。例如,在家庭場景中,大多數(shù)物品是可移動、可變形的,同一個客廳第二天經(jīng)過整理,機器看到的世界和第一天相比已經(jīng)發(fā)生了巨變,此時slam能否重定位成功?這種動態(tài)變化對機器(重新)定位的魯棒性和地圖的可重用性構(gòu)成了挑戰(zhàn)。

因此,本次比賽提出定位成功率這一指標(biāo),著重考察slam算法能否在視角、光照和場景布置發(fā)生變化時穩(wěn)定識別自身位置,從而支持機器人的長期部署。
為配合本賽事,研究人員制作發(fā)布了全新的slam數(shù)據(jù)集——openloris-scene。與以往slam數(shù)據(jù)集相比,openloris-scene中包含的場景更貼近生活,傳感器配置更豐富,并且對每個場景多次錄制,從而包含真實生活導(dǎo)致的場景變化。openloris-scene數(shù)據(jù)集將成為slam算法能否支持機器人真實部署的試金石。
openloris-scene使用九號機器人segway robotics團隊研發(fā)的segway配送機器人s1來收集數(shù)據(jù)。據(jù)了解,目前市面上能夠支持加裝很多傳感器來采集制數(shù)據(jù),并能在人群中行走的,只有segway配送機器人s1。s1上加裝了realsense d435i攝像機和realsense t265攝像機兩個傳感器來采集圖像數(shù)據(jù),兩者均安裝在大約1m的固定高度上。s1還提供了車輪編碼器 odometry里程計數(shù)據(jù)。

自7月份上線以來,比賽吸引了來自全球數(shù)十只隊伍參與,其中不乏北大,上海交大等實力強悍的科研團隊加入賽事。在經(jīng)過數(shù)月的算法比拼后,segway robotics團隊和上海交大決賽得分超過90分,而作為參考基準(zhǔn)的orb_slam2、vins-mono等主流算法只能得到不到40分。
據(jù)參賽工程師說,segway robotics團隊在segway配送機器人s1原有的定位算法框架下,融合了深度學(xué)習(xí)的特征匹配和場景重定位,使機器人通過視覺進行持續(xù)自我定位的能力大大提高,綜合評估分?jǐn)?shù)第一。

本次奪冠,是對segway robotics在slam方向多年的技術(shù)累積的充分肯定,尤其在slam算法實用化的方面。在商業(yè)機器人運行的真實環(huán)境中,視覺感知會面臨諸多挑戰(zhàn):環(huán)境和光照變化;無紋理環(huán)境, 動態(tài)環(huán)境等。segway robotics的算法框架融合的多傳感器信息,包括魚眼相機,慣性測量器件以及底盤編碼器,使定位算法更加穩(wěn)定。同時,通過不斷的優(yōu)化地圖和合并地圖增加視覺感知的范圍,提高機器人的重新定位(relocalization)的概率。通過這次比賽, 驗證了segway robotics算法的實時定位的性能, 以及在大規(guī)模室內(nèi)環(huán)境中建立一致地圖的能力。
據(jù)了解segway robotics隸屬于九號機器人,致力于機器人創(chuàng)新領(lǐng)域的業(yè)務(wù)。從2015年起,該團隊就深耕機器人領(lǐng)域,專注于研發(fā)、生產(chǎn)和推廣針對個人消費者和企業(yè)級市場的智能機器人,擁有全球領(lǐng)先的人工智能(ai)算法研發(fā)能力,以及硬件整機的研發(fā)與量產(chǎn)能力。
2018年8月,該團隊發(fā)布了賽格威配送機器人s1,與美團、餓了么均建立了戰(zhàn)略合作,并累計完成5000余公里的實地運行。在第一代機器人基礎(chǔ)上,該團隊還研發(fā)了第二代室內(nèi)配送機器人s2,在產(chǎn)品多方面性能上進行了升級,采用與s1深度攝像頭成本相近但可視角度更大的lds lidar,與視覺傳感器融合后的導(dǎo)航系統(tǒng),定位精度更高,視覺盲區(qū)更少,可以輕松檢測到人腳或臺階,并做出適當(dāng)應(yīng)對反應(yīng)。同時,該團隊還主導(dǎo)研發(fā)了segway室外配送機器人x1。

segway robotics一直很重視學(xué)術(shù)前沿和工程落地探索相結(jié)合,每年都會投入人力和實習(xí)生項目在參加各種學(xué)術(shù)會議賽事。在剛剛結(jié)束的兩年一屆的由北航、商湯科技、中科院、中大舉辦的 iccv 2019(international conference on computer vision)人-物交互檢測競賽中,segway robotics 還派出了自己培養(yǎng)的實習(xí)生隊伍,獲得了【現(xiàn)實生活場景的人和物體的關(guān)系交互檢測】項目的第二名??磥?九號機器人segway robotics團隊的機器人技術(shù)還是相當(dāng)先進的,不知道為何這家公司在宣傳上卻如此低調(diào)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
