
「AI新(xin)青年講(jiang)座(zuo)」將邀請世界(jie)頂(ding)尖(jian)AI研究機(ji)(ji)構和大學的科研新(xin)青年,主講(jiang)他們在計算機(ji)(ji)視(shi)覺、機(ji)(ji)器學習等人工智能領(ling)域的最新(xin)重要研究成(cheng)果。
AI新(xin)青年是(shi)加速人工(gong)(gong)智能(neng)前(qian)沿(yan)研究的(de)新(xin)生(sheng)力量。AI新(xin)青年的(de)視頻(pin)講解(jie)和(he)直(zhi)播答(da)疑,將可以(yi)幫(bang)助(zhu)大家增進對人工(gong)(gong)智能(neng)前(qian)沿(yan)研究的(de)理(li)解(jie),相應(ying)領域的(de)專業知識(shi)也能(neng)夠(gou)(gou)得以(yi)積(ji)累加深。同時,通(tong)過與AI新(xin)青年的(de)直(zhi)接交流(liu),大家在AI學習和(he)應(ying)用AI的(de)過程中(zhong)遇到的(de)問題,也能(neng)夠(gou)(gou)盡快(kuai)解(jie)決。
「AI新(xin)青年(nian)講座(zuo)」目前已(yi)完結206講。有興趣分(fen)享學(xue)術成(cheng)果的朋友,可以與智(zhi)東西公開課教研團隊進(jin)行郵件(class@sanyasheying.cn)聯系。
神經場(NeRF)三(san)維表(biao)達由于其(qi)高效(xiao)、簡潔(jie)、精確(que)且(qie)易于持續優化的(de)(de)特點,近期在同(tong)時定位及建圖(tu)(SLAM)中被廣泛應用。但是從隱式(shi)神經網(wang)絡中提(ti)取獨立的(de)(de)物(wu)體(ti)表(biao)達是困難的(de)(de):1)網(wang)絡參數與特定3D區域(yu)的(de)(de)關聯不(bu)可知;2)難以滿(man)足(zu)SLAM的(de)(de)實時性要求;3)難以完全解耦不(bu)同(tong)物(wu)體(ti)的(de)(de)表(biao)達和訓練。
在 CVPR 2023 上,來自帝國(guo)理工學院(yuan)戴森機(ji)器(qi)人實驗(yan)室的(de)(de)在讀博士孔昕(xin)等人提出了一個(ge)使(shi)用神經場表示的(de)(de)物體(ti)級 SLAM 系統:vMAP。在 vMAP 中(zhong),每個(ge)物體(ti)都由一個(ge)小 MLP 神經網絡表示,無需 3D 先(xian)驗(yan)即可實現高效(xiao)、稠(chou)密的(de)(de)對象建模。當RGB-D相機(ji)在沒有先(xian)驗(yan)信息(xi)的(de)(de)情(qing)況下瀏覽場景(jing)時,vMAP 會(hui)實時檢測(ce)對象實例,并動態地將它們添(tian)加(jia)到(dao)其地圖中(zhong)。
由于高(gao)效地(di)(di)對多個(ge)神(shen)經網絡(luo)進行向量化(hua)批訓練,vMAP 可以在單個(ge)場(chang)(chang)景(jing)中(zhong)同時優(you)化(hua) 50 個(ge)物體對象,且(qie)具有 5Hz 地(di)(di)圖更新的訓練速(su)度。與之(zhi)前的神(shen)經場(chang)(chang) SLAM 系統相比,vMAP 可以解耦 3D 場(chang)(chang)景(jing)為物體級(ji)表達,且(qie)重(zhong)建質量顯(xian)著提高(gao)。
5月16日晚7點,AI新青年講(jiang)座第(di)207講(jiang)邀請(qing)到帝國理工學院戴森機器(qi)人(ren)實驗室在讀博士孔昕參與,主講(jiang)《NeRF與SLAM結合的向量化物體級解耦建圖》。
講者
孔昕,帝(di)國理(li)工(gong)學院戴森機(ji)(ji)器(qi)人實驗室在讀博士;浙江大(da)學碩(shuo)士,帝(di)國理(li)工(gong)戴森機(ji)(ji)器(qi)人實驗室博士在讀,導(dao)師為 Andrew Davison;研究方向為3D視覺,SLAM,機(ji)(ji)器(qi)人感(gan)知(zhi);曾在 CVPR、ICRA、IROS發表多篇論文。
第207講
主 題
《NeRF與(yu)SLAM結合的向(xiang)量化物(wu)體(ti)級解耦建圖》
提 綱
1、NeRF和SLAM的研究概述
2、NeRF的解耦語義表達及挑戰
3、結合NeRF和SLAM的物體級解耦建圖方法vMAP
4、語義SLAM的三維表達及(ji)未來展望
直 播 信 息
直播時間:5月16日19:00
直播(bo)地點:智東西公開課知(zhi)識店鋪(pu)
成果
論文標題:《vMAP: Vectorised Object Mapping for Neural Field SLAM》
論文地址://arxiv.org/abs/2302.01838
開源地址://github.com/kxhit/vMAP