
在復雜的城(cheng)市場(chang)景中實現(xian)自動駕(jia)駛需要全面且準(zhun)確地感知環境。傳統的3D感知方(fang)(fang)法重于目標(biao)檢測,缺(que)乏(fa)環境細節(jie)信息的稀疏表示(shi)。3D占用預測方(fang)(fang)法能夠(gou)估(gu)計(ji)車輛周圍的3D占用,讓自動駕(jia)汽車獲得更全面的場(chang)景表示(shi)。稠密的3D占用預測提(ti)供了(le)準(zhun)確性(xing),但也提(ti)高了(le)計(ji)算需求;而全稀疏的3D占用預測效率高,但是缺(que)乏(fa)細節(jie)信息。
為此(ci),紐約(yue)大學聯(lian)合博世集(ji)團提出(chu)一個更靈活且高效的自適應分辨率占用預測框架AdaOcc,能夠在各(ge)種駕駛場景中實現精(jing)確的 3D 語(yu)義占用預測。
AdaOcc將以目標為中心(xin)的(de)(de)3D重(zhong)建和整體占用(yong)預測集成到(dao)一個框(kuang)架內,僅在在感興(xing)趣區(qu)域(yu)(ROIs)進(jin)行高(gao)分(fen)(fen)辨(bian)(bian)率(lv)的(de)(de)3D重(zhong)建,同時在其他(ta)區(qu)域(yu)保持較低分(fen)(fen)辨(bian)(bian)率(lv),以實現計(ji)算資源的(de)(de)優(you)化分(fen)(fen)配(pei)。這種方法(fa)不僅提(ti)高(gao)了(le)關鍵區(qu)域(yu)的(de)(de)細節(jie)捕(bu)捉(zhuo)能力,而(er)且通(tong)過(guo)點(dian)云表示高(gao)細節(jie)的(de)(de)3D表面,突(tu)破了(le)傳統占用(yong)網格分(fen)(fen)辨(bian)(bian)率(lv)的(de)(de)限制,從(cong)而(er)在保持整體計(ji)算效率(lv)的(de)(de)同時,顯著(zhu)提(ti)升了(le)自動(dong)駕駛車(che)輛的(de)(de)環境感知精(jing)度(du)。
通過(guo)(guo)在nuScenes數據集上(shang)進(jin)行(xing)全面實驗,證明了AdaOcc相比于現有方(fang)法有了明顯(xian)提(ti)升,能夠在各種駕駛場景中提(ti)供準確的3D語義占用預測(ce)。在近距(ju)離場景中,AdaOcc在IOU上(shang)超過(guo)(guo)先前的基線13%,在Hausdorff距(ju)離上(shang)超過(guo)(guo)了40%。
11月19日上午10點,智猩猩邀請到論文一作、紐約大學 AI4CE 實驗室在讀博士陳超參與「智猩猩自動駕駛新青年講座」第41講,主講《面向自動駕駛的自適應分辨率占用預測方法AdaOcc》。
講者
陳超,紐約大學 AI4CE 實驗室在讀博士
陳超,紐約大學 AI4CE 實驗室的計(ji)算機(ji)(ji)科學專業博士(shi)最后一年在讀生。我(wo)的研(yan)究(jiu)方向是機(ji)(ji)器人(ren)學、計(ji)算機(ji)(ji)視覺(jue)和機(ji)(ji)器學習(xi),目標是成(cheng)為機(ji)(ji)器人(ren)領域的全棧(zhan)研(yan)究(jiu)員。
第 41 講
主 題
《面向自動駕(jia)駛(shi)的自適應分(fen)辨率(lv)占用預測方法AdaOcc》
提 綱
1、混合分辨率占用預測的重要性
2、以物體為中心3D占用預測的重要性
3、利用AdaOcc實現精確的3D語義占用預測
4、與先前方法的對比及分析
5、總結(jie)與后續(xu)工作
?直 播 信 息?
直播(bo)時間:11月19日10:00
成果
論文標題《AdaOcc: Adaptive-Resolution Occupancy Prediction》
論文鏈(lian)接//arxiv.org/abs/2408.13454
如何報名
有講座直播觀看需求的朋友,可以添加小助手“陳新”進行報名。已添加過“陳新”的老朋友,可以給“陳新”私信,發送“自動駕駛41”進行報名(ming)。對于通過報名(ming)的朋友,之后將邀(yao)請(qing)入群進行觀看和(he)交流。