
「自動駕(jia)駛(shi)新青年(nian)講座」由智(zhi)東(dong)西公開(kai)課全(quan)新企劃(hua),將邀請全(quan)球(qiu)知名高(gao)校、頂尖研究(jiu)機構(gou)以及優秀企業的(de)(de)新青年(nian),主講在環(huan)境感(gan)知、精準定位、決策規劃(hua)、控制執(zhi)行等自動駕(jia)駛(shi)關(guan)鍵技術上的(de)(de)最(zui)新研究(jiu)成果(guo)和開(kai)發實踐。
有興(xing)趣分享的朋友,可以與智東西公開課教研(yan)團(tuan)隊進行郵件(jian)(class@sanyasheying.cn)聯系。
決(jue)策(ce)(ce)是(shi)自動(dong)(dong)駕駛(shi)系(xi)統中至關重要(yao)的(de)(de)一環,是(shi)決(jue)定自動(dong)(dong)駕駛(shi)汽(qi)車大規(gui)模(mo)部署的(de)(de)前(qian)(qian)沿問(wen)題。相比于(yu)傳統的(de)(de)基于(yu)規(gui)則的(de)(de)決(jue)策(ce)(ce)方(fang)法(fa),基于(yu)學習(xi)的(de)(de)決(jue)策(ce)(ce)方(fang)法(fa)可(ke)以(yi)大大增強系(xi)統的(de)(de)可(ke)擴(kuo)展(zhan)性,從而加速(su)自動(dong)(dong)駕駛(shi)汽(qi)車在現實復雜道(dao)路情(qing)況(kuang)下的(de)(de)開發和部署。然而,目前(qian)(qian)仍缺乏對基于(yu)學習(xi)的(de)(de)自動(dong)(dong)駕駛(shi)決(jue)策(ce)(ce)過程的(de)(de)系(xi)統總結(jie)。
來自(zi)南洋理工大學(xue)(xue)的(de)(de)AutoMan實(shi)驗室的(de)(de)在讀博士黃志宇等人(ren)專注于(yu)(yu)自(zi)動駕駛(shi)決(jue)策(ce)、預測規(gui)劃領(ling)域的(de)(de)研究(jiu)。他們在最新的(de)(de)研究(jiu)中(zhong)利用逆(ni)強化學(xue)(xue)習(Inverse reinforcement learning)評估決(jue)策(ce),結(jie)合模仿(fang)學(xue)(xue)習(Imitation learning)和強化學(xue)(xue)習(Reinforcement learning)直(zhi)接生成(cheng)決(jue)策(ce),以及學(xue)(xue)習世界模型(World model)用于(yu)(yu)決(jue)策(ce)。
11月29日晚7點,「自動駕(jia)駛(shi)新青年講(jiang)(jiang)座」第12講(jiang)(jiang)邀請到南洋理工大學在(zai)讀(du)博(bo)士黃志宇,主講(jiang)(jiang)《自動駕(jia)駛(shi)智能決策生成算法解析》。
本次講(jiang)座中(zhong),黃(huang)博將基于個人(ren)的(de)研究(jiu)工作,全面講(jiang)解(jie)基于學習的(de)決策系統(tong)框架以(yi)及其中(zhong)各(ge)模塊(kuai)的(de)學習方法,之后重點(dian)將講(jiang)解(jie)學習世界模型對真實世界交通場景中(zhong)的(de)人(ren)類(lei)交互行為進行建(jian)模,并以(yi)此做出更加智能和擬(ni)人(ren)化的(de)決策。
講者
黃志宇,南(nan)洋理工大學在讀博(bo)士;研究方(fang)向為自動(dong)(dong)駕駛決策、預(yu)測規劃及(ji)人機交互;在TNNLS、TITS、ICRA/IV等相(xiang)關領域頂級期刊和會議發表多篇論文;曾獲(huo)2021年Waymo開放數據集(ji)挑戰賽交互預(yu)測冠軍,運動(dong)(dong)預(yu)測亞(ya)軍以及(ji)2022年Occupancy Flow預(yu)測亞(ya)軍。
第12講
主 題
《自動駕駛智能決策(ce)生成算法解析》
提 綱
1、基于學習的決策系統框架
2、逆強化學習評估決策
3、結合強化學習與模仿學習的決策生成
4、學習世(shi)界模(mo)型對人類交(jiao)互行為建模(mo)及決策生成
直 播 信 息
直播時間:11月29日19:00
直播地(di)點:智東西公開課知識店鋪
成果
論文標題
《Driving behavior modeling using naturalistic human driving data with inverse reinforcement learning》
《Efficient deep reinforcement learning with imitative expert priors for autonomous driving》
《Differentiable integrated motion prediction and planning with learnable cost function for autonomous driving》
論文地址
//arxiv.org/abs/2010.03118
//arxiv.org/abs/2103.10690
//arxiv.org/abs/2207.10422
開源地址
//github.com/MCZhi/Driving-IRL-NGSIM
//github.com/MCZhi/Expert-Prior-RL
//github.com/MCZhi/DIPP