
繼「CV前(qian)(qian)沿講座」之后,智東西公開(kai)(kai)課(ke)全新推出「機器學(xue)(xue)習前(qian)(qian)沿講座」,聚焦機器學(xue)(xue)習前(qian)(qian)沿領(ling)域研(yan)(yan)究成果與進展,包括(深(shen)度)強化學(xue)(xue)習、遷移學(xue)(xue)習、無監(jian)(jian)督學(xue)(xue)習、半監(jian)(jian)督學(xue)(xue)習、GNN/GCN、可解釋性AI等前(qian)(qian)沿領(ling)域,我們將(jiang)持續邀(yao)請研(yan)(yan)究者(zhe)(zhe)、專家(jia)(jia)和資深(shen)開(kai)(kai)發者(zhe)(zhe),為大家(jia)(jia)帶來更(geng)多的直(zhi)播講解。直(zhi)播由(you)主講環節和Q&A環節組成,共計(ji)90分鐘。
機(ji)器(qi)學習(xi)領域,輸入數據和輸出(chu)答案之間不可(ke)觀察的(de)空間通常(chang)被稱為“黑(hei)箱”,也就是大(da)家所關注的(de)可(ke)解釋(shi)性(xing)AI問題。在本(ben)次(ci)「機(ji)器(qi)學習(xi)前沿講(jiang)座(zuo)」第(di)1講(jiang)的(de)講(jiang)座(zuo)中,智東西公開(kai)課邀(yao)請到美(mei)國加(jia)州大(da)學洛杉磯(ji)分校博士后王可(ke)澤,為大(da)家帶來主題為《可(ke)解釋(shi)性(xing)AI在視(shi)頻(pin)分析中的(de)研究和應用》的(de)講(jiang)座(zuo)。
相比于現有的機(ji)(ji)器學習(xi)范(fan)式,即人(ren)(ren)單方面地(di)給(gei)定機(ji)(ji)器需要學習(xi)的視覺概(gai)念,輸入海量標注(zhu)數(shu)據,進而讓計算(suan)機(ji)(ji)進行歸納學習(xi)。通過(guo)人(ren)(ren)機(ji)(ji)雙向(xiang)問答的過(guo)程,人(ren)(ren)和計算(suan)機(ji)(ji)可(ke)以逐漸統一對事物(wu)的認識,基于人(ren)(ren)機(ji)(ji)問答的交流(liu)溝通和信息傳遞方式,在問答過(guo)程中(zhong)分別為(wei)用(yong)戶(人(ren)(ren))和機(ji)(ji)器設計不同(tong)的視覺概(gai)念解析圖模型。
視覺(jue)(jue)解(jie)析圖(tu)是(shi)將常見的(de)不(bu)同層級主觀(guan)和客觀(guan)的(de)視覺(jue)(jue)概念(“實體”、“屬性(xing)”、“關系(xi)”、“事件”等)連接(jie)成一個圖(tu)狀結構(gou),用以表(biao)示用戶(hu)或計算機(ji)所見的(de)輸入圖(tu)像的(de)理解(jie)和表(biao)述。該模(mo)(mo)(mo)型(xing)使得人機(ji)可以通過自然地(di)語言問(wen)答(da)以實現視覺(jue)(jue)概念和常識(shi)的(de)傳遞和學習(xi)(xi)。同時,基于(yu)圖(tu)模(mo)(mo)(mo)型(xing),機(ji)器在問(wen)答(da)過程(cheng)中不(bu)斷地(di)對用戶(hu)進(jin)(jin)行情(qing)感建模(mo)(mo)(mo),并對用戶(hu)意圖(tu)進(jin)(jin)行預判,實現“組合(he)抽象(xiang)”、“因(yin)果推理”以及(ji)在“學習(xi)(xi)中學習(xi)(xi)”等能力。這就(jiu)使得用戶(hu)能夠(gou)在對查詢需求十分模(mo)(mo)(mo)糊的(de)情(qing)況下,快速地(di)檢索到所需要的(de)視覺(jue)(jue)內容,從(cong)而有效地(di)填補了用戶(hu)與(yu)機(ji)器之間的(de)意圖(tu)鴻溝。
7月13日上(shang)午10點,智東西公(gong)開課「機器(qi)學習前沿講(jiang)座」第1講(jiang)將直播開講(jiang),王博(bo)士將從可(ke)解(jie)釋性AI在(zai)(zai)視(shi)頻分析(xi)(xi)(xi)中的(de)(de)研究出發(fa),解(jie)析(xi)(xi)(xi)情感(gan)分析(xi)(xi)(xi)理(li)論模型(ToM)的(de)(de)原理(li)和(he)基于圖(tu)模型的(de)(de)用(yong)戶情感(gan)建(jian)模及(ji)在(zai)(zai)視(shi)覺問(wen)答任務中的(de)(de)應用(yong)。感(gan)興趣的(de)(de)朋友不要錯過(guo)。
王(wang)可澤(ze),美(mei)國加州大學(xue)洛(luo)杉(shan)磯(ji)分(fen)校(xiao)博(bo)(bo)士后(hou),導師為(wei)朱松純,主(zhu)(zhu)(zhu)要(yao)研(yan)究方(fang)向計(ji)算機視覺、機器學(xue)習(xi)、可解釋人(ren)工智(zhi)能。王(wang)博(bo)(bo)士針對當前(qian)海(hai)量(liang)復雜、多源(yuan)異質、動態增加和(he)無(wu)標注的(de)海(hai)量(liang)圖(tu)像(xiang)視頻數(shu)(shu)據(ju),以(yi)(yi)(yi)減(jian)少對訓練樣(yang)本依賴和(he)挖掘海(hai)量(liang)無(wu)標簽的(de)圖(tu)像(xiang)數(shu)(shu)據(ju)為(wei)目標,以(yi)(yi)(yi)融合(he)視覺領域知識和(he)語(yu)義信息的(de)深度表(biao)達學(xue)習(xi)為(wei)主(zhu)(zhu)(zhu)線,從監(jian)督(du)學(xue)習(xi)演化(hua)到自(zi)主(zhu)(zhu)(zhu)學(xue)習(xi)機制,以(yi)(yi)(yi)視覺高(gao)層(ceng)語(yu)義理解為(wei)主(zhu)(zhu)(zhu)要(yao)應(ying)用場(chang)景,展開了(le)一(yi)系列的(de)研(yan)究,提出了(le)聯合(he)知識與數(shu)(shu)據(ju)驅(qu)動的(de)學(xue)習(xi)范式,具有廣(guang)泛的(de)應(ying)用前(qian)景。他的(de)研(yan)究成果發表(biao)了(le)兩(liang)篇TPAMI和(he)數(shu)(shu)篇TNNLS、IJCV、TIP、TMM、TCSVT等頂級(ji)SCI期(qi)刊和(he)10余篇頂級(ji)國際會議(yi)上,其中被引用次數(shu)(shu)總(zong)計(ji)超過800次。
課程時間
時間:7月13日早上10點
地點:智東西公開課小(xiao)程序
課程詳情
主題:
可解釋性AI在視頻分析中的研究和應用
提綱:
1、可解釋性AI在視頻分析中的研究概述
2、情感分析理論模型(ToM)的原理解析
3、基于圖模型的用戶情感建模及可解釋性
4、應用解析:視頻(pin)分析中(zhong)的視覺問答任務
講師:
王可澤,美(mei)國加(jia)州(zhou)大(da)學洛杉磯分校博士后,導師為朱松(song)純(chun),主(zhu)要研(yan)(yan)究(jiu)方(fang)向計算機(ji)視(shi)(shi)覺(jue)、機(ji)器學習、可解(jie)釋人工智能。王博士針對當前海(hai)量復雜、多源異(yi)質、動態(tai)增加(jia)和(he)無(wu)標注的海(hai)量圖像視(shi)(shi)頻數(shu)(shu)據,以減少對訓練樣本依賴(lai)和(he)挖掘海(hai)量無(wu)標簽(qian)的圖像數(shu)(shu)據為目標,以融合(he)視(shi)(shi)覺(jue)領域知(zhi)識和(he)語義(yi)信(xin)息的深度表達學習為主(zhu)線,從監督學習演化到(dao)自主(zhu)學習機(ji)制,以視(shi)(shi)覺(jue)高層(ceng)語義(yi)理解(jie)為主(zhu)要應(ying)用(yong)場景(jing),展開了一(yi)系列的研(yan)(yan)究(jiu),提出(chu)了聯合(he)知(zhi)識與(yu)數(shu)(shu)據驅(qu)動的學習范式(shi),具有廣(guang)泛(fan)的應(ying)用(yong)前景(jing)。研(yan)(yan)究(jiu)成果發表了兩篇TPAMI和(he)數(shu)(shu)篇TNNLS、IJCV、TIP、TMM、TCSVT等(deng)頂(ding)級SCI期刊和(he)10余篇頂(ding)級國際(ji)會議上(shang)。其中被引用(yong)次數(shu)(shu)總計超(chao)過800次。
報名方式
添(tian)(tian)加(jia)智東西公(gong)開課小助手(shou)曼曼(ID:zhidxclass006)報(bao)名,添(tian)(tian)加(jia)時請備注“姓名-公(gong)司/學校(xiao)-職(zhi)位/專業(ye)”,因報(bao)名人數過多,優先(xian)通過備注者。