「AI新(xin)青年講座(zuo)」將(jiang)邀請世界頂尖AI研究機構和大學(xue)的科研新(xin)青年,主(zhu)講他們在計算機視覺、機器學(xue)習等(deng)人工智能領域的最新(xin)重要(yao)研究成果。

AI新青年(nian)是加速人工智能前(qian)沿(yan)(yan)研究(jiu)的(de)(de)新生力量。AI新青年(nian)的(de)(de)視頻講解(jie)和直播答疑,將可以(yi)幫(bang)助大(da)家增進對人工智能前(qian)沿(yan)(yan)研究(jiu)的(de)(de)理解(jie),相應(ying)領(ling)域的(de)(de)專業知識也能夠(gou)得(de)以(yi)積累(lei)加深。同時,通過與AI新青年(nian)的(de)(de)直接交流(liu),大(da)家在AI學習和應(ying)用AI的(de)(de)過程中遇到的(de)(de)問題,也能夠(gou)盡快解(jie)決。

「AI新(xin)青年講座(zuo)」目前已完結212講,有(you)興趣(qu)分(fen)享學術成(cheng)果(guo)的朋(peng)友,可以(yi)與智(zhi)東西公(gong)開課教研團隊進行郵件(class@sanyasheying.cn)聯系。

自從(cong)擴散模(mo)型(xing)(xing)(Diffusion ?Models)展(zhan)現(xian)出(chu)了強大的(de)生(sheng)成(cheng)能(neng)力后,不同種類的(de)擴散模(mo)型(xing)(xing)各顯神通 —— 有可以根據(ju)文字生(sheng)成(cheng)圖(tu)(tu)片的(de) text-to-image 模(mo)型(xing)(xing),有可以從(cong)分割(ge)圖(tu)(tu)生(sheng)成(cheng)圖(tu)(tu)片mask-to-image 模(mo)型(xing)(xing),也有生(sheng)成(cheng)視頻、3D、motion 等等內容的(de)擴散生(sheng)成(cheng)模(mo)型(xing)(xing)。

那有沒有一(yi)(yi)種方法可以(yi)讓(rang)這(zhe)些預訓練擴(kuo)散模型合作(zuo)起(qi)來,發揮各自(zi)的(de)專長,實現一(yi)(yi)個(ge)多功(gong)能的(de)生成框架呢?比如當 text-to-image 模型與 mask-to-image 模型合作(zuo)時,我(wo)們就(jiu)可以(yi)同時接受 text 和 mask 輸入(ru),并生成與 text 和 mask 一(yi)(yi)致的(de)圖片了。

在 CVPR 2023 上,來自(zi)南洋理工大學(xue) MMLab 的博士生黃子琪(qi)等人提出(chu)了一種簡單有效的方法來實現不同擴(kuo)散模型之間的合(he)作:Collaborative Diffusion。

基于擴散(san)模(mo)型迭代(dai)去噪的(de)性質,Collaborative Diffusion 在去噪的(de)每一(yi)步都(dou)會動態(tai)地(di)預測(ce)不(bu)同的(de)擴散(san)模(mo)型如何有效合作,各取所長。并且可以實(shi)現高質量(liang)的(de)多模(mo)態(tai)控制的(de)人臉生成(cheng)和編輯(ji)。此外,作為一(yi)個通用框架,Collaborative Diffusion 不(bu)僅適(shi)用于圖片生成(cheng),還適(shi)用于圖片編輯(ji),以及未來更多的(de)基于擴散(san)模(mo)型的(de)其(qi)他任務。

6月9日晚6點,「AI新青年講(jiang)座」第213講(jiang)邀(yao)請到 Collaborative Diffusion 一作、南洋(yang)理工大學MMLab在讀博士(shi)黃子琪(qi)參與,主講(jiang)《不同擴散模型合作實現多模態(tai)人臉生成(cheng)與編輯》。

講者
黃子琪,南洋理工大學MMLab在(zai)讀(du)博士;由(you)劉(liu)子緯(wei)教授(shou)指導;廣泛(fan)關注計算機(ji)視覺和(he)深度(du)學習領域,目前研究(jiu)重點是(shi)生成(cheng)模型、視覺生成(cheng)和(he)編輯,在(zai)CVPR、ICCV、ICIP 等會(hui)議上發表過(guo)多篇論文;

第213講

主 題
《不同(tong)擴散(san)模型合(he)作實(shi)現多模態(tai)人臉(lian)生成與(yu)編輯》

提 綱
1、擴散模型的應用現狀及經典模型解析
2、多個預訓練擴散模型合作的實現方法
3、不同種類擴散模型合作的多功能生成框架
4、高質量(liang)的多模態控制的人臉生成(cheng)和編輯

直 播 信 息
直播時間:6月9日18:00
直播地點:智東西公開課知識(shi)店鋪

成果
論文標題:《Collaborative Diffusion for Multi-Modal Face Generation and Editing》
論文地址://arxiv.org/abs/2304.10530
開源地(di)址://github.com/ziqihuangg/Collaborative-Diffusion