
近(jin)日,清華AMiner發(fa)(fa)布了最(zui)新的(de)(de)(de)人工智能發(fa)(fa)展月(yue)報,3 月(yue)份 AI 業內(nei)的(de)(de)(de)重大(da)科研事(shi)件(jian)(jian)數量(liang)有所下(xia)降,本月(yue)共計(ji)發(fa)(fa)生 507 篇新聞、180 個事(shi)件(jian)(jian),熱(re)度趨勢如下(xia)圖所示(shi)。最(zui)受(shou)關注的(de)(de)(de)事(shi)件(jian)(jian)是 2022 世界移動通(tong)信大(da)會,由于(yu)大(da)會聚焦(jiao) 5G、云網絡、人工智能、萬物互聯以及“元宇宙”技術等主題(ti),成為輿論(lun)焦(jiao)點;此外,《2022 年人工智能指數》與《2021-2022 全球計(ji)算力指數評估》兩份重磅(bang)報告的(de)(de)(de)發(fa)(fa)布引發(fa)(fa)了 AI 業內(nei)人士較多(duo)關注;英偉達在 GTC 2022上推出 Omniverse 平臺新功能,熱(re)度也較高。
本期的智(zhi)能(neng)內參,我們(men)推薦清(qing)華AMiner的報(bao)告《人(ren)工智(zhi)能(neng)發展月(yue)報(bao)》,跟(gen)蹤最(zui)新的人(ren)工智(zhi)能(neng)發展動態。
來源 AMiner
原標題:
《人工智能發展月報》
作者:未注明
一、AI頂會與獎項
1、 2022 世界移動通信大會在西班牙召開
2 月(yue) 28 日(ri)至 3 月(yue) 3 日(ri),2022 世界(jie)移動通(tong)信大會在西班牙巴塞羅那召(zhao)開。來自(zi)全球近(jin) 200 個(ge)國家(jia)的(de)超(chao)過(guo) 6.1 萬人(ren)參會,超(chao)過(guo) 1000 人(ren)在大會上(shang)發表演(yan)講。本屆(jie)大會聚焦 5G、云網絡、人(ren)工(gong)智能、金融科技、萬物互(hu)聯(lian)和新興科技 6 大主題,旨(zhi)在“連(lian)接釋放無(wu)限可(ke)能”。首次(ci)大規(gui)模亮相的(de)“元宇(yu)宙(zhou)”備(bei)受矚目,除(chu)了對技術本身(shen)的(de)討(tao)論外,元宇(yu)宙(zhou)的(de)盈利模式、相關(guan)倫(lun)理問題等也成為人(ren)們關(guan)注焦點。
中(zhong)(zhong)(zhong)國(guo)移動、中(zhong)(zhong)(zhong)國(guo)聯通、中(zhong)(zhong)(zhong)國(guo)電(dian)信中(zhong)(zhong)(zhong)國(guo)三大(da)運營商負(fu)責人集體以(yi)線上方式亮相大(da)會(hui)主旨演講,中(zhong)(zhong)(zhong)國(guo)移動表(biao)(biao)示計(ji)劃到今(jin)年底累計(ji)開通 5G 基站超百萬個(ge),推(tui)(tui)動 5G 網絡客戶(hu)規模超 3.3 億戶(hu),打造 5G 商用(yong)案例(li)超萬個(ge);中(zhong)(zhong)(zhong)國(guo)電(dian)信表(biao)(biao)示,率(lv)先實現了云(yun)、網絡、IT(信息技(ji)術(shu))的(de)統一運營,不斷推(tui)(tui)進云(yun)網融合,已經取得初步成效;中(zhong)(zhong)(zhong)國(guo)聯通助力(li)北京打造了“第一屆真(zhen)正意義上的(de) 5G 冬(dong)奧會(hui)”。
2、 CVPR 2022 論文接收量比去年上升 24%
計(ji)算(suan)機視(shi)覺三(san)大頂會(hui)之一 CVPR2022 接(jie)收(shou)結(jie)果已經公(gong)布(bu),共有(you) 2067 篇(pian)(pian)(pian)論(lun)文(wen)被(bei)接(jie)收(shou),相較于 2021 年的 1663 篇(pian)(pian)(pian)論(lun)文(wen),接(jie)收(shou)率(lv)上升了 24%;有(you)效投稿量(liang)數據還沒有(you)放出。截至 3 月(yue) 24 日(ri),官網已公(gong)布(bu) 350 篇(pian)(pian)(pian)論(lun)文(wen),涉及(ji)方向包括(kuo):檢測、分割、視(shi)頻(pin)處(chu)理(li)、估計(ji)、圖像(xiang)處(chu)理(li)、人臉(lian)、目標(biao)跟蹤、圖像(xiang)&視(shi)頻(pin)檢索/視(shi)頻(pin)理(li)解、醫學(xue)影像(xiang)、文(wen)本檢測/識別(bie)/理(li)解、遙(yao)感圖像(xiang)、GAN/生成(cheng)式(shi)/對抗式(shi)、圖像(xiang)生成(cheng)/圖像(xiang)合成(cheng)、三(san)維視(shi)覺、模型壓(ya)縮、神經網絡(luo)結(jie)構設計(ji)等。
3、圖靈獎授予高性能計算領域先驅 Jack Dongarra
3 月(yue) 30 日,美(mei)國(guo)(guo)計(ji)(ji)算(suan)(suan)機(ji)協會(ACM)將 2021 年的(de)圖(tu)靈獎授(shou)(shou)予美(mei)國(guo)(guo)田納西大(da)學(xue)電氣(qi)工程和(he)計(ji)(ji)算(suan)(suan)機(ji)科學(xue)系特(te)聘教授(shou)(shou)、現年 71 歲(sui)的(de) Jack J.Dongarra,表彰他在(zai)數值算(suan)(suan)法和(he)工具(ju)庫方面的(de)開創(chuang)性(xing)貢獻,使高(gao)性(xing)能(neng)計(ji)(ji)算(suan)(suan)軟件(jian)能(neng)夠(gou)跟上四十多年來(lai)的(de)指數級硬(ying)件(jian)改進。據(ju) ACM 介紹,Dongarra 的(de)算(suan)(suan)法和(he)軟件(jian)推動了高(gao)性(xing)能(neng)計(ji)(ji)算(suan)(suan)發(fa)展,并對從人(ren)工智能(neng)到(dao)計(ji)(ji)算(suan)(suan)機(ji)圖(tu)形學(xue)的(de)多個計(ji)(ji)算(suan)(suan)科學(xue)領域(yu)產生了重大(da)影(ying)響。
4、全美計算機研究生院排名:MIT、CMU 分別稱霸總榜和 AI 分榜
3 月 29 日,2023 U.S.News 全美研究生院(yuan)排名(ming)正(zheng)式發布。最佳(jia)計(ji)算(suan)機科學(xue)研究生院(yuan)排名(ming) 5 名(ming)分(fen)別為,第(di) 1 名(ming)麻(ma)省理工學(xue)院(yuan)(MIT)、并列(lie)第(di) 2 的卡內基(ji)·梅隆大(da)學(xue)(CMU)、斯(si)坦福(fu)大(da)學(xue)和加(jia)利福(fu)尼亞大(da)學(xue)伯克利分(fen)校(UCB),以及第(di) 5名(ming)伊利諾伊大(da)學(xue)厄(e)巴納-香檳分(fen)校(UIUC)。
在人工(gong)智能專業上,排名(ming)第一是卡內基·梅隆大學(CMU)。
▲全美人工(gong)智能專(zhuan)業排名
5、智譜榜單:人工智能全球女性學者美國占比超 6 成,中國 23 人入圍
近日,2022 年“人(ren)工(gong)智(zhi)能(neng)相關(guan)領域全(quan)(quan)球(qiu)女性學(xue)者(zhe)”名單公(gong)布,入圍人(ren)數共(gong)262 人(ren),分(fen)布在(zai)(zai)全(quan)(quan)球(qiu) 19 個(ge)國(guo)(guo)家(jia)(jia)。從(cong)國(guo)(guo)別分(fen)布看(kan),美國(guo)(guo)共(gong)入圍 161 人(ren),占比(bi) 61.5%;其次(ci)是中(zhong)國(guo)(guo)(含港澳臺地區),共(gong)有 23 人(ren),占 8.8%;第三(san)是英國(guo)(guo),共(gong)有 14 人(ren);從(cong)機(ji)(ji)(ji)構分(fen)布看(kan),全(quan)(quan)球(qiu)前十強(qiang)機(ji)(ji)(ji)構中(zhong),美國(guo)(guo)占 8 家(jia)(jia),谷歌排(pai)名全(quan)(quan)球(qiu)第一,中(zhong)國(guo)(guo)和(he)法國(guo)(guo)各占 1 家(jia)(jia),清華(hua)大學(xue)是我(wo)國(guo)(guo)唯一一家(jia)(jia)進入前十強(qiang)的機(ji)(ji)(ji)構;從(cong)研究領域分(fen)布看(kan),排(pai)名依次(ci)是人(ren)機(ji)(ji)(ji)交(jiao)互(51 人(ren)次(ci))、可視(shi)化(24 人(ren)次(ci))、知(zhi)識(shi)工(gong)程(22 人(ren)次(ci))、機(ji)(ji)(ji)器學(xue)習(6 人(ren)次(ci))、機(ji)(ji)(ji)器人(ren)(6 人(ren)次(ci))和(he)計算機(ji)(ji)(ji)系統(7 人(ren)次(ci));在(zai)(zai) 262 人(ren)中(zhong),共(gong)有 71 位(wei)華(hua)人(ren),占比(bi)達 27.1%,而 71 位(wei)華(hua)人(ren)中(zhong),23 位(wei)工(gong)作(zuo)單位(wei)在(zai)(zai)中(zhong)國(guo)(guo),48 位(wei)工(gong)作(zuo)單位(wei)在(zai)(zai)外國(guo)(guo)。
6、華人博士獲 ACM SIGSOFT 杰出博士論文獎
2022 ACM SIGSOFT Outstanding Doctoral Dissertation Award(杰(jie)(jie)出博士(shi)論文獎)已公布,唯一的名額授予了美國 UIUC 大(da)學的華(hua)人(ren)博士(shi)生 Wing Lam(林永政(zheng)),以表彰他在軟件工程方面(mian)所做(zuo)出的杰(jie)(jie)出貢獻(xian)。
7、2022 蘋果博士獎學金名單:浙大一博士生入選
近日,蘋果宣(xuan)布了(le) 2022 年人工(gong)智能/機器(qi)學習領(ling)域的博士(shi)生獎學金名單,共有 15 位(wei)學生入選,包括 4 位(wei)華人博士(shi)生,其中一位(wei)是來(lai)自浙(zhe)江大學計算機科學專業的彭思達,師從周(zhou)曉巍(wei)教授(shou)。
二、AI人才動態
1、 寒武紀副總經理兼首席技術官梁軍已離職
3 月 14 日,寒武紀(ji)公(gong)告稱:原副總經(jing)理(li)、首席技術(shu)官梁軍因與公(gong)司(si)存(cun)在分(fen)歧,已(yi)于 2 月 10 日通知公(gong)司(si)解除勞動合(he)同,目(mu)前(qian)已(yi)辦理(li)完(wan)離(li)職手續,此后將不再擔任(ren)公(gong)司(si)的任(ren)何職務。梁軍自(zi) 2017 年加入公(gong)司(si),任(ren)職期間曾參與研究并申請發(fa)明(ming)專利 138 項(xiang)、PCT 10 項(xiang),均為非(fei)單一發(fa)明(ming)人。其(qi)中 14 項(xiang)發(fa)明(ming)專利已(yi)授權,其(qi)余仍處于審查(cha)階段。
2、 英特爾圖形部門頂級專家 Mike Burrows 跳槽 AMD
曾擔(dan)任(ren)英(ying)特(te)爾(er)專(zhuan)(zhuan)注游戲和(he)圖形(xing)技術的(de) Advanced Technologies Group 的(de)負責人、首席技術官和(he)總監 Mike Burrows,近(jin)日(ri)宣布以公司副總裁(cai)的(de)身份加入AMD 團隊,領(ling)導其高(gao)級圖形(xing)項目。在 AMD,Burrows 將(jiang)專(zhuan)(zhuan)注于實時光(guang)線追蹤和(he)機器(qi)學(xue)習領(ling)域的(de)研究(jiu)。此外,他還將(jiang)涉及包括與圖形(xing)和(he)計算解決方案的(de)縮放相關(guan)的(de)技術,以及數據壓縮類技術。
3、 滴滴實驗室(洛杉磯)首席科學家 Kevin Knight 離職
近(jin)日,原任滴滴實驗室(洛杉磯)自(zi)然語言(yan)處(chu)理(li)組首席(xi)科學(xue)家的 NLP 大(da)神Kevin Knight 宣布(bu)將(jiang)從滴滴實驗室離職。此外,Kevin Knight 還(huan)是南加州大(da)學(xue)(USC)計算機科學(xue)系院(yuan)長教(jiao)授以及 ACL 2011 的大(da)會主席(xi),2014 年(nian)同年(nian)入選ACL Fellow、AAAI Fellow,他的學(xue)術成果頗多(duo),研究(jiu)方向涵蓋人工智能、自(zi)然語言(yan)處(chu)理(li)、機器翻譯(yi)、對話(hua)處(chu)理(li)等。
4、前百度 Apollo 平臺研發總經理王京傲加盟自動駕駛初創公司
前百度副總裁、Apollo 平(ping)臺(tai)研發總經理王京(jing)傲,加(jia)盟自動駕駛初創(chuang)公司云驥(ji)智(zhi)行,擔任聯(lian)合(he)創(chuang)始人(ren)及 CTO。王京(jing)傲本科畢(bi)業(ye)于北京(jing)大(da)(da)學,于美國辛辛那提大(da)(da)學獲得計算機工程碩士(shi)學位(wei)后,又在加(jia)州大(da)(da)學伯(bo)克利分校取得 MBA 學位(wei),目前擁有 60 多項中美專利。他曾負(fu)責百度的(de)(de)自動駕駛 Apollo 開放(fang)平(ping)臺(tai)的(de)(de)整體研發、規(gui)劃和運營,并主(zhu)導 Apollo 平(ping)臺(tai) 1.0 到 7.0 所有版本的(de)(de)開發和迭代;之前,曾任職(zhi)谷歌,是安卓 1.0 初創(chuang)團隊成員之一。云驥(ji)智(zhi)行成立于 2021 年 11 月(yue)。在今年的(de)(de) GTC 2022 大(da)(da)會上,云驥(ji)智(zhi)行宣布將與英(ying)偉達合(he)作,在自動駕駛芯(xin)片(DRIVE Orin SoC)上搭載(zai)云驥(ji)智(zhi)行最新的(de)(de) L4 級自動駕駛計算平(ping)臺(tai)。
三、各 AI 子領域重要科研進展
1、機器學習
牛津大學:研究者提(ti)出(chu)了受物理啟發的持續學習(xi)模型,從微分幾何、代數拓撲和(he)微分方程等領域出(chu)發開啟了一系列新工具的研究,可以克服傳(chuan)統 GNN 的局限性。
微軟、斯坦福大學:就(jiu)過(guo)度參數(shu)(shu)化(overparameterization)現象,研究者認為比預期規模更大的(de)神經網絡是(shi)必(bi)要的(de),通過(guo)提(ti)出(chu)平(ping)滑性,來指出(chu)需要多少個參數(shu)(shu)才能用一條具有(you)等同于(yu)魯(lu)棒性的(de)數(shu)(shu)學特性的(de)曲(qu)線來擬合數(shu)(shu)據(ju)點。論文標題:A Universal Law of Robustness viaIsoperimetry 論文鏈接://www.aminer.cn/pub/60b18ba891e011537459563f
上海交通大學、Mila 魁北克人工智能研究所、字節跳動:提出(chu)了一種基于層級(ji)語義(yi)結構的選(xuan)(xuan)擇性對比(bi)學(xue)習框架(Hiearchical Contrastive Selective Coding,HCSC),通過(guo)將(jiang)圖(tu)像表(biao)征進行層級(ji)聚類,構造(zao)具有(you)層級(ji)結構的原型向量(liang)(hierarchical prototypes),并(bing)通過(guo)這些(xie)原型向量(liang)選(xuan)(xuan)擇更加(jia)符合語義(yi)結構的負樣本(ben)進行對比(bi)學(xue)習,由此(ci)將(jiang)層級(ji)化的語義(yi)信息融入到圖(tu)像表(biao)征中(zhong)(zhong),在多個下游(you)任務中(zhong)(zhong)達到卷積神經(jing)網絡(luo)自監督預訓練方法(fa)的 SOTA 性能。
論(lun)文(wen)標題:HCSC: Hierarchical Contrastive SelectiveCoding 論(lun)文(wen)鏈接://www.aminer.cn/pub/61f9f64a5aee126c0f41f3fb
斯坦福大學:研究了在預訓練文本具有遠程連貫性的數學設置下,預訓練分布對上下文學習的實現所起的作用,證明了當預訓練分布是混合隱馬爾可夫模型時,上下文學習是通過對潛在概念進行貝葉斯推理隱式地產生的,生成了一系列小規模合成數據集(GINC),在這個過程中,Transformer 和LSTM 語言模型都使用了上下文學習。論文標題:An Explanation of In-Context Learning asImplicit Bayesian Inference
論文鏈接://www.aminer.cn/pub/61834f695244ab9dcb55ccf8
阿里巴巴:提(ti)出了一個(ge)叫做獵豹(bao)(Cheetah)的(de)新型框架(jia),用(yong)于深度神(shen)經網(wang)絡的(de)兩方(fang)計算網(wang)絡推理系(xi)統,并重新設計了基于同態加(jia)密(mi)的(de)協議(yi),可(ke)在不需要任何輪調操作(RotationOperation)的(de)情況(kuang)下評估線性(xing)層(ceng)(即卷積、批量(liang)歸一化和(he)完全連(lian)接);設計了幾個(ge)用(yong)于非線性(xing)函數(shu)(如 ReLU 和(he)Truncation)的(de)更(geng)加(jia)精簡,通信效率(lv)更(geng)高的(de)基元。
德國希爾德斯海姆大學:評估了特征工(gong)程多(duo)輸出 GBRT 模(mo)(mo)型(xing),該(gai)研究將一個簡單的(de)機(ji)器學習方(fang)法 GBRT 提(ti)升了競(jing)(jing)品 DNN 時間(jian)(jian)序(xu)(xu)列(lie)預測(ce)模(mo)(mo)型(xing)的(de)標準;實證(zheng)了為什(shen)么基于窗(chuang)口(kou)的(de) GBRT 輸入設置可以(yi)在(zai)時間(jian)(jian)序(xu)(xu)列(lie)預測(ce)領域提(ti)高(gao) ARIMA 和(he)原版 GBRT 等精心配置的(de)模(mo)(mo)型(xing)所產生的(de)預測(ce)性能;比較了 GBRT 與各種SOTA 深(shen)度學習時間(jian)(jian)序(xu)(xu)列(lie)預測(ce)模(mo)(mo)型(xing)的(de)性能,并驗證(zheng)了它在(zai)單變量和(he)雙變量時間(jian)(jian)序(xu)(xu)列(lie)預測(ce)任(ren)務中的(de)競(jing)(jing)爭力。
論(lun)(lun)文(wen)(wen)標題:Do We Really Need Deep Learning Modelsfor Time Series Forecasting? 論(lun)(lun)文(wen)(wen)鏈接(jie)://www.aminer.cn/pub/5ff6e10891e011b497e290a0
中國科學技術大學:針(zhen)對(dui)(dui)移動為(wei)中心(xin)的模(mo)型(xing)推(tui)理場景(jing),提出端(duan)到(dao)端(duan)可學(xue)的輸(shu)入過(guo)(guo)濾框架 InFi (INput FIlter),對(dui)(dui)輸(shu)入過(guo)(guo)濾問題進(jin)行了(le)形(xing)式化建模(mo),并(bing)基于推(tui)理模(mo)型(xing)和輸(shu)入過(guo)(guo)濾器的函(han)數(shu)族復雜性對(dui)(dui)比,在理論層面上(shang)對(dui)(dui)推(tui)理任務的可過(guo)(guo)濾性進(jin)行分析(xi),InFi框架涵蓋了(le)現有的 SOTA 方法所(suo)使(shi)用的推(tui)理跳過(guo)(guo)和推(tui)理重用機制。
論(lun)文標題:InFi: End-to-end Learnable Input Filter forResource-efficient Mobilecentric Inference
清華大學:針(zhen)對無監督時序(xu)異(yi)常(chang)檢(jian)測問(wen)題(ti),提出(chu)(chu)了基于關聯差(cha)異(yi)的(de)異(yi)常(chang)檢(jian)測模(mo)型 Anomaly transformer,并通過(guo)一個極(ji)(ji)小極(ji)(ji)大(Minimax)關聯學(xue)習策略(lve)大幅提高了模(mo)型的(de)異(yi)常(chang)檢(jian)測能(neng)力。該模(mo)型在服務器監測、地空探索、水流觀測等應(ying)用(yong)中均展現出(chu)(chu)優秀的(de)異(yi)常(chang)檢(jian)測結果,應(ying)用(yong)落地價值強。論文標題(ti):Anomaly Transformer: Time SeriesAnomaly Detection with Association Discrepancy
論(lun)文鏈接://www.aminer.cn/pub/615e657b5244ab9dcbf21edf
清華大學:模(mo)仿(fang)海馬體(ti)的(de)神經元權(quan)重更(geng)新(xin)機制(zhi),在 Nature Communications 上提出了一種結(jie)合全局(ju)與局(ju)部權(quan)重更(geng)新(xin)規則的(de)混合模(mo)型,并驗證了該(gai)模(mo)型在高噪聲、小數據量、持續學習(xi)三種任(ren)務場(chang)景下的(de)優越性,為神經形態算法及其硬件實現的(de)協(xie)同開發開辟了一條新(xin)的(de)路徑。論(lun)文標題(ti):Brain-inspired global-local learningincorporated with neuromorphic computing
論文鏈(lian)接://www.aminer.cn/pub/6100beb26750f816c6958070
瑞士托埃爾特公司:TOELT LLC 聯合創始人兼首席 AI 科學家 Umberto Michelucci 全面介紹了自編碼器的由來、定義、由編碼器、潛在特征表示和解碼器三部分組成,并詳細介紹了編碼器和解編碼器。
論文標題:An Introduction to Autoencoders 論文鏈(lian)接://www.aminer.cn/pub/61de47035244ab9dcb3057c2
清華大學、曠視科技等:通過一系列探索實驗,總結了在現代 CNN 中應用超大卷積核的五條準則,并基于以上準則,借鑒 Swin Transformer 宏觀架構,提出了一種 RepLKNet 架構。
論(lun)文標(biao)題(ti):Scaling Up Your Kernels to 31×31:Revisiting Large Kernel Design in CNNs 論(lun)文鏈接://www.aminer.cn/pub/623004305aee126c0f9b3828
布朗大學:該論(lun)文提出了強化學習中蘊(yun)含的(de)抽象理論(lun),指出執(zhi)行抽象過程的(de)函數所(suo)必備的(de)三要(yao)素(su)(su):維(wei)護近(jin)似最優行為的(de)表示、它們應(ying)該被有效地學習和構建;計劃或學習時(shi)間不應(ying)該太長。然(ran)后(hou)提出了一套新的(de)算法和分析方案,闡明智能體如何(he)根(gen)據(ju)這些要(yao)素(su)(su)學會(hui)抽象。論(lun)文標題:A Theory of Abstraction in ReinforcementLearning 論(lun)文鏈接://www.aminer.cn/pub/621ee1895aee126c0f26ae12
微軟、OpenAI:首次(ci)(ci)提出了基(ji)礎研(yan)究(jiu)如何調(diao)優大(da)型(xing)神經網(wang)(wang)絡(這(zhe)些神經網(wang)(wang)絡過(guo)于(yu)龐(pang)大(da)而無法多次(ci)(ci)訓練),通(tong)過(guo)展(zhan)示特定(ding)參(can)數化(hua)保(bao)留(liu)不同模(mo)型(xing)大(da)小(xiao)的最佳超參(can)數來實現,利用(yong) μP 將(jiang) HP 從小(xiao)型(xing)模(mo)型(xing)遷(qian)移(yi)(yi)到大(da)型(xing)模(mo)型(xing)。并在 Transformer 和 ResNet上驗(yan)證 μTransfer。結果表明,1)該研(yan)究(jiu)優于(yu) BERTlarge (350M 參(can)數),總調(diao)優成(cheng)本(ben)相(xiang)當于(yu)一(yi)次(ci)(ci)預(yu)訓練BERT-large;2)通(tong)過(guo)從 40M 參(can)數遷(qian)移(yi)(yi),該研(yan)究(jiu)的性能優于(yu)已公(gong)開的 6.7B GPT-3 模(mo)型(xing),調(diao)優成(cheng)本(ben)僅為總預(yu)訓練成(cheng)本(ben)的 7%。
論文標題:Tensor Programs V: Tuning Large NeuralNetworks via Zero-Shot Hyperparameter Transfer 論文鏈接://www.aminer.cn/pub/6226c93d5aee126c0fd57c5f
北京大學、清華大學:下(xia)游任(ren)務可以從(cong)預訓練模型中繼承容(rong)易(yi)受(shou)攻(gong)擊的(de)(de)(de)(de)權重。研(yan)究者提出一個名叫 ReMoS 的(de)(de)(de)(de)方法,有(you)(you)選擇性(xing)地篩選出那些對下(xia)游任(ren)務有(you)(you)用且不(bu)易(yi)受(shou)攻(gong)擊的(de)(de)(de)(de)權重,在最多損失 3%精(jing)度的(de)(de)(de)(de)前提下(xia),使得微調后的(de)(de)(de)(de)模型受(shou)攻(gong)擊率大大減小:CV(ResNet)任(ren)務上(shang)受(shou)攻(gong)擊率減小了(le)(le) 63%到 86%,NLP(BERT、RoBERTa)任(ren)務上(shang)則減小了(le)(le) 40%到 61%。
谷歌:提(ti)出了一種在有偏見(jian)的(de)數(shu)據上使用 GNN 的(de)解決(jue)方案(an)Shift-Robust GNN(SR-GNN)。這個方法的(de)目(mu)的(de)就(jiu)是(shi)要讓問題(ti)域發生變化和遷移(yi)時,模型依然(ran)保持高穩健性,降低性能下降。實驗表(biao)明,SR-GNN 在準(zhun)確(que)性上優(you)于(yu)其他GNN 基準(zhun),將有偏見(jian)的(de)訓練(lian)數(shu)據的(de)負面影響減少了 30-40%。
論文標題:Shift-Robust GNNs: Overcoming theLimitations of Localized Graph Training data 論文鏈接://www.aminer.cn/pub/610a271c5244ab9dcba8a3de
港科大、星云Clustar:香(xiang)港科大智能網絡與(yu)系統實(shi)驗室 iSING Lab 和(he)國內隱(yin)私計算(suan)算(suan)力(li)提(ti)供商星云 Clustar 合作(zuo),提(ti)出了一種隱(yin)私保護在線機器學習場(chang)景(jing)下的新(xin)框架 Sphinx。Sphinx 結合同態加密、差分隱(yin)私和(he)秘密共(gong)享多種隱(yin)私保護技術,根據訓(xun)練(lian)和(he)推理(li)的具體任務特點提(ti)出了定制且兼容的訓(xun)練(lian)和(he)推理(li)混合協議,從而實(shi)現快速的訓(xun)練(lian)和(he)推理(li)計算(suan)。速度提(ti)升達 4-6個數量(liang)級。該論文已被 IEEE 安(an)全與(yu)隱(yin)私研討會(hui)(IEEES&P “Oakland”)收錄(lu)。論文題目:Sphinx: Enabling Privacy-Preserving Online Learning over the Cloud
2、計算機視覺
谷歌研究院、哈佛大學:提出了 mip-NeRF 的(de)擴展模(mo)型(xing),它使用(yong)非線性場景參數化(hua)、在線蒸餾(liu)和新(xin)穎(ying)的(de)基于失(shi)真(zhen)的(de)正則化(hua)器(qi)來(lai)克(ke)服無界(jie)場景帶(dai)來(lai)的(de)挑戰(zhan),該模(mo)型(xing)被稱為「mip-NeRF 360」,因為該研究針對的(de)是相機(ji)圍繞一個點(dian)旋轉(zhuan) 360 度的(de)場景,與mip-NeRF 相比,均方誤(wu)差降低(di)了 54%,并且能夠生成逼真(zhen)的(de)合成視(shi)圖(tu)和詳細的(de)深度用(yong)于高度復雜、無界(jie)的(de)現實世界(jie)場景的(de)地(di)圖(tu)。
論文(wen)(wen)標題:Mip-NeRF 360: Unbounded Anti-AliasedNeural Radiance Fields 論文(wen)(wen)鏈(lian)接(jie)://www.aminer.cn/pub/619dad545244ab9dcb27bcd4
新加坡國立大學、清華大學、阿里巴巴:對(dui)(dui)比(bi)學(xue)習(xi)已經在視覺領域引起(qi)了極大(da)的(de)關注和(he)廣(guang)泛的(de)研(yan)究(jiu)。研(yan)究(jiu)者(zhe)指(zhi)出了傳統使(shi)用的(de) RandomCrop 在對(dui)(dui)比(bi)學(xue)習(xi)中的(de)缺陷(xian),并進一步為(wei)對(dui)(dui)比(bi)學(xue)習(xi)設計(ji)了新的(de)裁剪策(ce)略,命名為(wei)“對(dui)(dui)比(bi)裁剪(ContrastiveCrop)”,可以確保大(da)部分正樣本對(dui)(dui)語義(yi)一致(zhi)的(de)前提下,加大(da)樣本之(zhi)間的(de)差異性(xing),從而通(tong)過最小(xiao)化對(dui)(dui)比(bi)損失(shi)學(xue)習(xi)到更(geng)泛化的(de)特征并且理論上適用于任何孿生網(wang)絡架構(gou)。
論文(wen)標題:Crafting Better Contrastive Views forSiamese Representation Learning 論文(wen)鏈接://www.aminer.cn/pub/6201df4d5aee126c0f64e34b
Adobe、中佛羅里達大學:開(kai)發了在(zai) StyleGAN 生(sheng)成(cheng)的(de)(de)(de)圖(tu)像(xiang)中,用(yong)于保護身份的(de)(de)(de)多(duo)重面部屬性編輯的(de)(de)(de)學習映射(she)器(qi)。該研究(jiu)使(shi)用(yong)一個(ge)神經網絡(luo)(luo)來執行潛意(yi)識到潛意(yi)識的(de)(de)(de)轉換,找到與(yu)屬性改變的(de)(de)(de)圖(tu)像(xiang)相(xiang)對(dui)應的(de)(de)(de)潛編碼,通過在(zai)整個(ge)生(sheng)成(cheng) pipeline 上端(duan)對(dui)端(duan)訓(xun)練(lian)網絡(luo)(luo),該系統可(ke)以(yi)適應現(xian)有的(de)(de)(de)生(sheng)成(cheng)器(qi)架構的(de)(de)(de)潛空(kong)間,并能夠保護屬性(Conservation properties),一旦(dan) latent-to-latent網絡(luo)(luo)訓(xun)練(lian)完(wan),就可(ke)以(yi)用(yong)于任(ren)意(yi)的(de)(de)(de)圖(tu)像(xiang)輸入,而(er)不需要(yao)微調(diao)。論文標題:Latent to Latent – A Learned Mapper for Identity Preserving Editing of Multiple Face Attributes in StyleGAN-generated Images
論文鏈(lian)接://www.aminer.cn/pub/621635c791e011b46d7ce6d3
字節跳動AML 團隊:基于 PyTorch 框(kuang)架,以 Megatron 和 DeepSpeed 為(wei)基礎(chu),該研究團隊開發(fa)了火(huo)山(shan)引擎大模型(xing)訓練框(kuang)架veGiantModel。現已在 GitHub 上開源,地址(zhi)如下://github.com/volcengine/veGiantModel
復旦大學:復旦大學數(shu)據(ju)智能與社(she)會計算實(shi)驗(yan)室提出了一種基(ji)于(yu)多層次語(yu)(yu)(yu)義(yi)對齊(qi)的(de)(de)多階段視(shi)覺(jue)(jue)(jue) – 語(yu)(yu)(yu)言預訓練模(mo)型 MVPTR。MVPTR 通過顯式地學習(xi)表示不同(tong)(tong)層級的(de)(de),來自圖片和文本(ben)信息的(de)(de)語(yu)(yu)(yu)義(yi),并(bing)且在(zai)不同(tong)(tong)的(de)(de)階段對齊(qi)不同(tong)(tong)層次的(de)(de)語(yu)(yu)(yu)義(yi),在(zai)大規模(mo)圖片 – 文本(ben)對語(yu)(yu)(yu)料庫上(shang)(shang)預訓練的(de)(de) MVPTR 模(mo)型在(zai)下游視(shi)覺(jue)(jue)(jue) – 語(yu)(yu)(yu)言任務(wu)上(shang)(shang)取得了明顯的(de)(de)進展(zhan),包括圖片-文本(ben)檢索(suo)、視(shi)覺(jue)(jue)(jue)語(yu)(yu)(yu)言問(wen)答、視(shi)覺(jue)(jue)(jue)推斷、短語(yu)(yu)(yu)指代表示。
論文標題:MVPTR: Multi-Stage Vision-Language PreTraining via Multi-Level Semantic Alignment
中國人民大學:中國(guo)人民(min)大學(xue) GeWu 實驗室以(yi)判別(bie)性聲(sheng)源定位為基礎實現了構建(jian)(jian)物體(ti)類別(bie)認知的目標,并將(jiang)其(qi)應用在其(qi)他經典視(shi)覺(jue)任(ren)(ren)務中。該(gai)研究提出了判別(bie)性多(duo)聲(sheng)源定位任(ren)(ren)務,以(yi)及(ji)兩階段的學(xue)習框架。還通(tong)過解決(jue)判別(bie)性聲(sheng)源定位任(ren)(ren)務構建(jian)(jian)對不同類別(bie)物體(ti)視(shi)覺(jue)表征的認知,并將(jiang)其(qi)遷移到其(qi)他經典視(shi)覺(jue)任(ren)(ren)務中,如物體(ti)檢測(ce)等。
論文標題:Class-aware Sounding Objects Localizationvia Audiovisual Correspondence
論(lun)文鏈接(jie)://www.aminer.cn/pub/61c3e8e85244ab9dcba2123c
Meta AI:宣傳其自監督(du)模(mo)型 SEER(SElf-supERvised)突破(po)至 100億參數,并取(qu)得(de)更優秀、更公平的性(xing)能(neng)表(biao)現(xian)。該(gai)模(mo)型不僅在(zai)ImageNet 上(shang)取(qu)得(de)了高(gao)達(da) 85.8% 的準(zhun)確(que)率(排名第一),與原先(xian)只(zhi)有 10 億參數量的 SEER (84.2%)相比性(xing)能(neng)提升了 1.6%。此(ci)外,在(zai)性(xing)別(bie)、膚色、年(nian)齡等(deng)三個公平基準(zhun)上(shang)獲得(de)了更出色的識別(bie)效(xiao)果,明(ming)顯優于監督(du)模(mo)型。
論文(wen)標題:Vision Models Are More Robust And FairWhen Pretrained On Uncurated Images WithoutSupervision
論文(wen)鏈接://www.aminer.cn/pub/620f0e725aee126c0fec4580
蘇黎世聯邦理工學院:開發(fa)了(le)名為 Pix2NeRF 的(de) AI,可(ke)以在沒有 3D 數據、多(duo)視(shi)(shi)角或(huo)相機(ji)參數的(de)情(qing)況下(xia)學會生成新(xin)視(shi)(shi)角。Pix2NeRF 包含(han)生成網(wang)絡(luo)(luo) G、判別(bie)網(wang)絡(luo)(luo) D 和編碼器 E 三種類型的(de)網(wang)絡(luo)(luo)架(jia)構。
康奈爾大學、谷歌大腦:提出了一(yi)個新模型(xing) FLASH(Fast Linear Attention with a Single Head ) , 首次不僅在(zai)質量上(shang)與完全增強的(de)Transformer 相當,而且在(zai)現代加(jia)速器(qi)的(de)上(shang)下(xia)文(wen)大小上(shang)真正享(xiang)有(you)線性(xing)可擴展性(xing),并且訓練成(cheng)本只(zhi)有(you)原來的(de) 1/2。
論文標題:Transformer Quality in Linear Time 論文鏈接(jie)://www.aminer.cn/pub/621454565aee126c0f20af7b
清華大學、南開大學:研 究 者 提 出 了 一 種 新 型 大 核 注 意(yi) 力(li)(li) ( large kernel attention,LKA)模塊,克服現存問題的(de)同時實現了自注意(yi)力(li)(li)中的(de)自適應(ying)和長距(ju)離相關性,還進一步提出了一種基于(yu) LKA 的(de)新型神(shen)經網絡(luo)(luo),命名為視(shi)覺(jue)注意(yi)力(li)(li)網絡(luo)(luo)(VAN)。在圖像分類(lei)、目標檢測(ce)、語義分割、實例(li)分割等廣泛的(de)實驗(yan)中,VAN 的(de)性能優于(yu) SOTA 視(shi)覺(jue) transformer 和卷積神(shen)經網絡(luo)(luo)。
論文標題(ti):Visual Attention Network
論文鏈接://www.aminer.cn/pub/621454535aee126c0f200ef5
華為諾亞方舟實驗室、北京大學、悉尼大學:提 出 了(le) 一 種 受 量 子 力 學 啟 發(fa) 的 視 覺 MLP 架(jia) 構 , 在 ImageNet 分類、COCO 檢測(ce)、ADE20K 分割(ge)等多個任務上取得了(le) SOTA 性能。論文標題: An Image Patch is a Wave: Quantum Inspired Vision MLP 論文鏈接://arxiv.org/abs/2111.12294
加州大學圣圣地亞哥分校、英偉達:通過對具有對比(bi)損失的大(da)規模配對圖文數(shu)據(ju)進(jin)行(xing)訓練,可(ke)以讓(rang)模型不需要任何(he)進(jin)一步的注釋或微調的情況下,能夠零樣本遷移(yi)學(xue)習得到(dao)未知圖像的語(yu)義分割(ge)詞匯。
論(lun)文標題:GroupViT: Semantic Segmentation Emergesfrom Text Supervision
論(lun)文鏈接://www.aminer.cn/pub/6215a5fd5aee126c0f33a97f
北大、字節跳動:利用域自適應(ying)思想,提出新框架顯著增強基于(yu)圖像(xiang)級標簽(qian)的弱監(jian)督圖像(xiang)定(ding)位性能。
論文標(biao)題(ti):Weakly Supervised Object Localization asDomain Adaption
論文鏈接://www.aminer.cn/pub/6221834e5aee126c0f23c358
谷歌、MIT、DeepMind、MILA 和劍橋大學等:基于跨平臺開源物(wu)理引擎 PyBullet 和(he) 3D 圖(tu)像渲染軟件Blender 打造(zao)了一個名叫 Kubric 的(de)數據集(ji)生成器,能(neng)一鍵生成各種圖(tu)像數據包括語義分割、深度(du)圖(tu)或(huo)光流圖(tu)這種“特(te)殊數據”,還能(neng)控制渲染的(de)真實度(du),達到以假(jia)亂真的(de)效(xiao)果。
華東師范大學:該大(da)學田博博研究員、彭(peng)暉教授(shou)和段純剛(gang)教授(shou)團隊實現(xian)了(le)基于(yu)光生伏特(te)效(xiao)應(ying)的(de)自(zi)供(gong)電(dian)光電(dian)傳感器的(de)傳感內儲備(bei)池計算。在基于(yu)該自(zi)供(gong)電(dian)傳感器陣列的(de)傳感內儲備(bei)池計算視覺(jue)系統中成功演示(shi)了(le)靜態人(ren)臉圖像分類(lei)和動態車流方向判別的(de)視覺(jue)信息(xi)處(chu)理(li)任務,分別達到 99.97%和 100%識別率。
論文標題(ti):Ultralow-Power Machine Vision with SelfPowered Sensor Reservoir
論文鏈接://www.aminer.cn/pub/62306f1b5aee126c0fdd0e0a
微軟亞研院:利用 BERT 中 MLM(Masked Language Modeling)的(de)(de)思路,把(ba)一(yi)個圖像(xiang)(xiang)轉換成 token 序列,對圖像(xiang)(xiang) token 進(jin)行(xing)mask,然后預測被 mask 掉(diao)的(de)(de)圖像(xiang)(xiang) token,實(shi)現圖像(xiang)(xiang)領域的(de)(de)無監(jian)督預訓(xun)練。
論文(wen)標題: BEIT: BERT Pre-Training of Image Transformers
論文鏈接(jie)://www.aminer.cn/pub/5ede0553e06a4c1b26a841d6
美圖影像研究院、北京航空航天大學:提出分布(bu)感知(zhi)式單階段模型(xing),用于解決極具挑戰性的(de)多人3D 人體(ti)姿態估計問(wen)題。該方法通(tong)過(guo)一次網絡前向推理同時獲取(qu) 3D 空間(jian)中人體(ti)位置信息以及相對應的(de)關(guan)鍵點信息,從而(er)簡化了(le)(le)預(yu)測流程,提高了(le)(le)效率。此外(wai),還有效地(di)學習了(le)(le)人體(ti)關(guan)鍵點的(de)真實分布(bu),進而(er)提升(sheng)了(le)(le)基于回(hui)歸(gui)框架的(de)精度。
論(lun)文(wen)標題:Distribution-Aware Single-Stage Models forMulti-Person 3D Pose Estimation論(lun)文(wen)鏈接://arxiv.org/abs/2203.07697
Adobe研究院、阿卜杜拉國王科技大學:提出了(le)一種結(jie)合多個預訓練的 GAN 進(jin)行(xing)(xing)圖像生(sheng)成的新方(fang)法——InsetGAN,共分為兩類:1)全身 GAN (Full-Body GAN),基(ji)于中(zhong)等(deng)質量的數據(ju)進(jin)行(xing)(xing)訓練并生(sheng)成一個人體;2)部分 GAN,其(qi)中(zhong)包(bao)含了(le)多個針對(dui)臉部、手、腳等(deng)特定部位進(jin)行(xing)(xing)訓練的 GAN。
論文標(biao)題:InsetGAN for Full-Body Image Generation
論文鏈接://www.aminer.cn/pub/623004385aee126c0f9b5550
北大、字節跳動:利用域自(zi)適(shi)應(ying)思想,北大(da)、字節跳動提(ti)出新型(xing)(xing)弱(ruo)監督物(wu)(wu)體(ti)(ti)定位框架。將基于 CAM 的弱(ruo)監督物(wu)(wu)體(ti)(ti)定位過程看作是一個特殊的域自(zi)適(shi)應(ying)任務,使得僅依據(ju)圖像(xiang)標簽訓練(lian)的模型(xing)(xing)可以更為精準(zhun)的定位目(mu)標物(wu)(wu)體(ti)(ti)。
論文(wen)標題:Weakly Supervised Object Localization as Domain Adaption
論文鏈接(jie)://www.aminer.cn/pub/6221834e5aee126c0f23c358
加州大學圣圣地亞哥分校、英偉達:利用視覺 Transformer(ViT)中加入新的視覺分組模塊GroupViT(分組視覺 Transformer)的思想,研究者提出將分組機制加入深度網絡。只要通過文本監督學習,分組機
制(zhi)就可(ke)以(yi)自動生成語(yu)義片段,通過對具(ju)有對比(bi)損失的(de)(de)大規模配對圖文數據進(jin)行訓練(lian),可(ke)以(yi)讓(rang)模型不(bu)需要任何進(jin)一步的(de)(de)注釋或微調的(de)(de)情況下,能(neng)夠零(ling)樣本遷移學習得(de)到未知(zhi)圖像(xiang)的(de)(de)語(yu)義分割詞匯(hui)。
論文標題:GroupViT: Semantic Segmentation Emergesfrom Text Supervision
論文鏈接://www.aminer.cn/pub/6215a5fd5aee126c0f33a97f
韓東國際大學:研究者提出了 單(dan)樣本(ben)(one-shot)超(chao)高分辨率(lv)(UHR)圖(tu)(tu)像合成框(kuang)架 OUR-GAN,能夠從單(dan)個訓練(lian)圖(tu)(tu)像生成具(ju)有 4K甚至更高分辨率(lv)的(de)非重復圖(tu)(tu)像。
論文標(biao)題:OUR-GAN: One-shot Ultra-high-ResolutionGenerative Adversarial Networks
論文鏈接(jie)://www.aminer.cn/pub/621d8ece5aee126c0f73b4ac
華南理工:提出了(le)一種即(ji)插(cha)即(ji)用融合模塊:雙跨視角空間注(zhu)(zhu)(zhu)意力(li)機(ji)制(VISTA),以產(chan)生(sheng)融合良好(hao)的(de)(de)(de)多視角特征,以提高 3D 目標(biao)檢(jian)測器的(de)(de)(de)性能(neng),使用 VISTA 卷積(ji)算子(zi)代替了(le) MLP,能(neng)夠更好(hao)地處理注(zhu)(zhu)(zhu)意力(li)建模的(de)(de)(de)局部(bu)線索。將 VISTA 中的(de)(de)(de)回歸和分(fen)類任務解耦,以利(li)用單獨的(de)(de)(de)注(zhu)(zhu)(zhu)意力(li)建模來平(ping)衡這(zhe)兩個任務的(de)(de)(de)學習。可用于各種先進的(de)(de)(de)目標(biao)分(fen)配策略。
論文(wen)標題:VISTA: Boosting 3D Object Detection viaDual Cross-VIew SpaTial Attention
論文鏈接://www.aminer.cn/pub/6237ecc25aee126c0f3befa5
字節跳動:開(kai)發了最新的 text2image 模(mo)型,并且效果比 VQGANCLIP 要真實,尤其(qi)是泛化(hua)能力還比不少用大量文本(ben)-圖像數據對訓練出來的模(mo)型要好很多。
論文(wen)標題:CLIP-GEN: Language-Free Training of a Textto-Image Generator with CLIP
論文鏈接://www.aminer.cn/pub/621ee1845aee126c0f26aa9b
谷歌、MetaAI:提出了一種(zhong)稱為“模型(xing)湯”(Model Soup)的(de)概念,通(tong)過在大型(xing)預訓練模型(xing)下(xia)使用不同的(de)超參數配置進行微調,然后再把(ba)權重取平(ping)均。實(shi)驗結果(guo)證明這(zhe)種(zhong)方法能夠提升模型(xing)的(de)準確率和穩健(jian)性(xing)。
論文標題:Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time
論文鏈接://www.aminer.cn/pub/622abdd15aee126c0f56bc65
康奈爾大學、Meta AI:通過 Prompt 來調整基于 Transformer 的(de)視覺模(mo)型,結(jie)果發現:比起全(quan)面微調,Prompt 性能提(ti)升顯著。無論模(mo)型的(de)規模(mo)和訓練數據怎么變,24 種情(qing)況中有 20 種都完(wan)全(quan)勝出。
論文標題:Visual Prompt Tuning
論文鏈接://www.aminer.cn/pub/623be1965aee126c0f37aafc
英偉達:NVIDIA 在自家 GTC 2022 上發(fa)布 Omniverse 平臺新功能,讓開發(fa)者能夠(gou)更輕松地(di)開展協作(zuo)(zuo)、在全(quan)新游(you)戲開發(fa)流程中(zhong)部署 AI、為角色制作(zuo)(zuo)面(mian)部表情的動畫。
Unity:3D 制作和(he)運營平臺 Unity 震撼首發新一代超現實人(ren)類,以4K 分辨(bian)率(lv)實時(shi)渲染,讓數字人(ren)的(de)眼睛、頭發、皮膚(fu)等(deng)細節看起來(lai)與真人(ren)無異。
3、自然語言處理
清華大學、達摩研究院,浙江實驗室,北京人工智能研究院:提出了首(shou)個(ge)基(ji)于國產超(chao)(chao)算的(de)百萬(wan)億參(can)數(shu)(shu)超(chao)(chao)大(da)預(yu)訓(xun)(xun)(xun)練(lian)模型(xing)訓(xun)(xun)(xun)練(lian)系統 BaGuaLu。該系統擁有可以以超(chao)(chao)過(guo) 1 EFLOPS 的(de)混(hun)合精度性能(neng)訓(xun)(xun)(xun)練(lian)十萬(wan)億參(can)數(shu)(shu)的(de)模型(xing),并且支持訓(xun)(xun)(xun)練(lian)高達百萬(wan)億規模參(can)數(shu)(shu)量模型(xing)的(de)訓(xun)(xun)(xun)練(lian)(174 T),并且在并行策(ce)略、參(can)數(shu)(shu)存儲、數(shu)(shu)據精度、負載均衡(heng)四個(ge)方面進行了創新。
論文(wen)標(biao)題(ti):BaGuaLu: Targeting Brain Scale PretrainedModels with over 37 Million Cores
論(lun)文鏈接://www.aminer.cn/pub/6228239b6750f804ca0b65f9
哈工大、騰訊 AI Lab:開發(fa)了一(yi)個(ge)預訓(xun)練(lian)模型(xing) WordBERT。它包含(han)兩個(ge)組件:詞(ci)向(xiang)量(word embedding)和(he)(he) Transformer 層(ceng),WordBERT 采用多(duo)層(ceng)雙向(xiang) Transformer 來學(xue)習(xi)語境表(biao)示,通過不(bu)同(tong)(tong)的詞(ci)匯表(biao)規模、初始化配置和(he)(he)不(bu)同(tong)(tong)語言,研(yan)究人員一(yi)共訓(xun)練(lian)出(chu)四(si)個(ge)版本的 WordBERT。
論文標(biao)題(ti):Pretraining without Wordpieces: LearningOver a Vocabulary of Millions of Words
論文鏈接://www.aminer.cn/pub/621849025aee126c0f5520b2
以色列理工學院:研究者(zhe)提(ti)出了新(xin)架構 MTTR (Multimodal Tracking Transformer),將(jiang) RVOS 任(ren)務建模(mo)為序列(lie)(sequence)預(yu)測問題(ti),相關論文已(yi)被 CVPR 2022 接(jie)(jie)收。首(shou)先,輸入(ru)的(de)(de)文本(ben)和視頻幀(zhen)被傳遞給特征編碼(ma)器(qi)進(jin)行特征提(ti)取,然后(hou)(hou)將(jiang)兩者(zhe)連接(jie)(jie)成(cheng)多(duo)(duo)模(mo)態(tai)序列(lie)(每幀(zhen)一(yi)個)。接(jie)(jie)著,通過(guo)多(duo)(duo)模(mo)態(tai) Transformer 對兩者(zhe)之間的(de)(de)特征關系進(jin)行編碼(ma),并將(jiang)實例級(instance-level )特征解碼(ma)為一(yi)組預(yu)測序列(lie)。最(zui)后(hou)(hou),將(jiang)預(yu)測序列(lie)與基準(ground truth,在(zai)有監督學習中(zhong)通常指代樣本(ben)集中(zhong)的(de)(de)標簽)序列(lie)進(jin)行匹配,以供訓練過(guo)程(cheng)中(zhong)的(de)(de)監督或用于在(zai)推理過(guo)程(cheng)中(zhong)生(sheng)成(cheng)最(zui)終預(yu)測。
論文標題:End-to-End Referring Video ObjectSegmentation with Multimodal Transformers
論(lun)文(wen)鏈接://www.aminer.cn/pub/61a596655244ab9dcbdfe60b
微軟亞洲研究院:研究(jiu)者將(jiang) Transformer 擴展(zhan)至 1000 層的同時還(huan)保(bao)證其(qi)穩(wen)定性。開發者殘差連接處(chu)引入了一(yi)(yi)個新的歸一(yi)(yi)化函數(shu)(shu)DeepNorm,將(jiang) Post-LN 的良好性能(neng)和 Pre-LN 的穩(wen)定訓(xun)練高效結合(he)了起來(lai),最終(zhong)將(jiang) Transformer 擴展(zhan)到(dao) 2500 個注意(yi)力和前饋(kui)網絡子(zi)層(即 1000 層)比以前的模(mo)型(xing)深度高出一(yi)(yi)個數(shu)(shu)量(liang)級,將(jiang) DeepNorm 方法應用到(dao)Transformer 的每一(yi)(yi)個子(zi)層中,就得(de)到(dao)了一(yi)(yi)個全新的DeepNet 模(mo)型(xing)。
論文(wen)標題:DeepNet: Scaling Transformers to 1,000Layers
論文鏈接://www.aminer.cn/pub/621ee1895aee126c0f26aeef
DeepMind:發布了(le)新的(de)模(mo)(mo)型(xing)(xing)(xing) GopherCite,使用(yong)(yong)根據人類(lei)偏好的(de)強化學習(RLHP, reinforcement learning from humanpreferences)訓練了(le)一個可(ke)以(yi)(yi)用(yong)(yong)于開放式問答的(de)模(mo)(mo)型(xing)(xing)(xing)。解決了(le)語(yu)言模(mo)(mo)型(xing)(xing)(xing)幻(huan)覺的(de)問題,通(tong)過利用(yong)(yong)網絡上(shang)(shang)的(de)證據來(lai)支持其所有的(de)事(shi)實描述(shu)。訓練結果顯示(shi),該模(mo)(mo)型(xing)(xing)(xing)在自然問題數據集(ji)、ELI5 數據集(ji)上(shang)(shang)的(de)正(zheng)確率分別(bie)可(ke)以(yi)(yi)達到 90%、80%,接近人類(lei)水平。
谷歌:為了(le)解(jie)決模型在理解(jie)表(biao)(biao)格(ge)時總是通過行列順序的(de)線索作(zuo)弊的(de)問(wen)題,提出(chu)了(le) TableFormer,一種(zhong)對表(biao)(biao)格(ge)行列順序擾動嚴格(ge)魯(lu)棒(bang)的(de)架構,引入了(le) 13 種(zhong)可學習的(de)注意力偏置標(biao)量。TableFormer 還能夠更好地(di)編(bian)碼表(biao)(biao)格(ge)結構,以及對齊表(biao)(biao)格(ge)和相(xiang)應的(de)文(wen)本描述(例如自動問(wen)答中的(de)問(wen)題)。
論文(wen)標題:TableFormer: Robust TransformerModeling for Table-Text Encoding
論文鏈接://www.aminer.cn/pub/621ee1845aee126c0f26aa0e
卡內基梅隆大學:研究團隊對(dui) PolyCoder、開源模(mo)型(xing)(xing)和(he)(he) Codex 的(de)訓練(lian)和(he)(he)測(ce)試(shi)(shi)設置進(jin)行對(dui)比研究。使用 HumanEval 基準研究各種模(mo)型(xing)(xing)大小(xiao)、訓練(lian)步驟,以及不同的(de)溫度對(dui)模(mo)型(xing)(xing)生(sheng)成代碼質量的(de)影響。還創建(jian)了一個 12 種語言的(de)測(ce)試(shi)(shi)數據集(ji),用來評估各種模(mo)型(xing)(xing)的(de)性能。
論文標題:A Systematic Evaluation of LargeLanguage Models of Code
論文鏈(lian)接://www.aminer.cn/pub/621d8ec95aee126c0f73b0b0
香港大學、華為諾亞方舟實驗室:針對現(xian)有大(da)規(gui)模(mo)生成(cheng)式預訓(xun)練語言模(mo)型的壓(ya)縮需求,提(ti)出了新的量(liang)化壓(ya)縮解(jie)決方案,分(fen)別在 GPT-2 與 BART 上實(shi)現(xian)了 14.4 倍與 13.4 倍的壓(ya)縮率,并將(jiang)量(liang)化的 GPT模(mo)型與 BART 模(mo)型分(fen)別命名為「QuantGPT」與「QuantBART」。
論文標題:Compression of Generative Pre-trainedLanguage Models via Quantization
論(lun)文(wen)鏈接://www.aminer.cn/pub/62393e7f5aee126c0f125f59
4、智能芯片
清華大學:提(ti)出了一種基于金屬-絕緣(yuan)體(ti)-半(ban)導體(ti)結(jie)構(gou)的(de)(de)(de)二維半(ban)導體(ti)電(dian)致發光器(qi)件結(jie)構(gou)。該研究是通過電(dian)場去(qu)加速(su)材料中的(de)(de)(de)已有載流(liu)子,加速(su)載流(liu)子獲(huo)得足夠動(dong)能后,會(hui)和(he)半(ban)導體(ti)價帶(dai)的(de)(de)(de)電(dian)子發生碰撞(zhuang),這種碰撞(zhuang)帶(dai)來(lai)的(de)(de)(de)能量轉(zhuan)移,會(hui)產(chan)生出發光所需要的(de)(de)(de)激子。
論文標(biao)題(ti):Injection-free multiwavelengthelectroluminescence devices based on monolayersemiconductors driven by an alternating field
論文鏈接://www.aminer.cn/pub/61fd039a5aee126c0fe8965a
西南交通大學、電子科技大學、中國海洋大學、北京基礎醫學研究所:中(zhong)國(guo)科學(xue)(xue)家(jia)研發柔(rou)性(xing)(xing)(xing)腦機接口,在 10Hz 左右找到 α 波!實現剛性(xing)(xing)(xing)微(wei)電(dian)路(lu)和柔(rou)軟腦組織的(de)無縫聯接。研究團隊通過分子設計,制備出一款(kuan)可導電(dian)的(de)多功能(neng)水凝膠(jiao),借此實現了(le)與腦組織接近的(de)力學(xue)(xue)性(xing)(xing)(xing)能(neng)和生物(wu)學(xue)(xue)性(xing)(xing)(xing)能(neng),剛性(xing)(xing)(xing)電(dian)子元(yuan)件和柔(rou)軟腦組織之間的(de)機械和生物(wu)學(xue)(xue)不匹配的(de)難題得以解決。
論文(wen)標題:Bioadhesive and conductive hydrogelintegrated brain-machine interfaces for conformal and immune-evasive contact with brain tissue
新加坡國立大學:研究報告(gao)了一(yi)種基于當(dang)前(qian)高(gao)(gao)速通信(xin)基礎設施的生物(wu)(wu)(wu)(wu)識(shi)別保護技(ji)術(shu)。該系統包含一(yi)個協同(tong)(tong)摩擦電(dian)/光(guang)子接口,在(zai)(zai)接口中(zhong),柔性摩擦電(dian)器件提供(gong)(gong)生物(wu)(wu)(wu)(wu)識(shi)別掃描儀功能(neng),氮化鋁(lv)光(guang)芯片提供(gong)(gong)生物(wu)(wu)(wu)(wu)識(shi)別信(xin)息(xi)-光(guang)信(xin)息(xi)多路(lu)復用(yong)功能(neng);在(zai)(zai)用(yong)戶(hu)交互時(shi),接口將生物(wu)(wu)(wu)(wu)特征信(xin)息(xi)加載到光(guang)域中(zhong),并(bing)通過(guo)摩擦電(dian)和納米光(guang)子學之間(jian)的協同(tong)(tong)效應,以(yi)自我可持續的方式復用(yong)生物(wu)(wu)(wu)(wu)特征信(xin)息(xi)和數字信(xin)息(xi);在(zai)(zai)云端,可以(yi)使用(yong)快速傅里葉變換濾波器分離高(gao)(gao)頻數字信(xin)息(xi)和低頻生物(wu)(wu)(wu)(wu)特征信(xin)息(xi)。
論文(wen)標題:Biometrics-protected optical communication enabled by deep learning–enhanced triboelectric/photonic synergistic interface
格芯、博通、CiscoSystems、Marvell、英偉達等:合作提出了硅光平臺(tai) GF Fotonix。該(gai)平臺(tai)將差異化300mm 光子(zi)功能(neng)和(he) 300GHz 級(ji)別 RF-CMOS 結合在單(dan)個硅晶圓上(shang)(shang),通過在單(dan)個硅芯片上(shang)(shang)組合光子(zi)系統、射頻RF 元件、CMOS 邏輯電路,將以前(qian)分布在多個芯片上(shang)(shang)的(de)復(fu)雜(za)工藝整合到單(dan)個芯片上(shang)(shang),實現(xian)了光子(zi)集(ji)成(cheng)電路(PIC)上(shang)(shang)的(de)更(geng)高集(ji)成(cheng)度(du),讓客戶能(neng)夠集(ji)成(cheng)更(geng)多的(de)產品(pin)功能(neng),從(cong)而簡化物料清單(dan) BOM。
英偉達:開發了(le)全新 GPU——H100,采(cai)用全新 Hopper 架構,集成了(le) 800 億(yi)個晶體管(guan),比(bi)上(shang)一(yi)代(dai) A100 多(duo)了(le) 260 億(yi)個,內核數量達(da)到(dao)了(le)前所未有的 16896 個,達(da)到(dao)上(shang)一(yi)代(dai)A100 卡的 2.5 倍,浮點計(ji)算和張(zhang)(zhang)量核心運算能力也隨(sui)之翻了(le)至少(shao) 3 倍,面向 AI 計(ji)算,針對 Transformer 搭載了(le)優化引擎,讓大模型訓練速度直(zhi)接×6,20 張(zhang)(zhang)即可承載全球互聯網(wang)流量。
蘋果:發布(bu)搭載(zai) M1 自研(yan)芯片的高端臺式機,新產品名為(wei) Mac Studio,起(qi)售價(jia)為(wei) 1999 美元,類似于專(zhuan)業(ye)版 MacMini,可以與外部(bu)顯(xian)(xian)(xian)示(shi)器(qi)相連。跟(gen)它(ta)匹配(pei)的,則(ze)是內置一顆 A13 新品的 Studio Display 顯(xian)(xian)(xian)示(shi)器(qi):蘋果 27 寸顯(xian)(xian)(xian)示(shi)器(qi)。
5、智能機器人
華為:華為天才少年稚(zhi)暉君(jun)推出了桌面迷(mi)你機(ji)器(qi)人(ren)(ren)ElectronBot,通(tong)過(guo)嘗試用(yong)(yong) T-Spline 曲(qu)面建模,并且機(ji)器(qi)人(ren)(ren)雙臂可動(dong),機(ji)器(qi)人(ren)(ren)的底座(zuo)則(ze)使(shi)用(yong)(yong)鋁 CNC 進行加工,使(shi)用(yong)(yong)了 Cortex-M4 內核 MCU,STM32F4,用(yong)(yong)于驅動(dong)屏幕和控制舵(duo)機(ji)以及 USB 通(tong)信。此外(wai)(wai),利用(yong)(yong)機(ji)器(qi)人(ren)(ren)機(ji)身搭載(zai)的攝像頭和紅(hong)外(wai)(wai)手持(chi)傳感器(qi),還(huan)開(kai)發了通(tong)過(guo) AI 算法識別(bie)手勢的程序。
微軟:微軟旗(qi)下 Mixed Reality & AI Lab 研究團隊基于(yu)頭(tou)顯捕獲的(de)(de)頭(tou)部(bu)(bu)和(he)手(shou)部(bu)(bu)追(zhui)蹤(zong)數(shu)據(ju)開發了“FLAG:Flowbased Avatar Generation from SparseObservations”解決方案,通過 VR 頭(tou)顯獲得的(de)(de)頭(tou)部(bu)(bu)和(he)手(shou)部(bu)(bu)追(zhui)蹤(zong)數(shu)據(ju),可生成(cheng)佩戴者的(de)(de)全身(shen) 3D 化身(shen)。它不(bu)僅能學(xue)習(xi)(xi) 3D 人體的(de)(de)條件分布,還(huan)能從(cong)觀(guan)測數(shu)據(ju)中學(xue)習(xi)(xi)潛在(zai)空(kong)間的(de)(de)概率映射,并由(you)此(ci)進行關節的(de)(de)不(bu)確定性估計(ji),生成(cheng)合理(li)的(de)(de)姿勢。
國網上海浦東供電公司:該公司在新片區(qu)開展全(quan)自(zi)主的(de)雙曲(qu)臂帶電作(zuo)業機(ji)(ji)器(qi)(qi)人作(zuo)業。該機(ji)(ji)器(qi)(qi)人全(quan)自(zi)主作(zuo)業成功率(lv)可達(da) 98%,配合了(le)多(duo)傳(chuan)感(gan)器(qi)(qi)融(rong)合的(de)定(ding)位(wei)系統,實現(xian)對導線毫米(mi)級識(shi)別定(ding)位(wei)。它(ta)采用雙臂配合,能像人一(yi)(yi)樣(yang)深度學習算法,運(yun)用人工智能技術,像人的(de)大腦(nao)一(yi)(yi)樣(yang)主動規劃作(zuo)業路徑,高效完成工作(zuo)任務(wu)。
北京術銳技術有限公司、上海交通大學醫學院:國產單孔手術機(ji)器人共含(han) 68 個高精(jing)度伺(si)服電機(ji),用于術前輔助擺位、術中操作和主從控制,創造性地設計了面向全(quan)狀(zhuang)態安全(quan)監控的雙環路(lu)獨(du)立控制硬件(jian)拓撲,全(quan)鏈路(lu)主從操作延時小于 50 毫秒(miao)(miao),每秒(miao)(miao)鐘可(ke)實現 1000 次的亞毫米級手術精(jing)準控制。
川崎重工:打(da)造了世界首款四(si)(si)足機器(qi)羊 Bex,可(ke)(ke)以降低機身,將(jiang)下肢四(si)(si)腿膝部的輪轂接地,以四(si)(si)驅機車的方(fang)式(shi)前進,在有人(ren)模式(shi)下,羊騎士(shi)可(ke)(ke)以用 Bex 身上的手柄(bing)操縱行(xing)進方(fang)向與速度;在無人(ren)模式(shi)下,Bex 可(ke)(ke)以被遙控、可(ke)(ke)以與其他川崎(qi)生產的無人(ren)自動(dong)(dong)送貨機器(qi)人(ren)聯網獲取行(xing)動(dong)(dong)信息(xi)。
UC 伯克利分校:將以前開發的(de)(de)機器(qi)人 BADGR 演變成 ViKiNG,并(bing)將學習和規(gui)(gui)劃集(ji)成起來,利用(yong)諸如示意路(lu)線圖、衛星地圖和 GPS 坐標等(deng)輔助信息作為規(gui)(gui)劃啟發式(shi),利用(yong)基于圖像(xiang)的(de)(de)學習控制器(qi)和目(mu)(mu)標導(dao)向啟發式(shi)(goaldirected heuristic),在以前沒見(jian)過的(de)(de)環(huan)境中導(dao)航(hang)到最遠 3 公里以外的(de)(de)目(mu)(mu)標。
論文標題(ti):ViKiNG: Vision-Based Kilometer-ScaleNavigation with Geographic Hints
論文(wen)鏈接://www.aminer.cn/pub/6216f7625aee126c0fc60302
中國人民大學 、 GeWu實驗室:提出聽音識(shi)物 AI 框架。AI 先要在(zai)單一聲(sheng)(sheng)源場景(jing)中學習物體(ti)的視覺-音頻表征;然(ran)后再(zai)將這(zhe)一框架遷移到多聲(sheng)(sheng)源場景(jing)下,通過(guo)訓練來辨(bian)別更(geng)多的聲(sheng)(sheng)源。研究人員讓這(zhe)個框架先能從視覺方(fang)面定位出畫(hua)面中存在(zai)的不同物體(ti),然(ran)后再(zai)根據(ju)聲(sheng)(sheng)音信息過(guo)濾掉不發聲(sheng)(sheng)物體(ti)。這(zhe)種方(fang)法還能遷移到物體(ti)檢測(ce)任務中去(qu)。
麻省理工學院(MIT):開發了一種全(quan)新的“聲感織(zhi)物”(預制件的分層(ceng)材(cai)(cai)料(liao)塊(kuai),由壓電(dian)層(ceng)和響應(ying)聲波振(zhen)動(dong)的增強材(cai)(cai)料(liao)成分制成)。這種織(zhi)物材(cai)(cai)料(liao),不僅(jin)能夠(gou)“聽到”聲音,還(huan)能“發出”聲音。
論文標(biao)題:Single fibre enables acoustic fabrics viananometre-scale vibrations
論文鏈接://www.aminer.cn/pub/6234658c5aee126c0feefef5
7、知識圖譜
魁北克人工智能研究院、加拿大蒙特利爾學習算法研究所:研究者在 AAAI-2022 會議論文中全面介紹知識圖譜推理的(de)(de)(de)不(bu)(bu)同方(fang)(fang)法,包括(kuo)傳(chuan)統的(de)(de)(de)基(ji)于符(fu)號(hao)邏輯(ji)規則(ze)的(de)(de)(de)方(fang)(fang)法、基(ji)于神(shen)經的(de)(de)(de)方(fang)(fang)法、神(shen)經符(fu)號(hao)方(fang)(fang)法、邏輯(ji)規則(ze)歸納方(fang)(fang)法和不(bu)(bu)同的(de)(de)(de)應用。
論文(wen)標題:Reasoning on Knowledge Graphs: Symbolicor Neural?
地址://aaai2022kgreasoning.github.io/
北京大學數據管理實驗室:被 TKDE 2022 接收的(de)(de)(de)這(zhe)篇論文對(dui)知識圖譜質(zhi)(zhi)量控制問(wen)題展開(kai)了綜述,不僅包括質(zhi)(zhi)量控制的(de)(de)(de)基本(ben)概念如問(wen)題、維度(du)和(he)指(zhi)標,也涵蓋了質(zhi)(zhi)量控制從評估、問(wen)題發現到質(zhi)(zhi)量提升的(de)(de)(de)全流程,對(dui)不同工作中(zhong)提出的(de)(de)(de)方法,按照(zhao)多個維度(du)進行分(fen)類,最后(hou)對(dui)現有工作進行討論和(he)總(zong)結,并提出了若干有潛力的(de)(de)(de)未來發展方向。
論文標題:Knowledge Graph Quality Management: a Comprehensive Survey
8、信息檢索與推薦
谷歌研究院:引入了可微搜(sou)索索引(Differentiable Search Index,DSI)。這是一(yi)種學習文本到文本新(xin)范(fan)式,DSI 模型(xing)將字符串查詢直接映射到相關文檔。此外(wai),還研究(jiu)了如何表(biao)示文檔及(ji)其標識符的變(bian)化、訓練過(guo)程的變(bian)化以及(ji)模型(xing)和(he)語料庫大小之間的相互作用。
論文標(biao)題:Transformer Memory as a Differentiable Search Index
論(lun)文鏈接(jie)://www.aminer.cn/pub/620c6b645aee126c0fe28e8d
上海交通大學:盧策吾團(tuan)隊提出了一種知識驅動的人類(lei)行為(wei)知識引擎HAKE(Human Activity Knowledge Engine)。它將像素映(ying)射到由(you)原子活動基元跨(kua)越(yue)的中間(jian)空間(jian);用(yong)一個推理引擎將檢測到的基元編程為(wei)具(ju)有明確邏(luo)輯規則的語義,并(bing)在推理過程中更新規則。
論(lun)文標題:HAKE: A Knowledge Engine Foundation forHuman Activity Understanding
論(lun)文鏈接://www.aminer.cn/pub/620b19c85aee126c0f7e6da3
9、可視化
CMU 、NUS、復旦、耶魯大學:聯合發布了面向(xiang)文本數據的(de)統(tong)一數據分析、處(chu)理、診斷和可視化平臺(tai) DataLab。具(ju)有覆蓋(gai)廣(guang)、可理解性、統(tong)一性、可交互性、啟發性幾個特性。
論(lun)文標題:DataLab: A Platform for Data Analysis andIntervention 論(lun)文鏈(lian)接://www.aminer.cn/pub/621c3d245aee126c0fe7e43e
馬里蘭大學、萊斯大學、紐約大學:研究者對(dui)雙下降(Double Descent)現(xian)象進行(xing)了(le)可視化,從(cong) CIFAR-10 訓練(lian)集(ji)中選(xuan)擇了(le)三(san)幅隨(sui)機圖像,然后(hou)使(shi)用三(san)次(ci)不(bu)(bu)同的隨(sui)機初(chu)始化配置在 7 種(zhong)不(bu)(bu)同架構(gou)上訓練(lian),繪制出各自的決(jue)策區域,并設計了(le)一種(zhong)更直觀的度(du)量方法來(lai)衡量各架構(gou)的可復現(xian)性得分,發現(xian)更寬(kuan)的 CNN 模型似乎在其決(jue)策區域具(ju)有(you)更高的可復現(xian)性。此外,優化器的選(xuan)擇也會帶(dai)來(lai)影響(xiang)。
論文標題(ti):Can Neural Nets Learn the Same Model Twice? Investigating Reproducibility and Double Descent from the Decision Boundary Perspective
論文鏈接://www.aminer.cn/pub/623155bb5aee126c0f2bac44
陳·扎克伯格生物中心、莫納什大學:開(kai)發(fa)了一個免(mian)費、開(kai)源并(bing)且可擴展的圖像查(cha)看器 napari,適用(yong)于(yu)任意(yi)復雜(“n 維”)數(shu)據,與 Python 生態系統緊密結合,napari 有類似于(yu) Adobe Photoshop 的圖層,允許用(yong)戶疊加(jia)點(dian)、矢量、軌跡、表面、多邊形、注(zhu)釋或其他圖像。
論(lun)文標題:Python power-up: new image tool visualizes complex data
論文鏈接://www.aminer.cn/pub/61d576f65244ab9dcb3be8ca
10、計算機系統
美國 AI 芯片公司Luminous Computing:宣布已在(zai) A 輪融資(zi)中籌集了(le) 1.05 億美元(yuan),用于建(jian)造世界上最強大的 AI 超級計算機(ji),并將使用專有的硅光子(zi)學(xue)技術來消除各種規模(mo)的數(shu)據移(yi)動瓶頸。
美國國家標準與技術研究院:美(mei)國(guo)國(guo)家標準與(yu)技術研究(jiu)院(NIST)的(de)研究(jiu)人員開(kai)發出新的(de)可以在(zai)細(xi)胞(bao)(bao)內持續(xu)存在(zai)的(de)長壽生(sheng)物(wu)(wu)計算(suan)(suan)機(ji)。選擇使用RNA 來構建生(sheng)物(wu)(wu)計算(suan)(suan)機(ji)。結果表明,RNA 電路與(yu)其基于(yu) DNA 的(de)電路一樣可靠和通用。更重要的(de)是,活細(xi)胞(bao)(bao)能(neng)夠連續(xu)創(chuang)建這(zhe)些 RNA 電路元件。
摩爾線程:張建中 2020 年 9 月(yue)離開英偉(wei)達,并于次(ci)月(yue)創(chuang)辦(ban)的摩爾(er)線(xian)程發布國產(chan)第一代(dai)全功能(neng) GPU 芯(xin)片蘇堤(di),以及下一代(dai)多平(ping)臺(tai) GPU 物(wu)理仿真系(xi)統(tong) AlphaCore。該芯(xin)片耗(hao)時僅 18個(ge)月(yue)、量(liang)產(chan)上市。采用了(le)統(tong)一系(xi)統(tong)架構 MUSA(MT?Unified System Architecture)。
11、AI 應用
清華大學、華深智藥:清華大學和華深智(zhi)藥生物(wu)科技有(you)限公(gong)司結(jie)合(he)(he)深度學習模型,完成了從(cong)抗體(ti) AI 優化(hua)(hua)設計、抗體(ti)合(he)(he)成、功(gong)能評估(gu)和再優化(hua)(hua)的閉環(huan)程序,基(ji)于(yu)(yu)大量抗體(ti)-抗原復合(he)(he)物(wu)結(jie)構(gou)及結(jie)合(he)(he)親和力數據(ju),開發了一(yi)種基(ji)于(yu)(yu)注意(yi)力的幾何(he)神經網(wang)絡架構(gou),該(gai)模型可(ke)有(you)效地提取殘(can)基(ji)間相互作用(yong)特征并預測(ce)由于(yu)(yu)抗體(ti)單個(ge)或(huo)多個(ge)氨基(ji)酸變化(hua)(hua)所引(yin)起的結(jie)合(he)(he)親和力變化(hua)(hua)。
論文標(biao)題: Deep learning guided optimization ofhuman antibody against SARS-CoV-2 variants with broad neutralization
德國 ALS Voice gGmbH:德國 ALS Voice gGmbH 展示了(le)一種使用(yong)計算(suan)機從腦信號解碼字母的方法,可(ke)以使完全閉鎖患者(zhe)(zhe)借助腦機接口(BCI)進行(xing)語言交(jiao)流。目前已經可(ke)以和(he)一名 34 歲、完全閉鎖狀態的男性 ALS 患者(zhe)(zhe)(已無法控制隨意肌),以每分鐘一個詞的速度(du)形成單(dan)詞和(he)詞組(zu)進行(xing)交(jiao)流。
論文標題:Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training
中國科學院:中國(guo)科學院微生(sheng)物(wu)研究(jiu)所結合 LSTM、Attention 和BERT 等多(duo)種自(zi)然語言處理(li)神(shen)經網絡模型,建立(li)了一(yi)個用(yong)于從人類(lei)腸道微生(sheng)物(wu)組(zu)數據中識別候選腺苷-磷酸(AMP)的(de)統(tong)一(yi)管道,利用(yong)現已公開(kai)的(de)大量宏基因組(zu)數據,進(jin)行多(duo)肽的(de)挖掘及邏輯推導,研究(jiu)合成多(duo)肽的(de)機理(li)、安全性與動物(wu)實驗等,并得出對真(zhen)核(he)細胞沒有明顯毒性的(de)肽能夠在動物(wu)體內降(jiang)低感染菌的(de)載量,并有效治(zhi)療肺炎克雷伯菌所導致的(de)感染。
論文標題: Identification of antimicrobial peptides from the human gut microbiome using deep learning
瑞士 Wyss生物和神經工程中心、德國蒂賓根大學:瑞士 Wyss 生(sheng)物(wu)和(he)神經(jing)工程中心與德國蒂賓根大(da)學科研團隊共(gong)同合(he)作(zuo),通(tong)(tong)過侵入(ru)式 BCI 系統(tong)“植(zhi)入(ru)式電極(ji)+神經(jing)反(fan)饋”的方式獲取患者(zhe)(zhe)的意(yi)圖,將 3.2mm2 大(da)小的兩個(ge)微電極(ji)陣列(lie)(lie)在(zai)該患者(zhe)(zhe)的大(da)腦皮層表面植(zhi)入(ru),每(mei)個(ge)電極(ji)陣列(lie)(lie)有 64 個(ge)針狀電極(ji),用來記錄神經(jing)信(xin)號(hao)(hao)。一位漸凍癥患者(zhe)(zhe)通(tong)(tong)過 BCI 系統(tong),實現(xian)了其大(da)腦信(xin)號(hao)(hao)的讀(du)取,并(bing)通(tong)(tong)過機(ji)器上(shang)字母(mu)的選擇(ze)組合(he)完成了句子的完整表達。
3 月 22 日(ri),相關(guan)論文以《在通(tong)過聽(ting)覺神經反饋訓練啟用(yong)的完全鎖定(ding)患者中使用(yong)皮質內信號(hao)的拼寫(xie)界面》(Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training)為題發(fa)表在 Nature Communications 上。
Google Research:Google Research 提(ti)出了(le)一個機器學習模型(xing) ProtENN,能(neng)夠可靠地預測(ce)蛋白質(zhi)的功(gong)能(neng),并且為(wei) Pfam 新(xin)增(zeng)了(le)大約680 萬條蛋白質(zhi)功(gong)能(neng)注釋,大約相當于過去十年進展的總和。
論(lun)文標題(ti): Using Deep Learning to Annotate theProtein Universe
論文鏈接(jie)://www.aminer.cn/pub/5ce3af25ced107d4c65f15d4
清華大學、伊利諾伊大學厄巴納-香檳分校、麻省理工學院:清華大學、伊(yi)利諾伊(yi)大學厄巴納-香(xiang)檳分(fen)校和麻省理工(gong)學院利用(yong) DeepMind 開發的(de)第二(er)代深度學習神經網絡(luo)AlphaFold 2 增強新冠抗體,可以(yi)使抗體寬度以(yi)及 sarscov-2 變體 (包括 Delta) 的(de)效力提高 10 到 600 倍(bei)」,甚至(zhi)發現了該方法可以(yi)對抗奧密克(ke)戎(Omicron)變體跡象的(de)希冀。
論文標題: Deep learning guided optimization of human antibody against SARS-CoV-2 variants with broad neutralization
論文鏈接://www.aminer.cn/pub/6221ee375aee126c0f7bb180
廈門大學、新加坡國立大學:張鵬(peng)和(he)陳宇綜等學者的(de)(de)(de)團隊(dui)正在研究如何借助計(ji)算機算法從蛋(dan)白(bai)(bai)(bai)質中創作古典音樂(le)(le)。一(yi)條蛋(dan)白(bai)(bai)(bai)質鏈可(ke)以(yi)表(biao)示(shi)(shi)為一(yi)個由字母組成的(de)(de)(de)字符(fu)串(chuan),像一(yi)個以(yi)字母表(biao)示(shi)(shi)的(de)(de)(de)音符(fu)串(chuan)。因此(ci),一(yi)種合適的(de)(de)(de)“蛋(dan)白(bai)(bai)(bai)質到(dao)音樂(le)(le)”的(de)(de)(de)算法,就可(ke)以(yi)將一(yi)串(chuan)氨基酸的(de)(de)(de)結構(gou)和(he)物理(li)化學特征(zheng)映射到(dao)一(yi)段音符(fu)的(de)(de)(de)音樂(le)(le)特征(zheng)上。
論文(wen)標(biao)題:Protein music of enhanced musicality bymusic style guided exploration of diverse amino acid properties
論文鏈接://www.aminer.cn/pub/616566875244ab9dcb892cd4
潞晨科技、上海交大:潞晨(chen)科技和上海交(jiao)大提(ti)出了(le)一(yi)種蛋白質結構(gou)預測(ce)模型的(de)高(gao)效(xiao)實現 FastFold , FastFold 包 括 一(yi) 系(xi) 列 基 于 對AlphaFold 性能(neng)全面分析的(de) GPU 優化,同時(shi),通(tong)過動態軸并(bing)(bing)行和對偶異(yi)步算子,FastFold 提(ti)高(gao)了(le)模型并(bing)(bing)行擴展的(de)效(xiao)率,超越了(le)現有的(de)模型并(bing)(bing)行方(fang)法。
論文標題:FastFold: Reducing AlphaFold Training Time from 11 Days to 67 Hours
論(lun)文鏈(lian)接(jie)://www.aminer.cn/pub/622032395aee126c0fe2f5d5
谷歌 AI:谷歌(ge) AI 發(fa)布了(le)(le)用于(yu)蛋白質解析的(de)(de)機(ji)器(qi)學習模型ProtENN,可(ke)以幫助在 Pfam 的(de)(de)蛋白質功能注釋集(ji)中(zhong)添(tian)加(jia)大約 680 萬個條目,大約相(xiang)當于(yu)過(guo)去十年的(de)(de)新增條目總和(he),將 Pfam 的(de)(de)覆蓋范圍擴大了(le)(le) 9.5%以上。
論文標題(ti): Using Deep Learning to Annotate theProtein Universe
論(lun)文鏈接://www.aminer.cn/pub/5ce3af25ced107d4c65f15d4
麻省理工學院、哈佛大學:麻(ma)省(sheng)理(li)工學(xue)院、哈佛(fo)大學(xue)博德研究所(suo)開發(fa)了一(yi)種新框架來研究調控 DNA 的適應度地(di)形,該研究利用在數億次實驗測量結果上進行訓練的神經網絡(luo)模型,預(yu)測酵(jiao)母菌 DNA中非(fei)編(bian)碼序列(lie)的變(bian)化及(ji)其(qi)對基因表達的影響。
論文標題:The evolution, evolvability and engineering of gene regulatory DNA
論文鏈接://www.aminer.cn/pub/622b2bd75aee126c0fb97555
美國德州農工大學:德州農工大學基于機器(qi)學習的培養(yang)設計和合成生物(wu)學的平(ping)(ping)臺,突破了藻類生產(chan)中“相互遮(zhe)蔭” 和 “高收(shou)獲成本(ben)” 的限制,實現 43.3 克 / 平(ping)(ping)方米 / 天的生物(wu)質產(chan)量,使最低(di)生物(wu)質銷售價格降至每噸約(yue) 281 美元。
論文標(biao)題:Machine learning-informed and syntheticbiology-enabled semi-continuous algal cultivation tounleash renewable fuel productivity
論文鏈接://www.aminer.cn/pub/61f51ab25aee126c0f14ad6e
哥本哈根大學、米蘭大學等:丹麥、瑞士(shi)、法(fa)(fa)國、德國、挪(nuo)威和(he)(he)捷克(ke)共和(he)(he)國的(de)(de) 16 名研究(jiu)人(ren)員(yuan),首次(ci)開發了一款(kuan)人(ren)工智能,可以(yi)把豬(zhu)(zhu)在(zai)各種場景中發出(chu)的(de)(de)聲(sheng)音(yin)“翻譯”出(chu)來,讀(du)出(chu)豬(zhu)(zhu)的(de)(de)真(zhen)實情緒,通過記(ji)錄(lu) 411頭家豬(zhu)(zhu)的(de)(de) 7000 多次(ci)豬(zhu)(zhu)叫,使(shi)用(yong)訓練(lian)算法(fa)(fa)來識別(bie)這些聲(sheng)音(yin),可以(yi)以(yi) 92%的(de)(de)正確率翻譯出(chu)豬(zhu)(zhu)叫聲(sheng)中的(de)(de)情緒。
論文標題:Classification of pig calls produced frombirth to slaughter according to their emotional?valence and context of production
論文鏈接://www.aminer.cn/pub/622887315aee126c0feab0e0
DeepMind、哈佛大學、谷歌:DeepMind、哈佛大學和谷(gu)歌等聯合(he)開發了一種基于Transformer 架構的(de)方法(fa),單獨(du)修(xiu)復受損文本時(shi),準確(que)(que)率能達到(dao) 62%,破譯古(gu)希(xi)臘石碑的(de)準確(que)(que)率達到(dao) 72%,此外,這一方法(fa)在(zai)地理歸屬的(de)任務(wu)上也有(you) 71%的(de)準確(que)(que)率,還能將古(gu)文字(zi)的(de)書寫日期精確(que)(que)到(dao) 30 年以內。
西安電子大學、悉尼科技大學等:中國和(he)(he)澳大利亞學(xue)者開發了一(yi)(yi)款名為 Nos.e 的電子鼻,里面有(you)一(yi)(yi)小(xiao)瓶(ping)威士(shi)忌(ji)樣品,威士(shi)忌(ji)的氣味(wei)被注入(ru)到一(yi)(yi)個(ge)氣體傳感器室中,氣體傳感器檢測各種氣味(wei)并將(jiang)數據發送給計算機(ji)進行分析。然后,通過機(ji)器學(xue)習算法提取和(he)(he)分析最重要(yao)的氣味(wei)特征,以(yi)識(shi)別(bie)威士(shi)忌(ji)的品牌、地區和(he)(he)風格。
央視:兩會(hui)期間(jian),“央視(shi)頻”平臺(tai)(tai)以(yi)總(zong)臺(tai)(tai)財(cai)經評論員(yuan)王冠(guan)為原型,1:1 復刻打造推出總(zong)臺(tai)(tai)首個擁有超自(zi)然語音、超自(zi)然表情的超仿真主播“AI 王冠(guan)”,同時推出全新 AI 節目《“冠(guan)”察兩會(hui)》,結合(he)兩會(hui)熱點話題,以(yi)科技感(gan)和新鮮感(gan),為總(zong)臺(tai)(tai)兩會(hui)報道內容(rong)提供更(geng)多維(wei)度和視(shi)角(jiao)。
科大訊飛:科大訊飛為兩會(hui)打造了“訊飛聽見智慧簡報系統(tong)”。通過智能(neng)語音轉寫(xie)、自然(ran)語言處(chu)理等多項核心技術,該系統(tong)實現(xian)了在(zai)全程離線環境下將會(hui)議發言實時轉寫(xie)成文字,一方(fang)面輔助(zhu)記(ji)錄人員(yuan)進行簡報材料整(zheng)理,既(ji)保證簡報記(ji)錄原汁原味,又保證內容準確詳(xiang)實,另一方(fang)面所有算法均在(zai)設備本機(ji)離線運行,確保會(hui)議信息安全。
卡內基梅隆大學:卡(ka)內基梅(mei)隆(long)大(da)學(xue)開發(fa)了(le)一個名(ming)為 MolCLR(Molecular Contrastive Learning of Representations with GNN)的自我監督學(xue)習框架,通(tong)過利用大(da)約 1000 萬個未(wei)標記的分子(zi)數(shu)據,顯著(zhu)提高了(le) ML 模型(xing)的性能,繼而進行化(hua)學(xue)研究。
論文(wen)標題:Molecular contrastive learning of representations via graph neural networks
論文鏈接://www.aminer.cn/pub/60338c9891e011e54d039c5a
布朗大學、MIT 、南洋理工大學:布朗大學(xue)、MIT 和(he)南洋理(li)工大學(xue)提出(chu)了(le)一(yi)種基于 PINN的(de)(de)方法(fa),用(yong)于解決(jue)連續體(ti)固(gu)體(ti)力學(xue)中的(de)(de)幾何識(shi)別問題(ti),該方法(fa)將固(gu)體(ti)力學(xue)中重要(yao)的(de)(de)已(yi)知(zhi)偏微分方程(cheng)(PDE)與 NN相結(jie)合,構成了(le)一(yi)個統(tong)一(yi)的(de)(de)計算(suan)框架,包括正向求解器和(he)逆向算(suan)法(fa),通過使用(yong)神經網絡的(de)(de)工作(zuo)流程(cheng),該方法(fa)可以通過深度學(xue)習過程(cheng)自動(dong)更新幾何估計。
論文標題:Analyses of internal structures and defects in materials using physics-informed neural networks
論文鏈接://www.aminer.cn/pub/620f7b895aee126c0f30d328
斯坦福大學、天津大學:斯坦福大學、天津大學設(she)計了一(yi)種極富(fu)彈性的可(ke)穿戴顯示(shi)器——可(ke)拉伸全聚合(he)物發光二極管(APLED),APLED具(ju)有很好的明亮度和耐用(yong)性,這一(yi)設(she)計或(huo)標志著高(gao)性能可(ke)拉伸顯示(shi)器的重要進展,為電子(zi)皮膚和人-電子(zi)應用(yong)奠定基(ji)礎。
論文(wen)標(biao)題:High-brightness all-polymer stretchable?LED with charge-trapping dilution
論文(wen)鏈接://www.nature.com/articles/s41586-022-04400-1
清華 AIR、計算機系與騰訊 AI Lab:清華 AIR、計算機(ji)系(xi)與騰訊 AI Lab 共同提(ti)出了圖力學(xue)網絡(luo)(luo)(Graph Mechanics Network, GMN)。借助廣義坐標,GMN 能(neng)有效刻畫幾(ji)何約束;借助等變神經網絡(luo)(luo),GMN 能(neng)滿足物理(li)對稱性(xing)。在多剛體(ti)(ti)仿真系(xi)統Constrained N-body、人體(ti)(ti)骨架預測 CMU Motion Capture、分(fen)子動力學(xue)模擬 MD-17 等任務上都驗證了GMN 的有效性(xing)。
論文標題:Equivariant Graph Mechanics Networks with Constraints
論文鏈(lian)接://www.aminer.cn/pub/623004305aee126c0f9b358b
RIKEN 、東京大學:RIKEN 高級(ji)智(zhi)能項目研(yan)究(jiu)中心和(he)東(dong)京大學使(shi)用(yong)從頭分子(zi)生(sheng)成(cheng)器(DNMG)與量子(zi)化學計算(QC)相結合(he)來開發熒(ying)光分子(zi),使(shi)用(yong)大規模并行計算(1024 核,5 天(tian)),DNMG產生(sheng)了(le) 3643 個候選分子(zi)。光致發光光譜測量表明(ming),DNMG 可以以 75% 的(de)準確(que)度(n = 6/8)成(cheng)功設(she)計熒(ying)光分子(zi),并產生(sheng)一(yi)種未報(bao)告的(de)分子(zi),該分子(zi)發出肉眼(yan)可檢測到(dao)的(de)熒(ying)光。
論文標題(ti):De novo creation of a naked eye–detectable fluorescent molecule based on quantum chemical computation and machine learning
論文鏈接://www.aminer.cn/pub/622b2bd35aee126c0fb94f0e
薩塞克斯大學、倫敦大學學院:薩塞克斯大學、倫敦大學學院的研究著提出了一種采用機器學習方法,通過觀察自動發現實際物理系統的控制方程和隱藏屬性。該研究分為兩個階段:第一階段的學習模擬器基于圖網絡 (GN),圖網絡是一種深度神經網絡,可以通過訓練來逼近圖上的復雜函數;第二階段,該研究分離邊函數(edge function),并應用符號回歸擬合邊函數的解析公式,其最好的擬合是對牛頓萬有引力定律的擬
合。
論(lun)文標題:Rediscovering orbital mechanics with machine learning
論文(wen)鏈(lian)接://www.aminer.cn/pub/62008da15aee126c0fbd19ea
巴西 ABC 聯邦大學:巴西(xi) ABC 聯邦大學(xue)提(ti)出(chu)了一(yi)種數(shu)據驅動策(ce)略(lve)來探(tan)索二(er)(er)(er)維材料中(zhong)的(de)磁(ci)性(xing)。使(shi)用創建的(de)二(er)(er)(er)維磁(ci)性(xing)材料數(shu)據庫訓練 ML算法(fa),從而獲得能夠將(jiang)材料分類為(wei)非(fei)磁(ci)性(xing)、FM 或 AFM的(de)描(miao)述符。該策(ce)略(lve)分為(wei)兩個(ge)主(zhu)要步驟,即(i)開發(fa)一(yi)個(ge)隨機(ji)森林模型,根據晶體(ti)結構和原子(zi)組成趨(qu)勢將(jiang)磁(ci)性(xing)與非(fei)磁(ci)性(xing)化合物分開,以及(ii)基(ji)于(yu)確定的(de)獨立性(xing)通過(guo)篩(shai)選(xuan)和稀(xi)疏算子(zi)(SISSO)方法(fa)尋找一(yi)個(ge)數(shu)學(xue)模型(即原子(zi)特征的(de)函數(shu)),該模型為(wei) AFM 和 FM 二(er)(er)(er)維材料提(ti)供具有定義區域的(de)材料圖。
論文(wen)標題:Machine Learning Study of the Magnetic Ordering in 2D Materials
論文鏈接://www.aminer.cn/pub/61f8a4c35aee126c0fee028e
蘇黎世聯邦理工學院:蘇黎世聯邦理(li)工學院提出(chu)可(ke)使用(yong)(yong)自學習(xi)的(de)(de)人(ren)工神經(jing)網絡,解決動力系統(tong)(tong)的(de)(de)控制問題。利用(yong)(yong)數值(zhi)和分析方法(fa)的(de)(de)結合,AI Pontryagin 可(ke)通過自動學習(xi),找出(chu)工程上可(ke)行的(de)(de)控制系統(tong)(tong)的(de)(de)方式。該方法(fa)可(ke)應用(yong)(yong)于(yu)智能電網的(de)(de)調控、供應鏈優化以及金(jin)融系統(tong)(tong)的(de)(de)穩(wen)定等(deng)眾多場景。
論文標(biao)題: AI Pontryagin or how artificial neural networks learn to control dynamical systems
論文鏈接://www.aminer.cn/pub/604b3bad91e0110eed64c382
AI+ 自動駕駛:清華大學(xue)、麻(ma)省理工(gong)學(xue)院提(ti)(ti)出了(le)(le)一種基于自監督(du)學(xue)習的方法,讓自動駕駛(shi)模型從已有的軌(gui)跡預測數據(ju)集(ji)中學(xue)會正確判(pan)斷沖突中的禮讓關(guan)系。該研究(jiu)將預測的關(guan)系在充滿復雜交(jiao)互的 Waymo Interactive Motion Prediction 數據(ju)集(ji)上進行(xing)(xing)了(le)(le)測試,并提(ti)(ti)出了(le)(le) M2I 框架來(lai)使用預測出的關(guan)系進行(xing)(xing)場景級別的交(jiao)互軌(gui)跡預測。
論文標題:M2I: From Factored Marginal Trajectory Prediction to Interactive Prediction
論文鏈(lian)接://www.aminer.cn/pub/621849025aee126c0f551ec8
麻省理(li)工(gong)學院的(de) Derq 分支機構,開發了(le)一個人工(gong)智能應用程序,可以融合(he)來自多個傳感器的(de)數(shu)據,包括安(an)裝在車輛和道(dao)路兩側的(de)攝像(xiang)頭,以監測并(bing)最終協助管理(li)道(dao)路,提高安(an)全性。
AI+ 氣候能源:康(kang)奈爾(er)大學開(kai)發了一個基于機器學習的多(duo)時間尺(chi)度的電力(li)系統脫碳過(guo)渡(du)(du)優化(hua)模(mo)型,旨(zhi)在幫助(zhu)政府規劃電力(li)部門向碳中(zhong)和過(guo)渡(du)(du)的路(lu)徑,以及考量氣候或能源(yuan)目標的可(ke)行性(xing)。
論(lun)文標題(ti): Toward Carbon-Neutral Electric Power Systems in the New York State: a Novel Multi-Scale Bottom-Up Optimization Framework Coupled with Machine Learning for Capacity Planning at HourlyResolution
英(ying)偉達(da)、勞(lao)倫斯伯克利國家實驗(yan)室、密(mi)歇根大學安(an)娜(na)堡分校、萊斯大學等機構開發了一種(zhong)基于傅里葉(xie)的神(shen)經網絡預(yu)(yu)(yu)測模(mo)型 FourCastNet,它能(neng)以 0.25° 的分辨(bian)率(lv)生成關(guan)鍵天氣(qi)變量的全(quan)球數據(ju)驅(qu)動預(yu)(yu)(yu)測,相當(dang)于赤(chi)道附近(jin)大約 30×30 km 的空間分辨(bian)率(lv)和 720×1440 像素的全(quan)球網格大小。這使(shi)得首次(ci)能(neng)夠(gou)與(yu)歐洲中期天氣(qi)預(yu)(yu)(yu)報中心(ECMWF)的高分辨(bian)率(lv)綜合預(yu)(yu)(yu)測系統(IFS)模(mo)型進行直接比較。
論(lun)文標題:FourCastNet: A Global Data-driven Highresolution Weather Model using Adaptive Fourier Neural Operators
論文鏈接://www.aminer.cn/pub/6216f7625aee126c0fc60248
智東西認為,三月(yue)的(de)AI領(ling)域(yu)重(zhong)大新(xin)聞(wen)數量有所下降,但質量上一(yi)點(dian)也沒縮水。最重(zhong)磅的(de),當(dang)屬NVIDIA Omniverse全新(xin)功能(neng),用(yong)AI技術提升游戲(xi)畫面,讓人(ren)物表情變得栩栩如生。另外(wai),中國相關的(de)AI領(ling)域(yu)的(de)表現(xian)也十分亮(liang)眼,浙大博士入選蘋果(guo)獎學金,十一(yi)大AI細分領(ling)域(yu)中都有中國相關高校、公司的(de)身影(ying)。