基于長期時序信息的視頻時空行為定位識別

來源:科學技術(shù)處、電子與通信工程系發(fā)布時間:2020-07-24

【講座題目】基于長期時序信息的視頻時空行為定位識別

【講座時間】2020 年 7 月 28 日(星期二) 上午 9:10

【講座地點】網(wǎng)絡(luò)直播:https://live.bilibili.com/22339632

【主 人】林巍峣,上海交通大學教授

【主講人簡介】

上海交通大學教授,分別于2003年和2005年獲得上海交通大學學士和碩士學位,并于 2010 年獲得美國華盛頓大學西雅圖分校獲得博士學位。曾在包括 Motorola, Real Networks 和 Thomson Technology 在內(nèi)的多家公司的研究機構(gòu)擔任 Research Intern。主要研究方向包括計算機視覺、視覺監(jiān)控、視頻行為理解、視頻及語義信息編碼等。 林博士現(xiàn)任 IEEE Trans. Image Processing, IEEE Trans. CSVT、 IEEE Trans. ITS 等期刊編委及 ICPR’20、BMVC’19、MM'18、ICIP'19、 ICME'18 等領(lǐng)域主席,并任IEEE MMSP、IEEE MSA TC、IEEE MMTC 等學術(shù)專業(yè)委員會委員。在相關(guān)領(lǐng)域共發(fā)表 IEEE Transactions 系列及 CVPR、ICCV、AAAI 等權(quán)威期刊和會議論文 40 余篇,獲專利 18 項。近年來,林博士相繼獲得 2018 教育部“**”學者、ICME’19 多媒體學術(shù)新星(Multimedia Rising Star)、2019 上海市五四青年獎?wù)碌葮s譽。

【內(nèi)容簡介】

時空行為定位與識別是行為識別中的關(guān)鍵問題?,F(xiàn)有的主流方法主要利用在單幀或者短序列中的密集檢測框以及短時的時序信息進行時空定位。上述方法由于未能充分利用較長時序中的信息,往往效果有局限。在本次報告中,我們將介紹我們在時空行為定位識別中的兩個工作。首先,我們在建模行為時,使用行為的長時間時序信息,并直接預(yù)測行為所在的時空三維管道。此外,我們進一步提出一個動態(tài)采樣的方法來對行為定位的過程進行加速。實驗結(jié)果顯示, 我們的方法可以在提升3倍以上速度的情況下,在標準數(shù)據(jù)集上達到當前最優(yōu)的效果。

返回