數(shù)學(xué)學(xué)院李晨博士、鄭賢偉副教授在人工智能領(lǐng)域國(guó)際頂級(jí)期刊TNNLS上發(fā)表學(xué)術(shù)論文 2024-12-09
圖1 期刊,、論文題目與作者信息 11月28日,,我校數(shù)學(xué)學(xué)院李晨博士與鄭賢偉副教授在人工智能領(lǐng)域頂級(jí)期刊IEEE Transactions on Neural Networks and Learning Systems (TNNLS) 發(fā)表題為“Tiny Data Is Sufficient: A Generalizable CNN Architecture for Temporal Domain Long Sequence Identification”的學(xué)術(shù)論文,佛山大學(xué)是該論文的第一單位,。李晨博士為第一作者,,鄭賢偉副教授為通訊作者。TNNLS期刊是國(guó)際電氣與電子工程師協(xié)會(huì)(IEEE)旗下的人工智能領(lǐng)域頂級(jí)期刊,、中科院SCI一區(qū)TOP期刊,,2024年影響因子為10.2。 該文首次提出可泛化卷積神經(jīng)網(wǎng)絡(luò) (GeCNN) 架構(gòu),,并應(yīng)用于超小樣本場(chǎng)景下的時(shí)域長(zhǎng)序列識(shí)別任務(wù),。該架構(gòu)包含三個(gè)組件:非線性卷積網(wǎng)絡(luò) ,、選擇性卷積網(wǎng)絡(luò)、多重池化網(wǎng)絡(luò),。其中,,非線性卷積網(wǎng)絡(luò)通過(guò)可配置的非線性卷積器增強(qiáng)序列特征的提取效率,并顯著提升模型的準(zhǔn)確性,;選擇性卷積網(wǎng)絡(luò)通過(guò)隨機(jī)子序列選擇算法降低模型對(duì)大樣本訓(xùn)練數(shù)據(jù)的需求,,作者同時(shí)提出并證明了均一步長(zhǎng)采樣定理為該方法提供理論支持;多重池化網(wǎng)絡(luò)將八種池化輸出按通道結(jié)合,,并緩解單一池化操作中存在的統(tǒng)計(jì)信息丟失問(wèn)題,。與現(xiàn)有的深度網(wǎng)絡(luò)相比,該文提出的 GeCNN 架構(gòu)可在淺層網(wǎng)絡(luò)與超小樣本場(chǎng)景下顯著提升時(shí)域長(zhǎng)序列識(shí)別模型的準(zhǔn)確率,,初步擺脫了傳統(tǒng)深度學(xué)習(xí)模型對(duì)大樣本訓(xùn)練數(shù)據(jù)的依賴,,同時(shí)解決了經(jīng)典卷積運(yùn)算在時(shí)域長(zhǎng)序列分析任務(wù)中存在的特征表示能力有限與特征提取效果欠佳的問(wèn)題。
圖2 GeCNN架構(gòu)由輸入模塊(Input),、GeCNN核心模塊(GeCNN Core),、全連接模塊(FC)組成 稿件來(lái)源:數(shù)學(xué)學(xué)院 通訊員:劉小華
|