圖1 期刊,、論文題目與作者信息
11月28日,,我校數(shù)學(xué)學(xué)院李晨博士與鄭賢偉副教授在人工智能領(lǐng)域頂級(jí)期刊IEEE Transactions on Neural Networks and Learning Systems (TNNLS) 發(fā)表題為“Tiny Data Is Sufficient: A Generalizable CNN Architecture for Temporal Domain Long Sequence Identification”的學(xué)術(shù)論文,佛山大學(xué)是該論文的第一單位,。李晨博士為第一作者,,鄭賢偉副教授為通訊作者,。TNNLS期刊是國(guó)際電氣與電子工程師協(xié)會(huì)(IEEE)旗下的人工智能領(lǐng)域頂級(jí)期刊,、中科院SCI一區(qū)TOP期刊,,2024年影響因子為10.2。
該文首次提出可泛化卷積神經(jīng)網(wǎng)絡(luò) (GeCNN) 架構(gòu),,并應(yīng)用于超小樣本場(chǎng)景下的時(shí)域長(zhǎng)序列識(shí)別任務(wù),。該架構(gòu)包含三個(gè)組件:非線性卷積網(wǎng)絡(luò) 、選擇性卷積網(wǎng)絡(luò),、多重池化網(wǎng)絡(luò)。其中,,非線性卷積網(wǎng)絡(luò)通過(guò)可配置的非線性卷積器增強(qiáng)序列特征的提取效率,,并顯著提升模型的準(zhǔn)確性;選擇性卷積網(wǎng)絡(luò)通過(guò)隨機(jī)子序列選擇算法降低模型對(duì)大樣本訓(xùn)練數(shù)據(jù)的需求,,作者同時(shí)提出并證明了均一步長(zhǎng)采樣定理為該方法提供理論支持,;多重池化網(wǎng)絡(luò)將八種池化輸出按通道結(jié)合,并緩解單一池化操作中存在的統(tǒng)計(jì)信息丟失問(wèn)題,。與現(xiàn)有的深度網(wǎng)絡(luò)相比,,該文提出的 GeCNN 架構(gòu)可在淺層網(wǎng)絡(luò)與超小樣本場(chǎng)景下顯著提升時(shí)域長(zhǎng)序列識(shí)別模型的準(zhǔn)確率,初步擺脫了傳統(tǒng)深度學(xué)習(xí)模型對(duì)大樣本訓(xùn)練數(shù)據(jù)的依賴(lài),,同時(shí)解決了經(jīng)典卷積運(yùn)算在時(shí)域長(zhǎng)序列分析任務(wù)中存在的特征表示能力有限與特征提取效果欠佳的問(wèn)題,。
稿件來(lái)源:數(shù)學(xué)學(xué)院
通訊員: 劉小華
郵編:528225
地址:江灣校區(qū)——廣東省佛山市禪城區(qū)江灣一路18號(hào)
仙溪校區(qū)——廣東省佛山市南海區(qū)獅山鎮(zhèn)廣云路33號(hào)
河濱校區(qū)——廣東省佛山市禪城區(qū)河濱路5號(hào)
佛大官微
佛大視頻號(hào)
佛大南方號(hào)
佛大強(qiáng)國(guó)號(hào)
佛大易班
佛大青年
Copyright 佛山大學(xué) 2024 . All Rights Reserved.
新版網(wǎng)站試運(yùn)行中,如您發(fā)現(xiàn)問(wèn)題請(qǐng)聯(lián)系我們[email protected],,感謝您的關(guān)注,!