中文題目:融合潛在特征的長(zhǎng)尾分類(lèi)與對(duì)比學(xué)習(xí)
論文題目:Long-Tailed Classification with Fused Latent Features and Contrast Learning
錄用期刊/會(huì)議:2024中國(guó)自動(dòng)化大會(huì) (CAA A類(lèi)會(huì)議)
錄用時(shí)間:2024.9.14
作者列表:
1) 袁鴻力 中國(guó)石油大學(xué)(北京)人工智能學(xué)院 控制科學(xué)與工程 研22級(jí)
2) 劉建偉 中國(guó)石油大學(xué)(北京)人工智能學(xué)院 自動(dòng)化系 教師
摘要:
傳統(tǒng)深度學(xué)習(xí)方法取得矚目的成就離不開(kāi)優(yōu)質(zhì)的平衡數(shù)據(jù)集,然而,真實(shí)世界中的數(shù)據(jù)集往往呈現(xiàn)長(zhǎng)尾分布,尾部類(lèi)數(shù)量過(guò)少,導(dǎo)致模型不能充分學(xué)習(xí)少數(shù)類(lèi)。本文提出了新的對(duì)比學(xué)習(xí)損失函數(shù),使得模型可以更好的適用于長(zhǎng)尾場(chǎng)景學(xué)習(xí)來(lái)特征表示,此外還利用圖結(jié)構(gòu)將頭部類(lèi)信息遷移到尾部類(lèi)特征中,增強(qiáng)尾部類(lèi)效果。
背景與動(dòng)機(jī):
長(zhǎng)尾場(chǎng)景(Long tail scenario)指數(shù)據(jù)集中少數(shù)頭部類(lèi)包含絕大多數(shù)樣本,而眾多的尾部類(lèi)僅包含小部分樣本的情況。在這樣的數(shù)據(jù)集下訓(xùn)練模型,會(huì)導(dǎo)致模型對(duì)尾部類(lèi)學(xué)習(xí)不夠充分,并且模型更加關(guān)注頭部類(lèi)樣本?,F(xiàn)實(shí)中有些數(shù)據(jù)本身獲取極為困難,并且人工標(biāo)注大量數(shù)據(jù)需要高昂的成本,引入長(zhǎng)尾學(xué)習(xí)技術(shù)對(duì)深度學(xué)習(xí)在實(shí)際場(chǎng)景中的部署具有重要意義。
主要內(nèi)容:
對(duì)比學(xué)習(xí)有助于模型提取魯棒的特征表示,過(guò)去的對(duì)比學(xué)習(xí)方法主要利用樣本和樣本之間的信息以及類(lèi)別與類(lèi)別之間的信息,而對(duì)于特征本身之間的關(guān)系利用的不夠充分。除此之外,模型對(duì)分布的建模不夠準(zhǔn)確。針對(duì)關(guān)系利用不充分問(wèn)題,本文利用KNN圖來(lái)建模特征之間的關(guān)系,并通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取信息融合后的特征,然后利用對(duì)比學(xué)習(xí)提取魯棒表示。
圖1. 混合模塊結(jié)構(gòu)
針對(duì)分布建模不準(zhǔn)確的問(wèn)題,我們提出了一種新的適用于長(zhǎng)尾場(chǎng)景的對(duì)比學(xué)習(xí)損失函數(shù)(圖2. 對(duì)比損失函數(shù)),利用基于批數(shù)據(jù)和類(lèi)原型的高斯混合分布來(lái)建模數(shù)據(jù)集的類(lèi)條件分布。最后在常用的長(zhǎng)尾數(shù)據(jù)及上進(jìn)行了緊密的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果證明了我們方法的有效性。
圖2. 對(duì)比損失函數(shù)
實(shí)驗(yàn)結(jié)果如表1所示:
結(jié)論:
本文按照最近研究趨勢(shì),沿用將對(duì)比學(xué)習(xí)應(yīng)用在長(zhǎng)尾場(chǎng)景的下的思路,針對(duì)傳統(tǒng)對(duì)比學(xué)習(xí)利用信息不充分以及建模分布不夠準(zhǔn)確的不足,分別提出了基于KNN圖建模特征間關(guān)系,然后利用圖卷積遷移頭部信息的模塊和新的長(zhǎng)尾對(duì)比損失函數(shù)。最后在常見(jiàn)的長(zhǎng)尾數(shù)據(jù)集上進(jìn)行了詳盡的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果證明了我們提出的方法的有效性。
作者簡(jiǎn)介:
劉建偉,教師,學(xué)者。