AIGC檢測為何總“看走眼”?騰訊優(yōu)圖揭秘:問題或許源于數(shù)據(jù)源頭
隨著AIGC技術的快速發(fā)展,一行簡單的提示詞就能生成高度逼真的內容,但這一技術進步也帶來了虛假新聞、身份欺詐、版權侵犯等嚴峻的安全隱患。AI生成圖像檢測因此成為AIGC時代不可或缺的基礎安全能力。
不過在實際應用中,卻存在一個尷尬的現(xiàn)象:檢測器在公開基準數(shù)據(jù)集這類“考場”上表現(xiàn)出色,可一旦應用到全新模型或不同數(shù)據(jù)分布的“戰(zhàn)場”,性能就會大幅下滑。
近日,騰訊優(yōu)圖實驗室聯(lián)合華東理工大學、北京大學等研究團隊,針對AI生成圖像檢測的泛化問題展開研究,提出了Dual Data Alignment(雙重數(shù)據(jù)對齊,DDA)方法。該方法從數(shù)據(jù)層面系統(tǒng)抑制“偏差特征”,顯著提升了檢測器在跨模型、跨數(shù)據(jù)域場景下的泛化能力。
目前,相關論文《Dual Data Alignment Makes AI-Generated Image Detector Easier Generalizable》已被NeurIPS 2025接收為Spotlight(錄取率僅Top 3.2%)。

發(fā)現(xiàn):AI圖像檢測器實則在“識別訓練集”
研究團隊認為,問題的根源可能在于訓練數(shù)據(jù)本身的構造方式。這使得檢測器沒有真正掌握區(qū)分圖像真假的本質特征,而是“走了捷徑”,依賴一些與圖像真?zhèn)螣o關的“偏差特征”(Biased Features)來判斷。
這些偏差特征是真實圖像與AI生成圖像在訓練數(shù)據(jù)收集過程中產(chǎn)生的系統(tǒng)性差異。具體表現(xiàn)為:
真實圖像:來源渠道多樣,清晰度和畫質參差不齊;分辨率分布分散;幾乎都以JPEG格式存儲,且?guī)в胁煌潭鹊膲嚎s痕跡。
AI生成圖像:呈現(xiàn)出高度統(tǒng)一的模式,分辨率常集中在256×256、512×512、1024×1024等固定檔位;大多以PNG等無損格式存儲;畫面干凈,無明顯壓縮痕跡。
在這樣的數(shù)據(jù)構成下,檢測模型可能會學習“投機策略”,比如認為“PNG≈假圖,JPEG≈真圖”。這種“捷徑”在某些標準測試集(如GenImage)上甚至能達到100%的檢測準確率,但一旦對AI生成的PNG圖像進行簡單的JPEG壓縮,使其格式和壓縮痕跡接近真實圖像,這類檢測器的性能就會斷崖式下跌。
對比真實圖像和AI生成圖像,兩者可能存在格式偏差、語義偏差和尺寸偏差:

解法與思路
針對這一問題,研究團隊認為,如果訓練數(shù)據(jù)本身帶有系統(tǒng)性偏差,再復雜的模型設計也難以避免“學偏”。因此他們提出了DDA(雙重數(shù)據(jù)對齊)方法,通過重構和對齊訓練數(shù)據(jù)來消除偏差。其核心操作分為三步:

像素域對齊(Pixel Alignment)
利用VAE(變分自編碼器)技術對每一張真實圖像進行重建,得到內容一致、分辨率統(tǒng)一的AI生成圖像。這一步消除了內容和分辨率上的偏差。

頻率域對齊(Frequency Alignment)
僅像素域對齊是不夠的。由于真實圖像大多經(jīng)過JPEG壓縮,其高頻信息(細節(jié)紋理)受損;而VAE在重建圖像時會“補全”這些細節(jié),創(chuàng)造出比真實圖像更豐富的高頻信息,這又形成了新的偏差。
實驗也證實了這一點:當研究者將重建圖像中“完美”的高頻部分替換為真實圖像中“受損”的高頻部分后,檢測器對VAE重建圖的檢出率大幅下降。
因此,關鍵的第二步是對重建圖執(zhí)行與真實圖完全相同的JPEG壓縮,使兩類圖像在頻率域上對齊。

Mixup
最后采用Mixup將真實圖像與經(jīng)過對齊的生成圖像在像素層面混合,進一步增強真圖和假圖的對齊程度。

經(jīng)過上述步驟,就能得到一組在像素和頻率特征上高度一致的“真/假”數(shù)據(jù)集,推動模型學習更具泛化性的“區(qū)分真假”特征。
實驗效果
傳統(tǒng)學術評測常為每個Benchmark單獨訓練一個檢測器進行評估,這種方式與真實應用場景不符。
為更真實地檢驗方法的泛化能力,研究團隊提出了嚴格的評測準則:只訓練一個通用模型,然后直接用它在所有未知的跨域測試集上評估。
在這一嚴格標準下,DDA(基于COCO數(shù)據(jù)重建)的實驗效果如下:
綜合表現(xiàn):在包含11個不同Benchmark的全面測試中,DDA在其中10個上取得領先。
安全下限(min-ACC):對于安全產(chǎn)品而言,“最差表現(xiàn)”比平均分更關鍵。在衡量模型最差表現(xiàn)的min-ACC指標上,DDA比第二名高出27.5個百分點。
In-the-wild測試:在公認高難度的真實場景“In-the-wild”數(shù)據(jù)集Chameleon上,檢測準確率達82.4%。
跨架構泛化:DDA訓練的模型不僅能檢測主流Diffusion模型生成的圖像,其學到的本質特征還能有效泛化至GAN和自回歸模型等完全不同、甚至未用到VAE的生成架構。

無偏訓練數(shù)據(jù)助力泛化性提升
在AI生成圖像日益逼真的當下,準確識別“真”與“假”至關重要。
但AIGC檢測模型的泛化性問題,有時無需復雜的模型結構設計,而是要回歸數(shù)據(jù)本身,從源頭消除那些看似微小卻致命的“偏見”。
“雙重數(shù)據(jù)對齊”提供了新的技術思路,通過提供更“高質量”的數(shù)據(jù),促使模型學習正確知識,專注于真正重要的特征,從而獲得更強的泛化能力。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



