山東科技大學張金泉獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉山東科技大學申請的專利一種基于彈性抗擾隱私保護機制的人臉敏感數據保護方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN119598517B 。
龍圖騰網通過國家知識產權局官網在2025-09-02發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202411678571.0,技術領域涉及:G06F21/62;該發明授權一種基于彈性抗擾隱私保護機制的人臉敏感數據保護方法是由張金泉;楊仁棟;湯云燦;周閱微;倪麗娜設計研發完成,并于2024-11-22向國家知識產權局提交的專利申請。
本一種基于彈性抗擾隱私保護機制的人臉敏感數據保護方法在說明書摘要公布了:本發明公開了一種基于彈性抗擾隱私保護機制的人臉敏感數據保護方法,屬于信息處理領域,在數據預處理階段,提出了一種基于信息熵的動態自適應采樣策略,根據人臉數據集的分布特點和敏感信息的權重調整采樣率,在保證用戶隱私的前提下最大化模型性能。為了取得更好的隱私保護效果,設計了一種熵調差分隱私機制,在對人臉數據集動態自適應采樣之后,根據人臉數據的信息熵值自適應地添加不同程度的高斯噪聲,從而實現差分隱私約束下人臉敏感數據的精細化隱私保護。在模型訓練階段,提出了一種彈性抗擾訓練方法,在模型訓練的不同階段動態生成多樣化的對抗樣本,在增強模型對多種類型的對抗攻擊的魯棒性的同時降低模型的過擬合風險。
本發明授權一種基于彈性抗擾隱私保護機制的人臉敏感數據保護方法在權利要求書中公布了:1.一種基于彈性抗擾隱私保護機制的人臉敏感數據保護方法,其特征在于,包括如下步驟: 步驟1、獲取原始的人臉圖像數據集并進行預處理,將預處理后的數據集按比例劃分為訓練集和測試集,計算每個圖像的信息熵,根據信息熵對數據集進行動態自適應采樣,獲得一次更新的訓練集; 步驟2、為人臉圖像數據分配隱私預算,使用熵調差分隱私保護機制對一次更新的訓練集中每個圖像添加高斯噪聲,獲得二次更新的訓練集; 步驟3、構建動態卷積層,將原有模型網絡ResNet18中的標準卷積層替換為構建的動態卷積層形成動態熵感知隱私對抗模型; 步驟4、采用二次更新的訓練集進行模型預訓練; 步驟5、采用彈性抗擾訓練方法,在動態熵感知隱私對抗模型訓練的不同階段動態生成多樣化的對抗樣本,將二次更新的訓練集中每一輪次的普通樣本集與生成的對抗樣本集按比例混合后,進行模型訓練;具體過程為: 步驟5.1、初始化擾動幅度、步長以及首輪對抗樣本,用D″train中加噪后的人臉圖像初始化首輪對抗樣本,公式如下: 其中,為首輪對抗樣本;X″為加噪后的人臉圖像; 步驟5.2、定義對抗樣本的損失函數同樣也使用交叉熵損失函數,具體公式如下: 其中,Ladv是對抗樣本的交叉熵損失函數值;M″為每一輪次對抗樣本的個數;表示模型對第i個圖像對應的對抗樣本的預測概率;yi表示第i個圖像的真實標簽; 步驟5.3、根據模型的反饋對步長和擾動幅度進行自適應調整,確保步長和擾動幅度是動態調整后的最優值;動態調整公式如下: 其中,ci為第i個圖像對應的對抗樣本的擾動幅度,用于控制對抗樣本生成過程中施加在樣本上的擾動量;cbase是初始擾動幅度;λ′是擾動幅度調整系數,用于控制擾動幅度的調整強度;是當前批次對抗樣本的平均損失值,公式如下: 其中,Nadv是當前批次對抗樣本的個數; 根據HtotalXi來自適應調整對抗樣本的生成迭代步長,公式如下: ηi=ηbase·1+λ″·HtotalXi25; 其中,ηi為第i個圖像對應的對抗樣本的步長;ηbase是初始步長;λ″是步長調整系數,用于控制信息熵對步長調整的影響程度; 步驟5.4、根據模型當前的表現,動態選擇生成對抗樣本的攻擊策略;具體過程為: 步驟5.4.1、計算損失變化率,公式如下: 其中,是第t輪對抗樣本的交叉熵損失變化率;分別是第t輪、第t-1輪對抗樣本的交叉熵損失函數值;u是一個常數; 步驟5.4.2、根據模型的交叉熵損失變化率,動態切換生成對抗樣本的攻擊策略;預先設置第一閾值τfgsm和第二閾值τpgd,用于判斷選擇何種攻擊策略;共包含三種攻擊策略,分別采用了快速梯度符號法、投影梯度下降法、深度欺騙法;具體判斷規則如下: 在訓練初期,如果使用快速梯度符號法來生成對抗樣本,公式如下: 其中,是第t輪的第i個圖像對應的對抗樣本;是第t輪加噪后的第i個圖像;是第t輪第i個圖像對應的對抗樣本的步長;是的損失梯度;sign是取梯度的符號;表示模型對第t輪的第i個圖像對應的對抗樣本的預測概率;表示第t輪第i個圖像的真實標簽; 在訓練中期,如果使用投影梯度下降法生成對抗樣本,逐步優化擾動,公式如下: 其中,是第t+1輪的第i個圖像對應的對抗樣本;是投影操作,它將更新后的對抗樣本投影回范圍內確保對抗樣本在限制區域內;是第t輪加噪后的第i個圖像;是以為中心,半徑為擾動幅度c的球形區域;是的損失梯度; 在訓練后期,如果使用深度欺騙法生成對抗樣本,公式如下: 其中,fdf·是當前樣本的分類輸出分數;是對樣本分類輸出分數的梯度;是梯度的L2范數的平方; 步驟5.5、將D″train中每一輪次的普通樣本集Dnormal與對抗樣本集Dadv按比例混合后進行訓練,公式如下: Dtrain=ζ·Dnormal+1-ζ·Dadv30; 其中,Dtrain是混合后的訓練集;ζ是混合比例; 模型的總損失函數Ltotal如下: 其中,是混合比例; 訓練完成后,使用測試集對動態熵感知隱私對抗模型進行評估以衡量模型的性能; 步驟6、繼續新一輪的動態熵感知隱私對抗模型訓練,在每一輪訓練中依據信息熵進行動態自適應采樣、人臉圖像數據加噪處理,再次生成對抗樣本與普通樣本組成混合訓練集進行模型訓練;具體過程為: 步驟6.1、根據每輪動態熵感知隱私對抗模型訓練結果的反饋,先依據信息熵對數據進行動態自適應采樣;接著,根據采樣數據的信息熵大小為采樣數據添加自適應的高斯噪聲; 步驟6.2、基于當前動態熵感知隱私對抗模型的表現,根據加噪后的數據生成對抗樣本;接著,將這些對抗樣本與加噪處理后的普通樣本按比例組合,形成混合后的訓練集; 步驟6.3、使用混合后的訓練集進行動態熵感知隱私對抗模型訓練; 步驟6.4、每輪迭代后,依據動態熵感知隱私對抗模型的訓練結果對采樣、加噪與對抗訓練的過程進行微調,逐漸改善模型的性能,直至在差分隱私保護的條件下達到預設的性別識別準確率或滿足最大訓練輪次。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人山東科技大學,其通訊地址為:266590 山東省青島市黃島區前灣港路579號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。