Weight Decay 是一種廣泛用於機器學習和深度學習的正則化技術,旨在防止過擬合。
它通過向損失函數添加懲罰項來抑制大型權重值,有效地鼓勵模型學習更小的權重。
這種技術對於複雜模型和高維數據集特別有益,因為它幫助模型在遇到未見數據時更好地泛化。
Weight Decay 通常與其他正則化方法(如 Dropout)結合使用,以增強模型的穩健性。
隨著深度學習技術的進步,Weight Decay 可能通過自適應學習率和更複雜的優化技術進一步發展。