Glossary
0-9
G
I
K
N
R
V
Y
Weight Decay là gì
Weight Decay là một kỹ thuật regularization được sử dụng rộng rãi trong học máy và học sâu, nhằm ngăn chặn hiện tượng overfitting.
Kỹ thuật này hoạt động bằng cách thêm một thuật ngữ hình phạt vào hàm mất mát, điều này khuyến khích mô hình học các trọng số nhỏ hơn và ngăn chặn các giá trị trọng số lớn.
Kỹ thuật này đặc biệt hữu ích cho các mô hình phức tạp và tập dữ liệu có chiều cao, vì nó giúp mô hình tổng quát tốt hơn khi gặp dữ liệu chưa thấy.
Weight Decay thường được sử dụng kết hợp với các phương pháp regularization khác như Dropout để tăng cường tính chắc chắn của mô hình.
Khi công nghệ học sâu tiến bộ, Weight Decay có thể phát triển hơn nữa thông qua các tỷ lệ học thích ứng và các phương pháp tối ưu hóa tinh vi hơn.