Glossary
Gradiente Biến Mất / Nổ Là Gì
Các khái niệm Gradiente Biến Mất và Gradiente Nổ rất quan trọng trong ngữ cảnh học sâu và đào tạo mạng nơ-ron.
Gradiente Biến Mất đề cập đến trường hợp mà các gradient trở nên cực kỳ nhỏ trong quá trình lan truyền ngược, khiến cho các trọng số ngừng cập nhật. Hiện tượng này phổ biến trong các mạng sâu, đặc biệt là những mạng sử dụng hàm kích hoạt sigmoid hoặc tanh, dẫn đến tốc độ học chậm hoặc ngừng lại.
Ngược lại, Gradiente Nổ xảy ra khi các gradient tăng trưởng quá mức trong quá trình lan truyền ngược, dẫn đến việc cập nhật trọng số không ổn định và mô hình không hội tụ. Điều này thường xảy ra ở các mạng có nhiều lớp, đặc biệt là khi sử dụng hàm kích hoạt ReLU.
Cả hai hiện tượng này đều ảnh hưởng đáng kể đến hiệu quả và hiệu suất của việc đào tạo các mô hình học sâu. Các nhà nghiên cứu đã đề xuất nhiều kiến trúc như LSTM để giảm thiểu tác động của Gradiente Biến Mất và các kỹ thuật như cắt gradient để xử lý Gradiente Nổ.
Khi học sâu tiến triển, việc giải quyết những vấn đề này ngày càng trở nên quan trọng, với các hàm kích hoạt và thiết kế mạng mới nhằm duy trì sự ổn định của gradient.