Glossary

Divergence KL (Kullback–Leibler) là gì

Divergence Kullback-Leibler (KL) là một khái niệm cơ bản trong lý thuyết thông tin và thống kê, được sử dụng để định lượng sự khác biệt giữa hai phân phối xác suất. Nó được áp dụng rộng rãi trong các lĩnh vực như học máy, thống kê và tìm kiếm thông tin. Giá trị divergence KL càng nhỏ, hai phân phối càng giống nhau; ngược lại, giá trị lớn hơn cho thấy sự khác biệt lớn hơn.


Công thức cho divergence KL được định nghĩa như sau:
D_{KL}(P || Q) = ∑ P(i) log(P(i)/Q(i)), trong đó P và Q là hai phân phối xác suất. Divergence KL là không âm đối với các phân phối xác suất không âm và chỉ bằng 0 khi P và Q hoàn toàn giống nhau. Một đặc điểm nổi bật của divergence KL là tính không đối xứng của nó; D_{KL}(P || Q) không bằng D_{KL}(Q || P).


Trong thực hành, divergence KL thường được sử dụng để đánh giá mô hình, đào tạo các mô hình sinh và nén thông tin. Ví dụ, các thuật toán tối ưu trong học máy có thể giảm thiểu divergence KL để điều chỉnh phân phối dự đoán của mô hình với phân phối dữ liệu thực tế.


Trong tương lai, với sự phát triển của công nghệ học sâu và dữ liệu lớn, divergence KL có thể được kết hợp với các chỉ số thông tin khác để tạo ra các mô hình phức tạp hơn nhằm xử lý dữ liệu có chiều cao.


Ưu điểm của divergence KL bao gồm tính đơn giản toán học và dễ tính toán, nhưng nhược điểm là nhạy cảm với các sự kiện xác suất bằng không, có thể dẫn đến kết quả không ổn định. Khi sử dụng, cần đảm bảo rằng các phân phối xác suất đầu vào là hợp lệ.