Glossary

O que é Divergência KL (Kullback–Leibler)

A Divergência Kullback-Leibler (KL) é um conceito fundamental em teoria da informação e estatística que quantifica a diferença entre duas distribuições de probabilidade. Ela é amplamente utilizada em campos como aprendizado de máquina, estatística e recuperação de informações. Quanto menor o valor da divergência KL, mais semelhantes são as duas distribuições; inversamente, um valor maior indica uma maior divergência.


A fórmula para a divergência KL é definida como:
D_{KL}(P || Q) = ∑ P(i) log(P(i)/Q(i)), onde P e Q são duas distribuições de probabilidade. A divergência KL é não-negativa para distribuições de probabilidade não-negativas e é igual a zero somente quando P e Q são idênticas. Uma característica notável da divergência KL é sua assimetria; D_{KL}(P || Q) não é igual a D_{KL}(Q || P).


No uso prático, a divergência KL é comumente utilizada para avaliação de modelos, treinamento de modelos generativos e compressão de informações. Por exemplo, algoritmos de otimização em aprendizado de máquina podem minimizar a divergência KL para alinhar a distribuição prevista do modelo com a distribuição real dos dados.


Olhando para o futuro, com o avanço das tecnologias de aprendizado profundo e big data, a divergência KL pode ser combinada com outras métricas de informação para criar modelos mais complexos para processar dados de alta dimensão.


As vantagens da divergência KL incluem sua simplicidade matemática e facilidade de cálculo, mas suas desvantagens incluem a sensibilidade a eventos de probabilidade zero, o que pode levar a resultados instáveis. Ao usar, é necessário garantir que as distribuições de probabilidade de entrada sejam válidas.