Glossary

Qué es la Divergencia KL (Kullback–Leibler)

La Divergencia Kullback-Leibler (KL) es un concepto fundamental en teoría de la información y estadística que cuantifica la diferencia entre dos distribuciones de probabilidad. Se utiliza ampliamente en campos como el aprendizaje automático, la estadística y la recuperación de información. Cuanto menor sea el valor de la divergencia KL, más similares serán las dos distribuciones; por el contrario, un valor mayor indica una mayor divergencia.


La fórmula para la divergencia KL se define como:
D_{KL}(P || Q) = ∑ P(i) log(P(i)/Q(i)), donde P y Q son dos distribuciones de probabilidad. La divergencia KL es no negativa para distribuciones de probabilidad no negativas y es igual a cero solo cuando P y Q son idénticas. Una característica notable de la divergencia KL es su asimetría; D_{KL}(P || Q) no es igual a D_{KL}(Q || P).


En la práctica, la divergencia KL se utiliza comúnmente para la evaluación de modelos, el entrenamiento de modelos generativos y la compresión de información. Por ejemplo, los algoritmos de optimización en aprendizaje automático pueden minimizar la divergencia KL para alinear la distribución predicha del modelo con la distribución real de los datos.


De cara al futuro, con el avance de las tecnologías de aprendizaje profundo y big data, la divergencia KL puede combinarse con otras métricas de información para crear modelos más complejos para procesar datos de alta dimensión.


Las ventajas de la divergencia KL incluyen su simplicidad matemática y facilidad de cálculo, pero sus desventajas incluyen la sensibilidad a eventos de probabilidad cero, lo que puede llevar a resultados inestables. Al usarla, es necesario garantizar que las distribuciones de probabilidad de entrada sean válidas.