Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben
principalmente a C. E. Shannon
Existe, a su vez, un gran número de propiedades respecto de la entropía de variables aleatorias
debidas a A. Kolmogorov.
Dada una fuente F que emite mensajes, resulta frecuente observar que los mensajes emitidos no
resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del
mensaje
Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de orden-0,
pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores
Definimos la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de
apariciones de dicho mensaje dividido entre el total de mensajes.
El objetivo de la compresión de datos es encontrar los Li que minimizan a H, además los Li se deben
determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de
ocurrencia de los mismos (los más ocurrentes queremos codificarlos en menos bits).
A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por
Shannon oportunamente se llega a que H es mínimo cuando f(Pi) = log2 (1/Pi).