Zusammenfassung der Ressource
ENTROPÍA DE UNA FUENTE
- De acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según
la entropía de la misma.
- Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben
principalmente a C. E. Shannon. Existe, a su vez, un gran número de propiedades respecto de la
entropía de variables aleatorias debidas a A. Kolmogorov.
- Dada una fuente F que emite mensajes, resulta frecuente observar que los mensajes emitidos no
resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del
mensaje.
- Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para los
mensajes más probables y mayor cantidad de bits para los mensajes menos probables, de forma tal
que el promedio de bits utilizados para codificar los mensajes sea menor a la cantidad de bits
promedio de los mensajes originales.
- Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de orden-0,
pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores.
- A las fuentes de orden superior se las puede representar mediante una fuente de orden-0 utilizando
técnicas de modelización apropiadas.
- La entropía de la fuente determina el nivel de compresión que podemos obtener como máximo para
un conjunto de datos, si consideramos como fuente a un archivo y obtenemos las probabilidades de
ocurrencia de cada carácter en el archivo podremos calcular la longitud promedio del archivo
comprimido, se demuestra que no es posible comprimir estadísticamente un mensaje/archivo más
allá de su entropía