De acuerdo a la teoría de la
información, el nivel de información
de una fuente se puede medir
según la entropía de la misma. Los
estudios sobre la entropía son de
suma importancia en la teoría de la
información y se deben
principalmente a C. E. Shannon.
Dada una fuente F que emite
mensajes, resulta frecuente observar
que los mensajes emitidos no
resulten equiprobables sino que
tienen una cierta probabilidad de
ocurrencia dependiendo del mensaje
Esta es la base de la
compresión de datos. A este
tipo de fuente se la denomina
fuente de orden-0, pues la
probabilidad de ocurrencia de
un mensaje no depende de los
mensajes anteriores
A las fuentes de orden superior
se las puede representar
mediante una fuente de
orden-0 utilizando técnicas de
modelización apropiadas
Promedio ponderado de las
longitudes de los códigos de
acuerdo a sus probabilidades
de ocurrencia, al número H
se lo denomina "Entropía de
la fuente" y tiene gran
importancia.
La entropía de la fuente
determina el nivel de
compresión que
podemos obtener como
máximo para un conjunto
de datos