La teoría de la información surgió a finales de la Segunda
Guerra Mundial, en los años cuarenta.
. Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical
Journal en 1948
Esta teoría es el resultado de trabajos comenzados en la década 1910 por Andrei A. Markovi, a quien
le siguió Ralp V. L. Hartley en 1927, quien fue el precursor del lenguaje binario
Alan Turing en 1936, realizó el esquema de una máquina capaz de tratar información con emisión
de símbolos
Claude Elwood Shannon, matemático, ingeniero electrónico y criptógrafo estadounidense, conocido
como "el padre de la teoría de la información”, junto a Warren Weaver, contribuyó en la culminación
y el asentamiento de la Teoría Matemática de la Comunicación de 1949 – que hoy es mundialmente
conocida por todos como la Teoría de la Información
La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la
complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de
teletipo y los sistemas de comunicación por radio.
La teoría de la información también abarca todas las restantes formas de transmisión y
almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten
en las computadoras y en la grabación óptica de datos e imágenes