Transferencia o adquisición
de conocimiento que permite
ampliar o precisar lo que se
tiene sobre una materia
En T.C. la información está
directamente relacionada
con la probabilidad de
ocurrencia de un mensaje
Hartley propuso una forma
de medir la cantidad de
información de un mensaje
Annotations:
\(I(m)=\log_{a} \left ( \frac{1}{P(m)} \right )=-\log_{a}(P(m))\)
De aquí que un mensaje 0 problable tiene información infinita y un mensaje 1 probable tiene información 0.
Mensaje
Una cantidad de información.
Es definido por el usuario,
puede ser: un caracter, una
palabra, un pixel...
Comunicación
Transferencia de
información, cuando
es a distancia se llama
telecomunicación
La forma óptima de
enviar información son
las señales eléctricas, porque:
Son rápidas, a la vel.
de la luz o cercanas
No hay que
conocer el código
Se puden encriptar
Son fáciles de
manipular
Señal
Cualquier variación en el
tiempo de una magnitud física
que transporta información
Características
Forma de onda: ¿Cómo es su
variación en el tiempo?
Espectro: ¿Cómo
es su variación en
la frecuencia?
Las que tienen su
espectro alrededor de
f=0 se deniminan
señales banda base
Si el espectro está
desplazado con centro en
fc, las señales se conocen
como señales pasabanda
Fuentes digitales
Aquellas que
producen un número
finito de símbolos
Símbolo
Cada una de las
diferentes formas de
onda de la fuente
Se clasifican según el
número de símbolos como:
binarias, cuaternarias...
\(R_b=\frac{n}{T}\), donde \(n\): número de bits por símbolo y \(T\): tiempo que dura el símbolo.
Además \(T=T_b\), donde \(T_b\) es el tiempo que dura un bit, es por esto que también se puede hallar como \(R_b=\frac{1}{T_b}\)
Señal digital
Señal de tiempo
continuo cauntizada
Para que una señal sea
digital, tiene que tomar en
amplitud valores discretos
BER (bit
error rate)
Indica en promedio
cuántos bits errados se
reciben cada determinado
número de bits
Pe (probabilidad
de error)
Se calcula tomando en
cuenta las características
del canal, da la probabilidad
de que llegue un bit errado