1.-Según la tabla, el código << 10001110110 >> es la codificación de:
Soleado, Lluvia, Bruma, Bruma
Soleado, Bruma, Bruma, Lluvia, Nublado
Soleado, Bruma, Bruma, Bruma, Lluvia
Soleado, Bruma, Bruma, Lluvia
2.-Según la tabla, el código << 01101101110>> es la codificación de:
Bruma, Lluvia, Nublado, Lluvia
Bruma, Nublado, Nublado, Nublado
Bruma, Nublado, Nublado, Lluvia
Bruma, Nublado, Nublado, Bruma
3.- Cual es la longitud media del código en binits:
15/8
12/8
3/24
4.- ¿Cómo identificar el cambio de una palabra código a otra?
Por un separador
Por la última palabra
Por la primera palabra
El código especifica
5.-Teoría de la Información es:
Una disciplina científica
Una disciplina electrónica
El estudio de datos en redes
Un estudio informático
6.- Complete: Un código es: Una ………………… entre dígitos ………… y binarios
correspondencia- decimales
unión -decimales
Representación - hexadecimales
correspondencia-Decimales
7.-Una palabra código está formado por:
10 secuencias binarias
10 secuencias decimales
10 secuencias decimales y binarios
Ninguna de las anteriores
8.- Elija el par de palabras que completa correctamente la siguiente oración. Los símbolos………… están formados por……… dígitos decimales
fuente-diez
código-doce
mensaje-diez
fuente-doce
9.- Escoja
En teoría de la información: Según……….. Una representación binaria equivale a un dígito decimal
Markov
Culley
Shannon
Abramson
10.- ¿Que es la entropía?
Medida de la probabilidad existente en una fuente de información.
Medida de la incertidumbre existente en una fuente de información.
Medida de la incertidumbre existente en el alfabeto código.
11.- Con cuál de estas fórmulas se representa el cálculo de “x” unidad de información?
I(E)=log 1/P(E)
I(E)=log (P(E))
I(E)=log_10 1/P(E)
12.-Cual de estos NO es una unidad de información:
Hartleys
nats
almud
13.- Que necesito para poder describir una fuente de memoria nula con respecto a sus símbolos:
las probabilidades y su entropía
la entropía y el alfabeto código
el alfabeto fuente y las probabilidades
14.- Que representa la curva en el siguiente grafico para el cálculo de la entropía?
La variación del logaritmo natural de x
El punto donde la probabilidad es 1
El cambio de la incertidumbre
15.-En que consiste una fuente de información de Markov.
En que la presencia de un determinado símbolo depende de un número finito de m símbolos precedentes.
En que los símbolos son emitidos siguiendo una ley de probabilidad
En que no sigue ninguna probabilidad de ocurrencia y aparece de manera randómica según un determinado código.
La fuente de Markov, sus símbolos son previamente definidos sin seguir ninguna probabilidad ni símbolos precedentes
16.-Con qué probabilidad una fuente ergódica emite una secuencia de símbolos:
Con probabilidad 0.5
Con probabilidad 1
Con probabilidad 5/14
17.-Una cadena de Markov estacionara y finita queda completamente definida cuando se conoce principalmente:
Espacio de estados finito, una matriz de probabilidades de transición de un sólo paso estacionara y el vector de probabilidad inicial.
Espacio infinito de estados, una matriz de probabilidades y el vector de probabilidad inicial.
Espacio de estados no finito, una matriz de probabilidades de transición de uno o más pasos estacionarios y el vector de probabilidad inicial y final.
Espacio no finito de estados, una matriz de probabilidades y no posee vector de probabilidad inicial.
18.-Dada una fuente de Markov de orden de orden n y alfabeto [a1,a2...am] y sean [ p(a1), p(a2)......p(am)] las probabilidades absolutas de los símbolos. Se denomina fuente afín de A y la representamos por A*
A la fuente de memoria nula que no tiene el mismo alfabeto que A pero igual juego de probabilidades
A la fuente de memoria nula que tiene el mismo alfabeto que A y distinto juego de probabilidades
A la fuente de memoria nula que tiene el mismo alfabeto que A e igual juego de probabilidades
A la fuente de Markov que tiene el mismo alfabeto que A y distinto juego de probabilidades
19.-Sea una fuente de Markov de orden N y alfabeto A = [a1,a2...an], la extensión de orden n de la fuente será:
Otra fuente de Markov de alfabeto N^n elementos, estando cada elemento formado por n símbolos de A
No posee extensión orden n, y la extensión será mayor a la del alfabeto A
Una fuente de memoria nula de alfabeto con el símbolo inicial y final intercambiados pero lo demás será el mismo alfabeto que A.
Otra fuente de Markov con orden n-1, y los símbolos de a_n-1.
20.- Un código ………………..es aquel que asigna ……………de los símbolos del alfabeto fuente S a una secuencia fija de símbolos del alfabeto código X.
Bloque - cada uno
univocamente decodificable - cada uno
instantáneo - cada uno
Bloque – varios
21.- Se dice……………………si, y solamente si, su extensión de orden n es no singular para, cualquier valor………..de n.
unívocamente decodificable – infinito
unívocamente decodificable – finito
código instantáneo – finito
código bloque – infinito
22.- Un ………………se denomina no singular si todas sus palabras son …………..
código univocamente decodificable – distintas
código bloque – distintas
código instantáneo – distintas
código bloque – iguales
23.- Un código unívocamente decodificable se denomina instantáneo cuando: Es posible decodificar las………. de una secuencia sin precisar el conocimiento de los………….que las suceden.
Palabras - Símbolos
Palabras – Códigos
Símbolos – Palabras
Fuentes – Códigos
24.- ¿Qué es la inecuación McMillan? Es un teorema de la teoría de códigos que reduce la existencia de………………… al cumplimiento de la inecuación de Kraft.
Códigos decodificables
Códigos unívocamente decodificables
Códigos unívocamente codificables
Códigos bloques
25.- Seleccione la inecuación de Kraft:
26.- ¿Qué sucede si no se cumple la Inecuación de Kraft?
El código es unívocamente decodificable y no puede ser un código bloque instantáneo.
El código no es unívocamente decodificable y no puede ser un código bloque instantáneo.
El código decodificable y es un código bloque instantáneo.
El código es codificable y es un código bloque instantáneo
27.- La longitud media del código se define como:
28.- Un código será compacto si su longitud media es ___________ que la longitud media de todos los códigos unívocos que pueden aplicarse a la misma fuente y el mismo alfabeto.
Mayor
Menor
Igual o menor
Igual o mayor
29.- La condición de igualdad es que _______ sea un número entero para cualquier valor de i.
30.- Cuál es la ecuación del primer teorema de Shannon
31.- Un código instantáneo, correspondiente a una fuente de información cualquiera, tendrá una longitud media __________ que la entropía de la fuente.
32.- La inecuación de McMillan garantiza que cualquier conjunto de longitudes de palabras válido para un código unívoco, lo es también para un código _______
instantáneo
bloque
no singular
singular
33.-Un código instantáneo y una fuente de memoria nula, L debe ser igual o mayor que H, (S). Además L alcanzará su valor mínimo si, y solamente si, pueden elegirse ________, li, iguales a log, (l/Pi).
Las longitudes de las palabras
probabilidades de las palabras
la entropía de la fuente
las secuencias de símbolos
34.- Si las longitudes de las palabras cumplen la inecuación de Kraft son aceptables para construir un código_______
unívoco
35.- Construcción de códigos binarios compactos binarios
Ponga en orden los pasos a. formar secuencias de fuentes reducidas b. fijarse en que el código compacto instantáneo binario de la fuente está formado por las palabras 0 y 1 c. deducir secuencias de código conociendo la fuente inmediata
a,c,b
a,b,c
c,a,b
c,b,a
36.- Supongamos que L es la longitud media de un código r-ario, unívoco, de la fuente S. L no puede ser inferior a H, (S). Según esto, se define η, _______ del código, como η=(H_r (S))/L
el rendimiento
la redundancia
la entropia
la longitud media
37.- Si el canal de información tiene ruido:
La equivocación es nula
La equivocación no sera nula
La equivocación es 1
38.- Un canal de información viene determinado por:
una matriz de entrada
Un alfabeto de entrada, salida y un conjunto de probabilidades condicionales
Alfabeto de salida.
Un conjunto de probabilidades
39.- ¿Qué contiene principalmente un canal telemétrico binario?
Cualquier secuencia de dígitos decimales
Número de dígitos binarios a transmitir en un sistema de comunicación
Información que no tiene ningún significado
Cuatro condiciones constituyen los símbolos mensaje
40.- Un canal de gran importancia teórica es el….
Telemétrico Binario.
Binario simétrico.
Medio de transmisión Determinante.
Símbolo Binario.
41.- El canal es una reducción elementa que…..
Determina combina los símbolos del alfabeto a reducir la información mutua de un canal
Puede repetirse un cierto número de veces formando la reducción elemental
Calcula la información media suministrada por una fuente de información
Mide capacidad de un canal de información es función exclusivamente de sus probabilidades condicionales.
42.- Un canal de información está completamente definido por:
Un alfabeto.
Una matriz.
Símbolos.
Un valor nulo.
43.- ¿A que dio lugar la Información mutua de alfabetos diferentes?
Consideración de la secuencia de entropías
La, información mutua de un canal cualquiera
Símbolos correspondientes a las filas y las columnas
A la probabilidad de que un símbolo de entrada
44.- Los diferentes símbolos de salida de un canal se presentan de acuerdo con un conjunto de:
Probabilidades
Símbolos
Variables
Teoremas
45.- Según el primer teorema de Shannon, la entropía de un alfabeto se interpreta como:
el número medio de bits necesarios para representar un símbolo de ese alfabeto.
codificación de fuentes de comportamiento estadístico fijo y definido
la estadística de la fuente a codificar varía de un símbolo a otro
46.- ¿cómo se conocen a los algoritmos que permiten enviar y recibir información?
Código Golay
Campos finitos
WLLN
47.- ¿Cuál es el método o secuencia que nos permite enviar secuencias largas de información?
ARQ
DMC
48.- Si el canal de información no tiene ruido:
49.- El segundo teorema de Shannon trata
De la cantidad de información con error que puede obtenerse de un cierto canal.
De la cantidad de información sin error que no puede obtenerse de un cierto canal.
De la cantidad de información sin error que puede obtenerse de un cierto canal.
50.- Se denomina regla de decisión a la función que especifica el símbolo de __________ único que corresponde a cada símbolo de ___________.
entrada - salida
salida - entrada
salida – salida
51.- La probabilidad de error de un canal será __________con la regla de decisión que asigna a cada símbolo de salida el símbolo de __________ de mayor probabilidad.
mínima – salida
máxima - salida
mínima – entrada
52.- La finalidad del segundo teorema de Shannon es definir las _______________ fundamentales que un canal _______________ ofrece a la transmisión de mensajes sin error.
probabilidades - confiable
limitaciones – no confiable
probabilidades – no confiable
53.- La probabilidad de mensaje erróneo
No depende normalmente de las probabilidades a priori.
Depende normalmente de las probabilidades a priori.
Depende normalmente de las probabilidades.
54.- El segundo teorema de Shannon dice a) La probabilidad de mensaje erróneo es b) Menor que cualquier número positivo c) Menor que la capacidad C del canal d) Para cualquier velocidad de mensaje e) Existen códigos tales que
Seleccione el orden en el que es:
a, c, d, e, b
d, b, e, a, b
d, c, e, a, b
a, b, d, e, c
55.- Un procedimiento más eficaz para variar la velocidad de los mensajes consiste en: a) Fijar el ordenamiento de la extensión b) La cantidad de información sin error que puede obtenerse de un cierto canal c) Variar el número de símbolos de entrada usados como mensajes d) Definir las limitaciones fundamentales que un canal no confiable ofrece a la transmisión de mensajes sin error.
a, b
c, d
b, d
a, c
56.- La distancia de Hamming entre dos secuencias binarias de la misma longitud
Está definida por el número de lugares en que difieren.
No Está definida por el número de lugares en que difieren.
Está definida por el número de lugares en que no difieren.