Ejercicios Propuestos y Cuestionario TX de Información

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 3

Objetivo: comprender la transmisión de información a través del fenómeno de

representación de 0 y 1, y sus distintas formas de medición.

3.1 Explique el teorema fundamental de la información (Teorema de Shannon) y su


aplicación en el campo de las comunicaciones.

3.2 Explique Entropía e indique su aplicación en el campo de las comunicaciones

3.3 ¿Qué relación existe entre tasa de información y ancho de banda en un canal de
comunicaciones?

3.4 Diferencie entre bit y binit. ¿Cuándo valen lo mismo? ¿Por qué?

3.5 Diferencie entre “bps” y “Baudio”. ¿Dónde se aplica cada uno?

3.6 Defina capacidad de canal. ¿Qué diferencia existe entre en el cálculo de capacidad para
un canal digital y para uno analógico?

3.7 Calcular la información asociada a la caída de una moneda (suceso estadísticamente


independiente).
P=½ ;

3.8 Calcular la información entregada por la aparición de una letra entre 32 equiprobables.
P = 1/32;
3.9 Supongamos que una fuente produce los símbolos A, B, C y D con probabilidades ½ ,
¼ , 1/8 y 1/8 respectivamente :
a) Calcular la información en cada caso
b) Si los símbolos son independientes, calcular los bits de información del mensaje
BACA

3.10 Calcular la probabilidad que aparezcan 3 caras consecutivas en la tirada de una


moneda y su información asociada.

3.11 De un mazo de 40 cartas españolas se extrae una carta. Si me informan que es de


“oro”; ¿cuantos bits de información recibí? ¿Qué información adicional es necesaria
para especificar la carta?
3.12 Una fuente produce 5 símbolos con probabilidades ½ , ¼ , 1/8, 1/16 y 1/16. Calcular
la información promedio o entropía H.

3.13 Una fuente posee los símbolos A, B, C y D, con probabilidades ½ , ¼ , 1/8 y 1/8
respectivamente. Se solicita:

a) Calcular la información del mensaje de tres símbolos X=BDA, suponiendo que


son estadísticamente independiente.
b) Calcular la entropía del mensaje X = BDA
c) Determine la información promedio por símbolo para el código de los cuatro
eventos A, B, C y D.
d) Determine la entropía si los cuatro símbolos fuesen equiprobables.

3.14 Calcular la información en el experimento de arrojar un dado, suponiendo que los


eventos (puntos en cada cara) son igualmente probables.
Respuesta: 2.585 bits.

3.15 Repetir el ejercicio anterior, pero considerando que se asignan probabilidades a las
caras del dado ( calcular la información promedio o entropía ) :
P(1) = 0.10; P(2) = 0.20; P(3) = 0.25; P(4) = 0.30; P(5) = 0.05 y P(6) = 0.10

3.16 En una universidad que utiliza calificaciones A, B, C, D y F, se sabe que el profesor de


cierto curso asigna al 40 % de los estudiantes la calificación C y a un 5% la F.
¿Cuánta información, en bits, se transmite a los padres de un estudiante cuando se les
informa (sin tener información previa) que la calificación de un curso es :

a) C
b) no es F
c) F

3.17 Un código dado tiene seis mensajes con probabilidades P(A)=½ , P(B)= ; P(C)=1/8 ,
P(D)=1/16, P(E)=1/32, P(F)=1/32:
a) Determinar la entropía del código.
b) Suponiendo independencia estadística, encontrar la información en los
mensajes: X1 = BABC y X2 = FDEF
3.18 Determinar la información mutua al sacar una carta de un mazo de 52 barajas.
Calcular también la información mutua si se extraen dos cartas, y para el caso en que
la carta se reintegre al mazo.

3.19 Calcular la tasa de información R de una fuente telegráfica teniendo por probabilidades
y duración promedio :
P(punto) = 2/3 P(raya) = 1/3
σ ( punto ) = 0,2 seg. σ ( raya ) = 0.4 seg.

3.20 Se supone que una tasa de voz normal es de 300 palabras por minuto y que la palabra
promedio contiene 6 caracteres considerando que son estadísticamente independientes
dentro de una palabra. Calcular la tasa de información en bits, suponiendo 27 letras
equiprobables y estadísticamente independientes.

También podría gustarte