Teorema de Shannon

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 3

Facultad de ingeniería y sistema.

Radio Comunicación digital.

Tarea de inves+gación.

“Teorema de Shannon aplicado en el análisis de señales”

Periodo 1

Ing. Elmer Elías Chanchan

Fecha de entrega: 27 de agosto de 2023

APELLIDOS NOMBRES CARNÉ NOTA


Aguilar Umaña Andrea Margarita AU100212
Teorema de Shannon

El teorema de Shannon se enuncia de la siguiente manera: para evitar la pérdida de información


al muestrear una señal con+nua, la tasa de muestreo debe ser al menos el doble de la
frecuencia más alta presente en la señal.

El teorema es un principio esencial en la teoría de la comunicación y el procesamiento de señales.


Fue formulador por Claude Shannon en 1949 y establece las condiciones bajo las cuales una señal
analógica conGnua puede ser muestreada y luego reconstruida de manera precisa sin perder
información importante.

En esencia, el teorema aborda el desaIo de converGr señales analógicas, que son conGnuas en el
Gempo, en formas digitales, que son discretas en el Gempo.

El teorema de Shannon se puede expresar matemáGcamente de la siguiente manera:

Si una señal conGnua x(t) no conGene frecuencias por encima de ƒ!"# , entonces la señ al se
peude muestrear a una frecuencia ƒ$ tal que ƒ$ ≥ 2 • ƒ!"# para permiGr la reconstrucción
exacta de la señal a parGr de sus muestras.

Esto se puede expresar matemáGcamente.

ƒ$ ≥ 2 • ƒ!"#

Donde:

• ƒ$ es la frecuencia de muestreo (número de muestras por segundo)


• ƒ!"# es la frecuencia máxima presente en la señal conGnua.

El teorema de Shannon se puede dividir en dos partes principales:

• La codificación de fuente: es la cual aborda la comprensión de datos, es decir, como


representar la información de manera eficiente antes de transmiGrla. Define la entropía
de una fuente de información como la canGdad promedio de incerGdumbre o sorpresa
asociada con cada símbolo de la fuente. Shannon demostró que es posible comprimir una
fuente de información sin pérdidas hasta un límite teórico llamado la entropía de la
fuente. La entropía se mide en bits por símbolo y representa la canGdad mínima de bits
necesaria para representar la información de manera eficiente.

• Capacidad del canal: también se aplica a la transmisión de información a través de canales


de comunicación ruidosos. Define la capacidad de canal como la tasa máxima a la cual se
puede transmiGr información de manera confiable a través de un canal con ruido, es decir,
la tasa máxima a la que se puede enviar información sin errores arbitrariamente
pequeños.
La capacidad del canal se mide en bits por segundo y depende de las caracterísGcas del
canal y del nivel de ruido presente en el mismo. Shannon desarrolló una fórmula
matemáGca para calcular la capacidad del canal en función de la relación señal-ruido y
otras caracterísGcas del canal.

El teorema de Shannon es fundamental en la teoría de la comunicación y ha tenido un


impacto significaGvo en el diseño de sistemas de comunicación, compresión de datos,
criptograIa y muchas otras aplicaciones en el campo de la informáGca y las
telecomunicaciones.

Establece los límites teóricos para la eficiencia en la transmisión y compresión de información,


y ha sido un marco fundamental para el desarrollo de tecnologías de comunicación modernas.

También podría gustarte