Tema 2 Ley de Shannon
Tema 2 Ley de Shannon
Tema 2 Ley de Shannon
DE SISTEMAS
2017
DEDICATORIA
1
1. INTRODUCCIN
A finales de los aos 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas
fundamentales relacionadas con la transmisin de la informacin, de manera particular,
en el contexto del telgrafo como sistema de comunicaciones. En aquellos aos, estos
conceptos eran avances de gran alcance de carcter individual, pero no formaban parte
del corpus de una teora exhaustiva.
Fue en los aos 40, cuando Claude Shannon desarroll el concepto de capacidad de un
canal basndose, en parte, en las ideas que ya haban propuesto Nyquist y Hartley y
formulando, despus, una teora completa sobre la informacin y la transmisin de esta,
a travs de canales. En 1927, Nyquist determin que el nmero de pulsos independientes
que podan pasar a travs de un canal de telgrafo, por unidad de tiempo, estaba limitado
a dos veces el ancho de banda del canal transmitiendo a esta tasa de pulsos lmite
de pulsos por segundo se le denomin sealizacin a la tasa de Nyquist.
Nyquist public sus resultados en 1928 como parte de su artculo "Certain topics in
Telegraph Transmission Theory". Durante ese mismo ao, Hartley formul una manera
de cuantificar la informacin y su tasa de transmisin a travs de un canal de
comunicaciones. Este mtodo, conocido ms adelante como ley de Hartley, se convirti
en un importante precursor para la sofisticada nocin de capacidad de un canal, formulada
por Shannon.Hartley indic que el nmero mximo de pulsos distintos que se pueden
transmitir y recibir, de manera fiable, sobre un canal de comunicaciones est limitado por
el rango dinmico de la amplitud de la seal y de la precisin con la cul el receptor puede
distinguir distintos niveles de amplitud. De manera especfica, tomando la informacin
para ser el logaritmo del nmero de los mensajes distintos que podran ser enviados,
Hartley despus construy una medida de la informacin proporcional al ancho de banda
del canal y a la duracin de su uso. A veces slo se habla de dicha proporcionalidad
cuando se cita a la ley de Hartley. Posteriormente, Hartley combin la observacin de
Nyquist,2 y su propia cuantificacin de la calidad o ruido de un canal en trminos del
nmero de niveles de pulso que podan ser distinguidos, de manera fiable, para llegar a
una medida cuantitativa de la tasa de informacin que se puede obtener. El resultado de
la tasa de Hartley se puede ver como la capacidad de un canal sin errores de smbolos
por segundo. Algunos autores se refieren a ello como capacidad. Pero ese supuesto canal,
libre de errores, es un canal ideal, y el resultado es, necesariamente, menor que la
capacidad de Shannon de un canal con ruido de ancho de banda , que es el resultado
Hartley-Shannon que se estim ms adelante.
El desarrollo de la teora de la informacin de Claude Shannon durante la Segunda Guerra
Mundial estimul el siguiente gran paso para entender qu cantidad de informacin se
podra comunicar, sin errores y de manera fiable, a travs de canales con ruido gaussiano
de fondo. Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la
codificacin de canales con ruido (1948) describe la mxima eficiencia posible de los
mtodos de correccin de errores versus los niveles de interferencia de ruido y corrupcin
de datos. La prueba del teorema muestra que un cdigo corrector de errores construido
aleatoriamente es, esencialmente, igual de bueno que el mejor cdigo posible. El teorema
2
se prueba con la estadstica de tales cdigos aleatorios. El teorema de Shannon demuestra
cmo calcular la capacidad de un canal sobre una descripcin estadstica del canal y
establece que, dado un canal con ruido con capacidad e informacin transmitida en una
tasa, entonces si existe una tcnica de codificacin que permite que la probabilidad de
error en el receptor se haga arbitrariamente pequea. Esto significa que, tericamente, es
posible transmitir informacin casi sin error hasta un lmite cercano a bits por segundo.
El inverso tambin es importante. Si la probabilidad del error en el receptor se incrementa
sin lmite mientras se aumente la tasa. De esta manera no se puede transmitir ninguna
informacin til por encima de la capacidad del canal. El teorema no trata la situacin,
poco frecuente, en que la tasa y la capacidad son iguales.
3
A lo largo de ms de cincuenta pginas, Claude E. Shannon demuestra
mediante complejos clculos matemticos su famoso teorema de las comunicaciones. En
la siguiente figura se muestra un ejemplo de dichos clculos
3. APRECIACIN CRTICA
Debido a que los canales de comunicacin no son perfectos, ya que estn delimitados por
el ruido y el ancho de banda. El teorema de Shannon nos dice que es posible transmitir
informacin libre de ruido siempre y cuando la tasa de informacin no exceda la
Capacidad del Canal.
El teorema establece la capacidad del canal de Shannon, una cota superior que establece
la mxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es,
informacin) sobre dicho enlace de comunicaciones con un ancho de banda especfico y
que est sometido a la presencia de la interferencia del ruido.
Para la correcta aplicacin del teorema, se asume una limitacin en la potencia de la seal
y, adems, que el proceso del ruido gaussiano es caracterizado por una potencia conocida
o una densidad espectral de potencia.
4. CONCLUSIONES
Si existiera una cosa tal como un canal analgico con ancho de banda infinito y sin ruido,
uno podra transmitir cantidades ilimitadas de datos sin error, sobre este, por cada unidad
de tiempo. Sin embargo, los canales de comunicacin reales estn sujetos a las
limitaciones impuestas por el ancho de banda finito y el ruido.
5
Aunque parezca sorprendente, las limitaciones del ancho de banda, por s solas, no
imponen restricciones sobre la tasa mxima de informacin. Esto es porque sigue siendo
posible, para la seal, tomar un nmero infinitamente grande de valores distintos de
voltaje para cada pulso de smbolo, siendo cada nivel levemente distinto del anterior que
representa a un determinado significado o secuencia de bits. Sin embargo, si combinamos
ambos factores, es decir, tanto el ruido como las limitaciones del ancho de banda,
encontramos un lmite a la cantidad de informacin que se puede transferir por una seal
de potencia limitada, aun cuando se utilizan tcnicas de codificacin de niveles mltiples.
Si el receptor tiene cierta informacin sobre el proceso aleatorio que genera el ruido, se
puede, en principio, recuperar la informacin de la seal original considerando todos los
posibles estados del proceso del ruido. En el caso del teorema de Shannon-Hartley, se
asume que el ruido es generado por un proceso gaussiano con una varianza conocida.
Puesto que la varianza del proceso gaussiano es equivalente a su potencia, normalmente
se llama a esta varianza la potencia de ruido.
Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano
es aadido a la seal; blanco significa igual cantidad de ruido en todas las frecuencias
dentro del ancho de banda del canal.
5. BIBLIOGRAFA
A mathematical teory of communication (by shannon, PDF file)
https://es.slideshare.net/QUITUS94/comunicacion-de-datos-36360923
https://oghdez.webs.ull.es/scd/pdf/SCD%20-%20Tema%201.pdf
https://edwinhinojosa.wordpress.com/2012/09/15/50/
https://es.answers.yahoo.com/question/index?qid=20090505110536AAb
pEur
http://www.eveliux.com/mx/Teorema-de-la-maxima-capacidad-de-
Shannon.html
https://es.wikipedia.org/wiki/Teorema_de_Shannon-Hartley
http://telefonia.blog.tartanga.eus/shannon-nyquist-fourier-y-otros/el-
teorema-de-shannon/
https://transmisiondesenales.wikispaces.com/3.3+Ley+de+Shannon.
http://glossarium.bitrum.unileon.es/Home/teoremas-fundamentales-de-
shannon
http://delta.cs.cinvestav.mx/~gmorales/14HedyLamarr/node3.html
https://es.scribd.com/doc/155200207/Teorema-de-Shannon-y-
Capacidad-de-Canal-docx