Rodrigo Quispe Mamani
Rodrigo Quispe Mamani
Rodrigo Quispe Mamani
Altiplano
FACULTAD DE INGENERIA MECANICA
ELECTRICA, ELECTRONICA Y SISTEMAS
ESCUELA PROFESIONAL DE INGENERIA DE SISTEMAS
CURSO: ARQUITECTURA DE COMPUTADORAS.
DOCENTE: ROMERO FLORES ROBERT ANTONIO.
TEMA: TEORIA DE LA INFORMACION DE CLAUDE
SHANNON.
PRESENTADO POR: QUISPE MAMANI RODRIGO.
CODIGO: 161995
SEMESTRE: V GRUPO “A”
PUNO – PERÚ
2021
RESUMEN
EL PROBLEMA DE LA CODIFICACIÓN
Este puede ser, por ejemplo, un cable, una fibra óptica o una señal inalámbrica.
Un receptor, que reconstruye el mensaje a partir de la señal, y finalmente,
un destinatario, que es quien recibe el mensaje. En el siguiente dibujo se
representan estos elementos en forma esquemática:
Dado que S produce sucesiones de estados (estas sucesiones son usualmente llamadas
mensajes), la entropía de la fuente S se define como la cantidad promedio de información
producida por la fuente:
(2)
(3)
(4)
MEDIDAS DE INFORMACIÓN
En otras palabras, una fuente S con dos estados que puede adoptar los valores 1
y 2 con la misma probabilidad, tendrá una cantidad de información de un bit.
(5)
Los valores de E y N son funciones no solo de la fuente y del destinatario, sino también
del canal de comunicación CH. La introducción del canal de comunicación lleva
directamente a la posibilidad de que se produzcan errores en el proceso de transmisión.
El canal CH se puede definir como una matriz [p(d j|si)], donde p(dj|si) es la probabilidad
condicional de ocurrencia de dj en el destinatario dado que si</sib> ocurrió en la fuente S.
Los elementos de cada columna de [p(dj|si)] suman uno. De este modo, E y N se pueden
expresar como:
(6)
(7)
(8)
Donde el máximo se toma sobre todas las posibles distribuciones en la fuente. La
magnitud C se interpreta como la cantidad de información promedio más grande que
puede ser transmitida por el canal de comunicación CH.
LOS TEOREMAS DE SHANNON
Los dos resultados más importantes que obtuvo Shannon son los teoremas
conocidos como primer teorema de Shannon y segundo teorema de Shannon. De
acuerdo al primer teorema, o teorema de codificación sin ruido, el valor de la
entropía H(S) de la fuente es igual al número de símbolos necesarios en promedio
para codificar una letra de la fuente usando un código ideal: H(S) mide la
compresión óptima de los mensajes de la fuente.
(9)
L es entonces una medida de cuán compacto es el código. En otras, palabras, un código
con un valor de L más pequeño será más eficiente, dado que en promedio, economiza
más recursos informacionales para codificar los mensajes. El Teorema del Canal Sin
ruido afirma que existe un proceso de codificación óptimo tal que la longitud de palabra-
código promedio L está tan cerca como se quiera del límite inferior Lmin para L:
(10)
Desde esta perspectiva formal, hay una relación lógica entre un objeto matemático
y sus diferentes interpretaciones, en la que cada una de ellas dota al término de
un contenido referencial específico. A modo de ejemplo, puede tomarse la
interpretación física de la información, que concibe a la información como una
magnitud física (ver por ejemplo Landauer 1991 y Landauer 1996). Pero es muy
importante destacar también que la teoría de la información de Shannon ha
encontrado interesantes aplicaciones en campos muy diversos que se desarrollan
intensamente en la actualidad, como por ejemplo, las que relacionan a la entropía
de Shannon y la teoría de juegos (ver, por ejemplo, Cover y Thomas 1991,
Capítulo 6) o aplicaciones de la entropía de Shannon en la inversión y en el
mercado de acciones (Cover y Thomas 1991, Capítulo 15). Otro ejemplo relevante
es el del estudio de sistemas biológicos (Segal 2015; Yockey, Platzman y Quastler
1956), en el que la teoría de la información encuentra aplicaciones a la teoría de la
evolución (Adami 2012), a la biología molecular (Yockey 1992) y al estudio del
comportamiento (Pfeifer 2006). Algunos autores han intentado incluso utilizar
argumentos informacionales para explicar las peculiaridades de los seres vivos y
el origen de la vida (Yockey 2005). La existencia de estas aplicaciones, tan
diversas en un su contenido, muestra que la interpretación del formalismo no
puede estar unívocamente determinada.
CONLUSIONES
Hemos dado una breve introducción a la teoría de la información de Shannon.
Hemos señalado su importancia en diversas disciplinas científicas así como en
numerosas aplicaciones tecnológicas, especialmente para la teoría general de la
comunicación. Desde el punto de vista puramente formal, hemos señalado hasta
qué punto la Teoría de Shannon puede ser concebida como un formalismo
matemático útil para modelar distintos problemas en diversas áreas del
conocimiento, indicando que probablemente no exista una interpretación única o
privilegiada del formalismo. A pesar del importante grado de desarrollo que ha
alcanzado el formalismo y sus espectaculares aplicaciones en diversas disciplinas,
la teoría de Shannon es aún un campo activo de debate debido al problema de
sus posibles interpretaciones y la discusión acerca de sus fundamentos. En la
actualidad, es imposible no mencionar los relativamente recientes desarrollos en el
campo de la Teoría de la Información Cuántica y la Computación Cuántica, que
prometen un abanico de aplicaciones tecnológicas revolucionarias, y abren al
mismo tiempo la puerta a novedosos interrogantes en la física y en las ciencias de
la computación (así como en otras disciplinas). En este contexto, el estudio y
debate en torno a los fundamentos de la Teoría de la Información de Shannon
puede ser de gran ayuda para entender los problemas y los desafíos que plantean
los posibles desarrollos tecnológicos basados en la teoría cuántica. En gran parte
debido a esto, el formalismo de Shannon cobra una inusitada actualidad.
BIBLIOGRAFÍA
Segal, J. 2015. “La noción de información en biología, una valoración” . BIO Web of
Conferences 4: 00017.
Shannon, C. 1948. “Una teoría matematica de la comunicación.” Bell System Technical
Journal 27: 379-423.
Shannon, C. 1993. Collected Papers, editado por N. Sloane y A. Wyner. New York: IEEE
Press.
Shannon, C. y Weaver, W. 1949. The Mathematical Theory of Communication. Urbana and
Chicago: University of Illinois Press.
Timpson, C. 2006. “La gramática de la teletransportación.” The British Journal for the
Philosophy of Science 57: 587-621.
Timpson, C. 2008. “Philosophical Aspects of Quantum Information Theory.” En The Ashgate
Companion to the New Philosophy of Physics, editado por Dean Rickles, 197-261. Aldershot:
Ashgate Publishing. Los números de página fueron tomados de la version online: arXiv:quant-
ph/0611187.
Timpson, C. 2013. Teoría de la información cuántica y los fundamentos de la mecánica
cuántica. Oxford: Oxford University Press.