Teoria de La Informacion y La Codificacion
Teoria de La Informacion y La Codificacion
Teoria de La Informacion y La Codificacion
Esta teoría trata con los portadores de la información (los símbolos) y no con la información
en sí misma. Ella trata con la comunicación y los medios de la comunicación más bien que
con el elusivo producto final de la comunicación: la información. El objetivo es aprender que
los símbolos deben obedecer ciertas leyes para ser capaces de transmitir información.
Relacionaremos estas propiedades de los símbolos con la cantidad de información que ellos
pueden portar. Si un símbolo en particular porta o no realmente información dependerá de
factores que están fuera del alcance de esta teoría, los factores psicológicos y semánticos
también lo están y pueden hacer que las mismas palabras porten varios significados para
diferentes oyentes.
Shannon decía que “los aspectos semánticos de la comunicación son irrelevantes para el
problema de ingeniería”. Sin embargo Weaver apuntaba que, por el contrario, los aspectos
técnicos de la comunicación podrían ser relevantes a los aspectos semánticos, psicológicos y
lingüísticos.
El primer paso en nuestro estudio será definir una medida de la información e investigar las
propiedades de esta medida. Estas propiedades darán un aire de plausibilidad a nuestra
medida y ayudarán a relacionar la teoría matemática con el modelo físico que motiva la teoría.
Es importante sin embargo observar que la justificación de nuestra definición de una medida
de la información no puede ser obtenida por relaciones contenidas enteramente dentro del
marco de la definición.
Codificando la información
La discusión que sigue está restringida a un tipo particular pero importante de información:
la información binaria.
𝟎 𝟎𝟎𝟎𝟎
𝟏 𝟎𝟎𝟎𝟏
𝟐 𝟎𝟎𝟏𝟎
𝟑 𝟎𝟎𝟏𝟏
𝟒 𝟎𝟏𝟎𝟎
𝟓 𝟎𝟏𝟎𝟏
𝟔 𝟎𝟏𝟏𝟎
𝟕 𝟎𝟏𝟏𝟏
𝟖 𝟏𝟎𝟎𝟎
𝟗 𝟏𝟎𝟎𝟏
La posibilidad de trabajar hacia atrás a partir de una tira de códigos binarios para lograr los
correspondientes símbolos mensaje no siempre es posible como se observa en la tabla 1.2:
𝑺𝟏 𝟎
𝑺𝟐 𝟎𝟏
𝑺𝟑 𝟎𝟎𝟏
𝑺𝟒 𝟏𝟏𝟏
Si se nos da una secuencia de palabras código de este código no somos capaces de trabajar
hacia atrás a un único conjunto de símbolos mensaje.
Se podría objetar que la inserción de una coma o espacio es todo lo que se necesita, sin
embargo esto contradice la suposición de lo que es un código binario, ya que entonces este
sería un código ternario.
Es fácil hallar un código que no tenga el problema anterior, como en la tabla 1.3:
Símbolos mensaje Palabras código
𝑺𝟏 𝟎
𝑺𝟐 𝟏𝟎
𝑺𝟑 𝟏𝟏𝟎
𝑺𝟒 𝟏𝟏𝟏𝟎
Para ilustrar algunas de las ideas de codificar y su relación con la medida de la información
consideremos el siguiente problema.
Se desea instalar un sistema de comunicación entre Nueva York y San Francisco. El sistema
se usa para transmitir el estado del clima en San Francisco a intervalos dados. Se requiere
que el sistema use solo equipo de encendido apagado (binario). Para simplificar se clasifica
el estado del clima en San Francisco en uno de cuatro posibles condiciones: Soleado,
nublado, lluvioso o Brumoso como se muestra en la tabla 1.4:
Mensaje Probabilidad
Soleado 𝟏/𝟒
Nublado 𝟏/𝟒
Lluvioso 𝟏/𝟒
Brumoso 𝟏/𝟒
En esta tabla se muestran las cuatro posibilidades de clima además de las probabilidades
asumidas para cada uno de los estados.
Soleado… … … . 00
Nublado… … … .01
Lluvioso… … … .10
Brumoso… … … .11
También es claro que usando el código 𝒂 es necesario enviar dos dígitos binarios (binits) por
cada mensaje. Además no es posible encontrar otro código aceptable que permita usar menos
de dos binits por mensaje.
Mensaje Probabilidad
Soleado 𝟏/𝟒
Nublado 𝟏/𝟖
Lluvioso 𝟏/𝟖
contaminado 𝟏/𝟐
Si usamos el código 𝒂 para transmitir esta información, lo hacemos igual de bien que en el
caso anterior pero no mejor. Consideremos sin embargo otro código, llamado el código 𝑩
para transmitir la información:
Mensaje Código
Soleado 10
Nublado 110
Lluvioso 1110
contaminado 0
Nuevamente, cualquier secuencia binaria proveniente de este código conduce a una secuencia
única de mensajes. Esto es cierto dado que cada secuencia binaria correspondiente a un
mensaje termina en un 0 y así el 0 puede ser pensado como el indicador de un fin de palabra
código. La longitud promedia de una palabra código usando el código 𝐵 se puede calcular
como
𝟏 𝟏 𝟏 𝟏 𝟕
𝑳̅ = 𝟐 ∗ + 𝟑 ∗ + 𝟒 ∗ + 𝟏 ∗ = 𝟏 + 𝒃𝒊𝒕/𝒔𝒊𝒎𝒃𝒐𝒍𝒐
𝟒 𝟖 𝟖 𝟐 𝟖
Se puede verificar que si se usa el código 𝑩 para transmitir el clima en San Francisco se
obtiene un valor de
𝟏 𝟏 𝟏 𝟏
𝑳̅ = 𝟐 ∗ + 𝟑 ∗ + 𝟒 ∗ + 𝟏 ∗ = 𝟐. 𝟓 𝒃𝒊𝒕/𝒔𝒊𝒎𝒃𝒐𝒍𝒐
𝟒 𝟒 𝟒 𝟒
Algunas cuestiones
Primero que todo, alcanzar una ganancia del 6% de una manera tan simple ha abierto el
apetito para mejoras adicionales.
¿Podemos, entonces, obtener mejoras adicionales de esta clase al re etiquetar los
mensajes en una forma aún más inteligente?
¿Si es posible una mejora adicional, que tan lejos podemos ir?
O sea,
¿Cuál es el número mínimo de binits por mensaje que se requiere usar en orden
a transmitir esta información?
“¿Por Qué?”.
¿Cuáles son las diferencias en las situaciones descritas para Los Ángeles y San
Francisco que nos permiten usar menos binits para transmitir el estado del clima
de Los Ángeles?
Esta última cuestión es la más fundamental. En otros términos, la pregunta puede re-
formularse como
El hecho de que necesitemos menos binits para el clima en Los Ángeles implica que, en algún
sentido, proveer el estado del clima en los Ángeles da menos información que proveer el
estado del clima en San Francisco. Veremos que esta vaga noción de cantidad de información
puede ser hecha precisa por una definición apropiada de una medida de información.
Del ejemplo anterior es claro que la definición de información está relacionada con la
probabilidad de ocurrencia de los diferentes mensajes.
En los siguientes tres capítulos encontraremos respuestas a estas preguntas definiendo una
medida de información basada en las probabilidades de los mensajes.