Protocolos de Redes
Protocolos de Redes
Protocolos de Redes
Redes
2
Índice
Presentación 5
Red de contenidos 6
Presentación
El contenido de este manual trata de describir la suite TCP/IP y desarrolla cada uno de sus
elementos de manera paulatina.
Las redes basadas en el protocolo TCP/IP constituyen un tema al que se ha ido dando
mayor atención conforme han pasado los años. Este desarrollo de TCP/IP se ha dado,
principalmente, por el hecho de constituir el protocolo fundamental sobre el cual descansa
Internet. Todas las aplicaciones que son utilizadas por millones de usuarios diariamente,
tales como las páginas web, el e-mail y las salas de chat, funcionan porque,
silenciosamente, TCP/IP hace su trabajo de manera eficiente.
Desde hace una década aproximadamente, TCP/IP empezó a tener vigencia también a
nivel de las redes locales, tal es así que, actualmente, constituye el protocolo de transporte
más utilizado a nivel de todos los sistemas operativos de redes locales, así no es raro
encontrarlo en plataformas tan diversas como Linux, Windows 2003 y Netware.
El presente manual buscar allanar el camino en esta materia que, muchas veces, debido a
su profundidad, puede resultar un tanto árido. Se ha buscado presentar los temas tomando
como referencia el modelo TCP/IP desde sus capas iniciales. Esa es la razón por la cual
se empieza con la capa de acceso a la red, para luego ir estudiando los diversos
protocolos que se encuentran a nivel de la capa de Inter.-red y, posteriormente, llegar a las
aplicaciones que trabajan en las capas más altas.
Red de contenidos
Protocolo
TCP/IP
SEMANA
1
Suite TCP/IP
TEMA
Introducción a la Suite TCP/IP
Origen de Internet
Conmutación de paquetes
OBJETIVOS ESPECÍFICOS
• Conocer las condiciones iniciales que dieron inicio a Internet
• Identificar las organizaciones que supervisan y norman el crecimiento de Internet
• Conocer los distintos tipos de estándares manejados en Internet
• Conocer la técnica de Conmutación de paquetes
CONTENIDOS
• Introducción
• Origen de TCP/IP
• INTERNET: Reseña Histórica
• Organizaciones detrás de Internet
• Protocolos Internet
• Borradores de Internet
• Conmutación de paquetes
ACTIVIDADES
• Hacen uso de la técnica de lluvia de ideas para identificar las características de la suite
TCP/IP.
1. Introducción
Hace 20 años las computadoras eran aparatos novedosos: equipos bastante caros y que,
principalmente, se les utilizaba como un elemento que suplantaba a las máquinas de
escribir, a las calculadoras y, algo importante, traían juegos incorporados. En esa época
hablar de redes de computadoras era bastante extraño para el común de la gente.
Si se quería compartir información entre varias personas, la solución era el disquete. La
mayoría de programas cabían en un solo disquete e incluso se podían ejecutar desde
ellos. Sin embargo, esto ha cambiado. Hoy es posible, a través de las computadoras,
comunicarnos con cualquier persona en el mundo. La integración que se ha logrado es
impresionante, el video en tiempo real, la telefonía sobre Internet y los bajos precios de la
tecnología informática han hecho que la computación cobre una vigencia inusitada y
constituya el motor de la llamada nueva economía. Sin embargo, existen ciertos detalles
técnicos que muchos no se detienen a analizar y que logran que esta revolución funcione.
Es el caso del protocolo TCP/IP.
TCP/IP fue desarrollado por el Departamento de Defensa de los EEUU, con el objetivo de
comunicar distintas redes con el objetivo de formar una red mucho más grande, que se
denominó ARPANET. Detrás de su desarrollo estuvieron muchas personas; sin embargo,
Vinton Cerf es reconocido como uno de los principales programadores detrás de la suite
TCP/IP. Si bien se podría pensar que TCP/IP constituye únicamente 2 protocolos, en
realidad se trata de toda una suite completa de protocolos, que se van enriqueciendo,
mejorando y caducando conforme se adapta a los cambios que le exige la tecnología.
Vinton Cerf
Entre muchas de las características de TCP/IP se tienen dos que son muy importantes:
• Flexibilidad
Esto significa que puede adaptarse a distintas configuraciones de software y
hardware.
• Código abierto
Se trata de una especificación abierta, lo que significa que cualquiera puede escribir
software que haga uso de TCP/IP. Este último hecho y su naturaleza de protocolo
robusto es el que motivó a que se escribieran muchos programas que lo utilizaban
como protocolo de red básico.
Con el paso del tiempo, ARPANET creció hasta abarcar a las universidades y, luego, dio
un salto hacia las empresas convirtiéndose en el Internet actual.
A continuación, se detallan mediante una reseña, cuales fueron las etapas por las que
pasó Internet y cómo es que se relacionó con TCP/IP.
1987 La NSF decide potenciar la red, pues desea que todo investigador
de EU pueda acceder a la red.
Se escogen a 3 organizaciones :
• IBM : Se encarga del equipamiento (PCs)
• MCI : Llamadas de larga distancia
• MERIT : Experiencia en instalación y administración de
redes de escuelas en Michigan.
Las 3 nuevas empresas cooperan para establecer una nueva red de
área amplia (WAN), que constituye el backbone de Internet en 1988.
Si bien ARPA unía computadoras dentro de EU, también utilizó conexiones existentes
fuera de EU para probar a gran escala la tecnología de Internet.
En 1991, únicamente redes experimentales de Europa trabajan con TCP/IP, pero solo
algunas se conectan a Internet.
Se crea una cooperativa para formar un backbone europeo de alta velocidad, que
conectará a sus miembros y tendrá salida a Internet.
La organización del EBONE contaba con 21 miembros que pagan una cuota anual. El
dinero es para mantener la red, las líneas de transmisión rentadas con EU y el grupo
de operarios que administra la red.
• No Recomendado:
Protocolos históricos, especializados o experimentales no recomendados
para Internet.
2. Conmutación de paquetes
Paul Baran fue uno de los impulsores de las redes de conmutación de paquetes
junto a Donald Davies y Leonard Kleinrock. Baran desarrolló esta idea mientras
trabajaba para la Corporación RAND que, luego, sería utilizada en ARPAnet.
El arreglo para que varios dispositivos compartan una sola vía de transmisión
reduce el costo, ya que se utilizan menos cables y menos máquinas de
conmutación. Sin embargo, existe un problema que se da si se quiere compartir un
medio.
2.2. Características
incluso si uno de los circuitos de datos fallaba. Hacia 1991, la NSF y otras
dependencias gubernamentales comenzaron la ampliación de Internet más allá del
dominio académico y científico original. El tráfico de NSFnet había crecido cerca de
un billón de paquetes por día y la capacidad de 1.5 Mbps comenzó a ser
insuficiente en el caso de varios de los circuitos. La NSF decidió transferir la red de
columna vertebral a una compañía privada y comenzar a cobrar a las instituciones
por la conexión.
IBM, MERIT y MCI conformaron una compañía sin fines de lucro llamada ANS
(Advanced Networks and Services) y decidieron, en 1993, construir una nueva
columa vertebral que reemplazaba a NSFnet, llamada ANSnet. Esta nueva red
operaría en DS3 (codificación T3), es decir, a 45 Mbps.
Autoevaluación
Para recordar
• Las reglas para compartir se deben definir cuidadosamente para que una sola
computadora no retrase a las otras al utilizar el cable compartido por un periodo
indeterminadamente largo.
SEMANA
2
Modelo OSI - TCP/IP
TEMA
Modelo OSI y TCP/IP
OBJETIVOS ESPECÍFICOS
• Conocer las características del modelo OSI
CONTENIDOS
• Modelo OSI
• Capas del Modelo OSI
• El Modelo TCP/IP
ACTIVIDADES
2 Modelo OSI
Modelo OSI
• Entrega fiable
Entrega fiable no significa que los errores no puedan ocurrir, sino que los
errores se detectan cuando ocurren. En este caso, lo usual es pedir que los
datos se envíen nuevamente.
• Entrega no fiable
No significa que los errores puedan producirse, sino que la capa de
transporte no los verifica. Este tipo de entrega es la usual en las redes LAN, y
cuando los mensajes constan de un alto número de paquetes. A menudo se
le llama entrega de datagramas y a cada paquete transmitido se le llama
datagrama.
• Simple (Simplex)
Un nodo transmite de manera exclusiva mientras otro recibe de manera
exclusiva.
• Semidúplex (Half-duplex)
Un solo nodo puede transmitir en un momento dado y los nodos se turnan
para transmitir.
• Dúplex total (Full duplex)
Los nodos pueden transmitir y recibir simultáneamente. Esta comunicación
suele requerir un control de flujo que asegura que ninguno de los dispositivos
envíen datos a mayor velocidad de la que el otro dispositivo puede recibir.
La sesión permite que los nodos se comuniquen de manera ordenada.
Cada sesión tiene tres fases:
• Establecimiento de la conexión
Los nodos establecen contacto. Negocian las reglas de la comunicación
incluyendo los protocolos utilizados y los parámetros de comunicación.
• Transferencia de datos
Los nodos inician un diálogo para intercambiar datos.
• Liberación de la conexión
Cuando ya no se requiere la comunicación, se inicia la liberación ordenada
de la sesión.
En el modelo arriba definido, no cabe una equivalencia exacta entre el modelo OSI y
el modelo TCP/IP; sin embargo, es posible realizar una aproximación y hablar de un
modelo TCP/IP de 4 capas. Así se tiene la Capa de acceso a la red, Capa de
interred, la capa host-host y la capa Proceso-aplicación.
Autoevaluación
Para recordar
• El modelo TCP/IP presenta cuatro capas. Así se tiene la Capa de acceso a la red,
Capa de interred, la capa host-host y la capa Proceso-aplicación.
• OSI proporciona una visualización abstracta del funcionamiento de una red, desde
el cableado que conecta las computadoras hasta los programas que se emplearán
para la comunicación.
• Un API es un conjunto de reglas que permiten que las aplicaciones escritas por los
usuarios puedan acceder a los servicios de un sistema de software.
• Los diseñadores de programas y protocolos suelen proporcionar varias APIs para
que los programadores puedan adaptar fácilmente sus aplicaciones y utilizar los
servicios disponibles en sus productos.
SEMANA
3
Protocolo IP
TEMA
Protocolo IP
OBJETIVOS ESPECÍFICOS
• Conocer la estructura de capas del Protocolo IP
CONTENIDOS
• Direccionamiento IP
• Datagrama IP
ACTIVIDADES
• Revisan el esquema de direccionamiento classfull IP.
• Hacen uso de la técnica de lluvia de ideas para enumerar las etapas del proceso de
fragmentación de los datagramas IP.
3 Introducción
• Direccionamiento
• Fragmentación y reensamblaje de datagramas
• Entrega de datagramas a través de la interred
3.1. Direccionamiento IP
31 23 15 7 0
• Los identificadores de host con valor 255 quedan restringidos para las
difusiones. Un mensaje dirigido a 255.255.255.255 se envía a todos los
hosts de la red. Un mensaje dirigido a 183.20.255.255 se envía a todos
los hosts de la red 183.20.
3.2 Datagrama IP
2. Realizar la función de ruteo, seleccionando la ruta por la que los datos serán
enviados
Esta parte tratará sobre la forma que tienen las unidades básicas de transferencia
manejadas por IP. Estas constan de un encabezado y datos, donde el encabezado
contiene información sobre la dirección de la fuente y la del destino. Estas unidades
son los datagramas internet o datagramas IP.
El encabezado de un datagrama contiene direcciones IP, en tanto que el encabezado
de la trama contiene direcciones físicas.
• VERS :
Este primer campo de 4 bits contiene la versión del protocolo IP utilizado para crear
el datagrama.
Todo software IP debe verificar el campo de versión antes de procesar un
datagrama para asegurarse de que el formato corresponde al tipo de formato que
espera el software.
• HLEN :
Campo Longitud de Encabezado de 4 bits que proporciona la longitud del
encabezado. Todos los campos del encabezado tienen longitudes fijas excepto
para el campo OPTIONS de IP y su correspondiente campo PADDING.
0 4 8 16 19 24 31
SOURCE IP ADDRESS
DESTINATION IP ADDRESS
OPTIONS PADDING
DATA
…..……….
• TOTAL LENGHT :
Proporciona la longitud del datagrama IP medido en bytes, incluyendo los bytes del
encabezado y los datos. Dado que el campo TOTAL LENGHT tiene una longitud
16
de 16 bits, el tamaño máximo posible de un datagrama IP es de 2 o 64 kb. En la
mayor parte de las aplicaciones, esta no es una limitación severa, pero puede
volverse una consideración importante en el futuro, si las redes de alta velocidad
llegan a transportar paquetes de datos superiores a los 64Kb.
1 2 3 4 5 6 7
• PRIORIDAD :
Estos tres bits especifican la prioridad del datagrama, con valores que abarcan
desde 0 (prioridad normal) hasta 7 (control, de red). Co ello, permite indicar al
emisor la importancia de cada datagrama.
Los bits D, T y R especifican el tipo de transporte deseado para el datagrama:
Los siguientes campos del datagrama IP tienen que ver con la manera en que estos
últimos se relacionan con las tramas de las redes físicas.
A diferencia de las tramas de las redes físicas que pueden ser reconocidas por el
hardware, los datagramas son manejados por el software. Estos pueden tener
cualquier longitud seleccionado por el diseño del protocolo. Así se tiene que el
CAMPO TOTAL LENGHT, al tener 16 bits de tamaño, limita al datagrama a un
máximo de 64 kb. Sin embargo, este límite puede modificarse en versiones de
protocolos recientes.
Como los datagramas se mueven de una máquina a otra deben transportarse
siempre a través de una red física subyacente; por lo tanto, cada datagrama debe
estar en capacidad de viajar en tramas físicas distintas. Debido a ello el datagrama
IP deberá viajar encapsulado dentro de la trama Ethernet.
3.2.3 Fragmentación
o IDENTIFICATION :
Contiene un entero único que identifica el datagrama. Cuando un
ruteador fragmenta un datagrama , éste copia la mayor parte de los
campos del encabezado del datagrama dentro de cada fragmento. El
campo IDENTIFICATION debe copiarse. El propósito principal es
permitir que el destino tenga información acerca de qué fragmentos
pertenecen a qué datagramas.
Conforme llega cada fragmento , el destino utiliza el campo
IDENTIFICATION junto con la dirección de la fuente del datagrama
para identificar el datagrama.
Las computadoras que envían datagramas IP deben generar un valor
único para el campo IDENTIFICATION de cada datagrama.
Una de estas técnicas consiste en que IP establezca un contador
global en memoria, y lo incremente cada vez que se crea un
datagrama nuevo y asigna el resultado al campo IDENTIFICATION
del datagrama.
o FRAGMENT OFFSET :
Para un fragmento, el campo FRAGMENT OFFSET especifica el
desplazamiento en el datagrama original de los datos que se están
acarreando en el fragmento, medido en unidades de 1 byte, y
comienza con un desplazamiento igual a cero.
Para reensamblar el datagrama, el destino debe obtener todos los
fragmentos comenzando con el fragmento que tiene asignado un
desplazamiento igual a cero, hasta el fragmento con el
desplazamiento de mayor valor.
Los fragmentos no necesariamente llegarán en orden: además, no
existe comunicación entre el ruteador que fragmentó el datagrama y
el destino que trata de reensamblarlo.
o FLAGS :
Los dos bits de orden menor del campo FLAGS controlan la
fragmentación.
La fragmentación y reensamblado son procedimientos automáticos
que se dan a bajo nivel en el sistema operativo, invisible para el
usuario final. Sin embargo, para probar el software de inter-red o
depurar problemas operacionales, es importante probar el tamaño de
los datagramas en los que se presenta la fragmentación.
o Bit de no fragmentación
o Protocolo :
Este campo es parecido al campo Ethetype utilizado en una trama
de red.
El valor en el campo PROTOCOL especifica qué protocolo de alto
nivel se utilizó para crear el mensaje que se está transportando en el
área DATA de un datagrama, es decir, especifica el formato del área
DATA.
o Header checksum :
Este campo asegura la integridad de los valores del encabezado. La
suma de verificación IP se forma considerando al encabezado como
0 24 31
OPTIONS de IP PADDING
o Campo options :
Este campo aparece a continuación de la dirección destino y no se requiere
en todos los datagramas; las opciones se incluyen en principio para pruebas
de red o depuración. Sin embargo, el procesamiento de las opciones es
parte integral del protocolo IP.
Su longitud es variable dependiendo de lo que se esté seleccionando.
Algunas opciones tienen una longitud de un octeto; estas consisten en un
solo octeto de código de opción. Otras tienen longitudes variables.
Cuando las opciones están presentes en un datagrama, aparecen
contiguas, sin separadores especiales entre ellas.
El byte de código de opción se divide en tres campos:
Copy :
Flag de un bit que controla la forma en que los ruteadores tratan
las opciones durante la fragmentación.
Bit COPY = 1, específica que la opción se debe copiar en todos
los fragmentos.
Bit COPY = 0, la opción solo se debe copiar en el primer fragmento y
no en el resto.
0 1 2 3 7
Las opciones de ruteo y sello de hora (timestamp) son las más interesantes,
porque proporcionan una manera de monitorear o controlar la forma en que
la red de redes maneja las rutas de los datagramas.
Esta opción permite a la fuente crear una lista de direcciones IP y arreglarla
para que cada ruteador que maneje el datagrama añada su propia dirección
IP a la lista.
Autoevaluación
1. Enumere las capas del modelo TCP/IP. Brevemente, definir a cada uno de ellas.
6. ¿Si no existiera el campo TYPE OF SERVICE (TOS) del datagrama IP, que errores
se darían en su funcionamiento?
Para recordar
• La arquitectura del protocolo TCP/IP fue definida por el IETF, organismo encargado
de establecer los protocolos y la arquitectura de Internet.
• El modelo TCP/IP presenta cuatro capas. Así se tiene la capa de acceso a la red,
capa de interred, la capa de transporte y la capa proceso-aplicación.
SEMANA
4
Direccionamiento IP - Subredes
TEMA
OBJETIVOS ESPECÍFICOS
CONTENIDOS
• Subredes
• Prefijo de Red Extendida
• Consideraciones para el diseño de subredes
ACTIVIDADES
4. Subredes
Las subredes atacan el problema del crecimiento de las tablas de ruteo asegurando
que la estructura de la subred de una red no es visible fuera de la red privada de la
organización. El ruteo desde Internet a una subred de una dirección IP cualquiera es
la misma, sin importar en qué subred se encuentra el host destino. Esto es así pues
todas las subredes de una dirección IP usan el mismo prefijo de red, pero diferentes
números de subnet.
Los routers dentro de la organización necesitan diferenciar entre todas las subredes,
pero en el caso de los routers de Internet todas las subredes están dentro de un solo
registro de una tabla de ruteo.
Esto permite al administrador de la red introducir de manera arbitraria mayor
complejidad dentro de la red privada sin afectar el tamaño de las tablas de ruteo de
Internet. La organización puede, por lo tanto, asignar distintos números de subred
para cada una de sus redes internas. Esto permite a la empresa implementar
subredes adicionales sin la necesidad de obtener un nuevo número de red de
Internet.
130.5.32.0
130.5.0.0 130.5.64.0
INTERNET 130.5.96.0
130.5.128.0
Router 130.5.160.0
130.5.192.0
130.5.224.0
Red Privada
En la figura, se puede apreciar cómo un sitio con varias redes lógicas usan un
direccionamiento basado en subredes para cubrir a todas ellas con una sola
dirección de red Clase B (/16). El router acepta todo el tráfico de Internet a la red
130.5.0.0 y direcciona el tráfico hacia las redes interiores basándose en el tercer
octeto de la dirección IP.
El uso de las subredes dentro de las redes privadas proporciona varios beneficios:
Los routers de Internet solo usan el prefijo de red de la dirección destino para
rutear el tráfico hacia entornos con subredes. Los routers dentro del entorno de
las subredes usan el prefijo de red extendida para rutear el tráfico entre las
subredes individuales.
El prefijo de red extendida está compuesto por el prefijo de red y el número de
subred.
Esto significa que especificar una dirección de red 130.5.5.25 con una máscara de
subred 255.255.255.0 puede ser también expresada como 130.5.5.25/24. La
notación /<longitud> es más compacta y fácil de entender que escribir la máscara
en su forma tradicional.
Asi por ejemplo :
130.5.5.25 10000010.00000101.00000101.00011001
255.255.255.0 11111111.11111111.11111111.00000000
130.5.5.25/24 10000010.00000101.00000101.00011001
Sin embargo, es importante notar que todos los protocolos de ruteo modernos
todavía utilizan la máscara de subred. No existen todavía estándares de ruteo que
tengan un campo de un byte en su cabecera para colocar el prefijo de longitud de
red extendida. Es más, todos los protocolos de ruteo todavía requieren la máscara
de subred completa con sus 4 octetos completos.
Cuando las subredes fueron definidas en el RFC 950, se prohibió el uso de las
subredes todo-0s y todo-1s. La razón para esta restricción fue el de eliminar
toda posible situación que pudiera, potencialmente, confundir un router de clase
total (classful). Hay que hacer notar que actualmente los routers pueden ser
classless y classful al mismo tiempo, pueden estar corriendo RIP-1 ( protocolo
classful) y BGP-4 (un protocolo classles) .
Prefijo de 27 bits
Network
Route : 193.1.1.0/24 11000001.00000001.00000001.00000000
Prefijo de 24 bits
Broadcast
A la subnet : 193.1.1.224/27 11000001.00000001.00000001.11111111
Prefijo de 27 bits
Broadcast
A la red : 193.1.1.224/24 11000001.00000001.00000001.11111111
Prefijo de 24 bits
Autoevaluación
Para recordar
• Las subredes atacan el problema del crecimiento de las tablas de ruteo asegurando
que la estructura de la subred de una red no es visible fuera de la red privada de la
organización.
• Los routers dentro de la organización necesitan diferenciar entre todas las subredes,
pero en el caso de los routers de Internet todas las subredes están dentro de un
solo registro de una tabla de ruteo.
• Los routers de Internet solo usan el prefijo de red de la dirección destino para rutear
el tráfico hacia entornos con subredes. Los routers dentro del entorno de las
subredes usan el prefijo de red extendida para rutear el tráfico entre las subredes
individuales.
SEMANA
5
Direccionamiento VLSM
TEMA
• Direccionamiento VLSM
OBJETIVOS ESPECÍFICOS
• Definir VLSM y describir brevemente las razones para su utilización
• Definir la unificación de rutas y su resumen a medida en relación con VLSM
CONTENIDOS
• Ventajas de utilizar VLSM
ACTIVIDADES
• Utilizan los medios interactivos.
• Calculan las direcciones VLSM.
Para poder usar VLSM, es necesario que se utilice un protocolo que soporte este
esquema de direccionamiento:
Los ruteadores CISCO soportan los siguientes protocolos de ruteo classless: OSPF,
EIGRP, RIPv2 y el ruteo estático.
VLSM permite que una organización utilice más de una máscara de subred con el
mismo valor de de dirección de red.
La implementación de VLSM es muchas veces llamada como “subnetting de una
subred”.
IPv4 ofreció una estrategia de direccionamiento escalable durante un tiempo, pero que
pronto dio como resultado una asignación de direcciones totalmente ineficiente. Es
posible que IPv4 pronto sea reemplazado por IP versión 6 (IPv6) como protocolo
dominante de Internet. IPv6 posee un espacio de direccionamiento prácticamente
ilimitado y algunas redes ya han empezado a implementarlo.
Durante los últimos veinte años, los ingenieros del IETF han modificado con éxito el
protocolo IPv4 para que pueda sobrevivir al crecimiento exponencial de Internet.
Producto de tal esfuerzo es el esquema de direccionamiento VLSM, que constituye una
de las modificaciones que ha ayudado a reducir la brecha entre los protocolos IPv4 e
IPv6.
Un concepto y requisito muy importante en las redes modernas es la escalabilidad.
Cuando una red es escalable, puede crecer de manera lógica, eficiente y económica.
El protocolo de enrutamiento utilizado en una red ayuda a determinar la escalabilidad
de la red. Es importante elegir bien el protocolo de enrutamiento. La versión 1 del
Protocolo de Información de Enrutamiento (RIP v1) es adecuada en el caso de redes
pequeñas. Sin embargo, no es escalable para las redes de gran envergadura. La
versión 2 de RIP (RIP v2) se desarrolló para superar estas limitaciones.
5.1 VLSM
La Figura 2 muestra un ejemplo de cómo un administrador de red puede usar una máscara
de 30 bits para las conexiones de red, una máscara de 24 bits para las redes de usuario e
incluso una máscara de 22 bits para las redes con hasta 1000 usuarios.
punto. El equipo tomará una de las tres subredes que anteriormente quedaba
asignada a los enlaces WAN y la volverá a dividir en subredes con una máscara de
30 bits.
El enlace WAN sólo necesita dos direcciones, una para cada router. Esto significa
que se han desperdiciado 252 direcciones.
Si se hubiera utilizado VLSM, todavía se podría aplicar una máscara de 24 bits en
los segmentos LAN para los 250 hosts. Se podría usar una máscara de 30 bits para
el enlace WAN dado que sólo se necesitan dos direcciones de host.
Los enlaces WAN usan direcciones de subred con un prefijo de /30. Este prefijo
sólo permite dos direcciones de host, que es lo que se necesita para una conexión
punto a punto entre un par de routers.
Hay que aclarar que las direcciones de subred utilizadas se generan cuando la
subred 172.16.32.0/20 se divide en subredes /26. Para calcular las direcciones de
subred que se utilizan en los enlaces WAN, siga subdividiendo una de las subredes
/26 que no se utilizan. En este ejemplo, 172.16.33.0/26 se sigue subdividiendo con
un prefijo de /30. Esto permite obtener cuatro bits de subred adicionales y, por lo
tanto, 16 (24) subredes para las WAN.
VLSM se puede usar para dividir en subredes una dirección que ya está dividida en
subredes. Se puede tomar a modo de ejemplo, dirección de subred 172.16.32.0/20
y una red que necesita diez direcciones de host. Con esta dirección de subred,
existen 212 – 2 ó 4094 direcciones de host, la mayoría de las cuales quedarán
desperdiciadas. Con VLSM es posible dividir 172.16.32.0/20 en subredes para
crear más direcciones de red con menos hosts por red. Cuando 172.16.32.0/20 se
divide en subredes dando como resultado 172.16.32.0/26, existe una ganancia de
26 ó 64 subredes. Cada subred puede admitir 26 – 2 ó 62 hosts.
Otro ejemplo:
Ejemplo 1:
Para no desperdiciar tantas IP, la solución es efectuar una reasignación de IPs mediante
VLSM:
A partir de la subnet1: 172.168.32.0/20
Se va a obtener 62 subnets adicionales con una capacidad de direccionamiento de 62
hosts por cada subnet.
De esta manera, se ve que el utilizar VLSM en los enlaces WAN permite ahorrar
direcciones IP para un posible crecimiento futuro.
Se utiliza una máscara /27 para las LAN, pero una máscara /30 para los enlaces WAN.
Conclusión:
Para solucionar este problema de direccionamiento, el equipo de diseño decide
“subnetear” la dirección de red clase C, en subredes de tamaño variable. Subredes de solo
2 hosts son creadas para los enlaces WAN, a estas subredes se les llama también como
subredes de 30-bit mask o de máscara de 30 bits.
Se observa que se tienen aún las subredes 4 y 5 disponibles para un posible crecimiento
futuro.
Ejemplo 3:
Autoevaluación
Para recordar
• Con VLSM, un administrador de red puede usar una máscara larga en las redes
con pocos hosts y una máscara corta en las subredes con muchos hosts.
• VLSM permite que una organización utilice más de una máscara de subred dentro
del mismo espacio de direccionamiento de red. La implementación de VLSM
maximiza la eficiencia del direccionamiento y, con frecuencia, se la conoce como
división de subredes en subredes.
SEMANA
6
Direccionamiento CIDR
TEMA
Direccionamiento de CIDR
OBJETIVOS ESPECÍFICOS
CONTENIDOS
• Ruteo CIDR
• Características de funcionamiento
• CIDR: Implicaciones al asignarlo a Hosts
• Ventajas del CIDR
ACTIVIDADES
6. RUTEO CIDR
El crecimiento proyectado para Internet hacía preveer que los primeros problemas
arriba mencionados llegarían a ser críticos aproximadamente por 1994 ó 1995.
La respuesta a estos dos inmediatos desafíos fue el desarrollo del concepto de
Superredes (Supernetting) o CIDR.
El tercer problema, el cual era de mayor proyección, se dejó para más adelante y
resultó en el Ipv6, actualmente ya desarrollado. El protocolo CIDR fue documentado en
1993 en el RFC 1517, 1518, 1519 y 1520. CIDR proporciona dos características muy
importantes que benefician el sistema global de ruteo.
CIDR elimina el concepto tradicional de redes de dirección Clase A, Clase B y Clase
C. Esto permite la asignación eficiente del espacio de direccionamiento de IPV4. CIDR
permite que un solo registro de la tabla de ruteo pueda representar el espacio de
direccionamiento de miles de redes tradicional del tipo clasfull. Esto permite a un solo
registro de la tabla de ruteo especificar cómo rutear el tráfico a muchas direcciones de
red. Haciendo esto se puede reducir la información de ruteo en los routers de los
backbones. Sin el rápido desarrollo de CIDR en 1994, las tablas de ruteo de Internet
hubieran tenido un exceso de 70,000 rutas e Internet, muy probablemente, ya no
hubiera estado funcionando actualmente.
Es bueno saber que existen algunos cuidados a tomar en cuenta cuando se asignan
direcciones CIDR a host de una red de tipo “classful”. En este caso, las interfaces de
usuario de estos hosts no permitirán asignar una máscara más corta que la natural a
una dirección tradicional de tipo classful.
Por ejemplo, se presentarán problemas si se desea asignar la siguiente dirección
200.25.16.0 con un prefijo /20 para definir una red capaz de soportar 4,094 hosts. El
software que se ejecuta en el host no permitirá asignar una dirección tradicional Clase
C (200.25.16.0) con una máscara /20 (255.255.240.0), dado que la máscara
tradicional para ese tipo de dirección es de 24 bits.
Si el software del host soporta CIDR, este permitirá definir máscaras más cortas. Sin
embargo, no habrán problemas a nivel de los hosts si es que se implementa la
dirección 200.25.16.0/20 (Clase C) como un bloque de 16 redes /24, dado que los host
no-CIDR interpretarán estas direcciones /24 como del tipo Clase C.
De la misma manera, es posible escribir una dirección 130.14.0.0/16 (una dirección
Clase B), como un bloque de 255 redes /24, dado que el host interpretará el prefijo /24
como subnets /16.
Todos estos artilugios se podrían evitar si es que el software del host pudiera permitir
máscaras más cortas que lo normal.
Lo que se analizará a continuación son las ventajas derivadas del uso del
direccionamiento CIDR frente a las direcciones basadas en clases.
En un entorno classfull, un CPI (Centro Proveedor de Información) puede, únicamente,
asignar direcciones de tipo /8, /16, o /24.
En un entorno CIDR, el CPI puede escoger, libremente, un bloque de su espacio
registrado de direcciones y que, además, estas satisfagan exactamente las
necesidades de cada cliente. Esto permite gestionar de manera más eficiente el
espacio de direcciones registradas y no desperdicia inútilmente estos recursos.
Para entender esto mejor se usará el siguiente ejemplo.
Supóngase que un CPI tiene asignado el bloque de direcciones 206.0.64.0/18. Este
bloque representa 16,384 direcciones IP, las cuales pueden ser interpretadas como 64
redes de clase /24. Si un cliente requiere 800 direcciones de host, en lugar de asignar
una dirección Clase B (y desperdiciar aproximadamente 64,700 direcciones) o 4 redes
individuales Clase C (e introducir 4 nuevas rutas en las tablas globales de ruteo), el
CPI podria asignar al cliente el bloque de direcciones 206.0.68.0/22, un bloque de
1,024 direcciones IP ( 4 contiguas redes /24).
11001000.00011001.00010000.00000000 200.25.16.0/20
Paso #1 :
Dividir el bloque de direcciones 200.25.16.0/20 en dos partes iguales . Cada bloque
representa una mitad del espacio de direccionamiento total o 2,048 direcciones IP.
Paso #2 :
Dividir el bloque reservado (200.25.24.0/21) en dos partes iguales . Cada bloque
representa un cuarto del espacio de direccionamiento total o 1,024 direcciones IP.
Paso #3 :
Dividir el bloque de direcciones reservado (200.25.28.0/22) en dos partes iguales del
mismo tamaño. Cada bloque representa un octavo del espacio de direcciones, es
decir, 512 direcciones IP.
CIDR, como la creación de subredes de tamaño variable, requiere que los protocolos
de enrutamiento publiquen las máscaras de subred junto con el ID de red. RIP versión
2, OSPF y BGPv4 admiten los entornos CIDR. RIP versión 1 no se puede utilizar en
entornos con CIDR. InterNIC asigna las direcciones públicas dentro del espacio público
de direcciones que consisten en todas las posibles direcciones “unicast” en la Internet
mundial. Históricamente, InterNIC asignaba los ID de red con clase a las
organizaciones conectadas a Internet sin tomar en consideración su ubicación
geográfica. Hoy en día, lo que InterNIC hace es asignar bloques CIDR a los CPI según
su ubicación geográfica. Luego, los CPI subdividen los bloques CIDR asignados entre
sus clientes.
Autoevaluación
1. Liste las direcciones de red individuales Clase C que pueden ser obtenidas a partir
del bloque CIDR 200.56.168.0/21.
2. Liste las direcciones de red individuales Clase C que pueden ser obtenidas a partir
del bloque CIDR 195.24.0.0/13
Para recordar
• CIDR permite que un solo registro de la tabla de ruteo pueda representar el espacio
de direccionamiento de miles de redes tradicional del tipo clasfull. Esto permite a un
solo registro de la tabla de ruteo especificar cómo rutear el tráfico a muchas
direcciones de red, lo que redice la información de ruteo en los routers de los
backbones.
SEMANA
8
Protocolo ARP
TEMA
Protocolo ARP
OBJETIVOS ESPECÍFICOS
CONTENIDOS
• Protocolo ARP
• Asociación de direcciones
• Definición mediante enlace dinámico
• Mecanismo de funcionamiento
• Evitar la duplicación de direcciones IP
• Encapsulación e identificación de ARP
• Formato del protocolo ARP
ACTIVIDADES
• Reconocen el funcionamiento del protocolo ARP
8. PROTOCOLO ARP
Si se considera dos máquinas, A y B, que comparten una red física, cada una de ellas
tiene asignada una dirección IP, Ipa e Ipb. Así mismo, cada una de ellas tiene una
dirección física, Hwa y HWb. Al desarrollar el modelo de interconexión de interredes
utilizando la capa de red como base, se propuso diseñar un software de bajo nivel que
oculte las direcciones físicas y permita qué programas de un nivel más alto trabajen
sólo con direcciones IP.
Sin embargo, la comunicación debe llevarse a cabo por medio de redes físicas,
utilizando cualquier esquema de direcciones físicas proporcionadas por el hardware.
El problema que se plantea es cómo hace un host para enviar un paquete de datos a
otro host a través de la red física, utilizando solamente direcciones IP, es decir, cómo
transforma la máquina A la dirección lógica en dirección física.
Se sabe que la tecnología Ethernet utiliza una interfaz que tiene asignada una
dirección física de 48 bits asignada por el fabricante. Por lo tanto, cuando una
tarjeta falla y se necesita reemplazar, la dirección física de la máquina cambia.
También, debido a que una dirección Ethernet es de 48 bits, no hay posibilidad
de codificarla en una dirección IP de 32 bits.
La primera parte transforma una dirección IP en una dirección física cuando se envía
un paquete.
La segunda parte responde solicitudes de otras máquinas.
Si cada host tuviera que difundir un marco de solicitud ARP cada vez que fuera
necesario enviar un datagrama, el tráfico colapsaría la red. Por lo tanto, ARP
mantiene una tabla caché con las direcciones recibidas recientemente para reducir
el número de solicitudes de direcciones. La tabla caché se consulta antes de difundir
solicitudes ARP.
MENSAJE ARP
A diferencia de la mayor parte de los protocolos, los datos en los paquetes ARP
no tienen un encabezado con formato fijo. Para hacer que ARP sea útil para
varias tecnologías de red, la longitud de los campos que contienen direcciones
depende del tipo de red. Sin embargo, para hacer posible la interpretación de un
mensaje ARP arbitrario, el encabezado incluye campos fijos cerca del
comienzo, que especifican la longitud de las direcciones que se encuentran en
los campos siguientes.
Se discutirá el formato de 28 bytes de un mensaje ARP que se utiliza en el
hardware Ethernet (donde las direcciones físicas tienen una longitud de 48 bits o
6 bytes) y que se asocia con direcciones IP (longitud de 32 bits o 4 bytes).
En el diagrama, se puede ver un mensaje ARP con 32 bits por línea, formato
estándar; sin embargo, a diferencia de la mayor parte de los otros protocolos, los
campos de longitud variable en los paquetes ARP no se alínean firmemente en
fronteras de 32 bits, lo cual causa que el diagrama sea difícil de leer. Por
ejemplo, la dirección de hardware del transmisor, etiquetada como SENDER HA,
ocupa 6 bytes contiguos, por lo que abarca dos líneas en el diagrama.
0 8 16 24 31
HARDWARE TYPE PROTOCOL TYPE
SENDER HA ( octetos 0 – 3 )
CAMPO FUNCIÓN
Tipo de interfaz de hardware
HARDWARE TYPE Ethernet : 1
PROTOCOL TYPE Tipo de dirección de protocolo de alto nivel.
IP : 0800 hex
OPERATION 1 : Solicitud ARP
2 : Respuesta ARP
3 : Solicitud RARP
4 : Respuesta RARP
HLEN Longitud de la dirección hardware
PLEN Longitud de la dirección del protocolo de
alto nivel
SENDER HA Dirección hardware del transmisor
SENDER IP Dirección lógica del transmisor
TARGET HA Dirección hardware del receptor
TARGET IP Dirección IP del receptor
Por lo tanto, para enviar un paquete de inter-red a través de una re física desde una
máquina hacia otra, el software de red debe transformar la dirección IP en una dirección
física de hardware y utilizar esta última para transmitir las tramas.
ARP permite que las máquinas asocien direcciones sin tener un registro permanente de
asignaciones. Además, una máquina utiliza ARP para encontrar la dirección de
hardware de otra máquina al transmitir por difusión una solicitud ARP.
La solicitud contiene la dirección IP de la máquina de la que se necesita la dirección de
hardware. Todas las máquinas en una red reciben la solicitud ARP. Si la solicitud
corresponde a la dirección IP de una máquina, ésta responde al enviar una respuesta
que contiene la dirección de hardware requerida.
Las respuestas se dirigen a una sola máquina; no se transmiten por difusión. Para
lograr que ARP sea eficiente, cada máquina guarda en su memoria temporal las
asignaciones de dirección IP a dirección física.
8.7 ARP-SPOOFING
Cuando se dio la posibilidad de segmentar las redes mediante el uso de switches, dio la
apariencia que los problemas de sniffer habían terminado. Sin embargo, es posible
aprovechar una inseguridad en el protocolo ARP para espiar en la red. Para ello se
aclararán algunos conceptos básicos.
El protocolo ethernet fue concebido en torno a una idea principal: todas las máquinas de
una misma red local comparten el mismo medio (el cable). Todas las máquinas son
capaces de “ver” todo el tráfico de la red. Debido a esto, las tarjetas ethernet incorporan un
filtro que ignora todo el tráfico que no está destinado a él. Esto se consigue ignorando
aquellos paquetes cuya dirección MAC (Media Access Control) no coincide con la suya. Un
sniffer elimina este filtro de la tarjeta de red y la coloca en modo promiscuo. De esta forma
la tarjeta es capaz de “ver” todo el tráfico que pasa por la red. Solo es cuestión de colocar
los filtros adecuados y comenzar a capturar los paquetes que más interesen (login/passwd
de conexiones de telnet, POP3, etc).
El empleo de switches soluciona este problema. Mediante la segmentación de la red, el
único tráfico que se podrá ver será el nuestro, ya que el Switch se encarga de enrutar
hacia este segmento solo aquellos paquetes destinado a la dirección MAC.
Todas las computadoras de una misma red comparten el mismo medio, por lo que debe de
existir un identificador único para cada equipo, o mejor dicho para cada tarjeta de red. Esto
no sucede en una conexión telefónica mediante modem, ya que se supone que cualquier
dato que se envía está destinado al equipo que se encuentra al otro lado de la línea. Pero
cuando se envían datos en una red local, hay que especificar claramente a quién van
dirigidos. Esto se consigue mediante la dirección MAC, un número compuesto por 12
dígitos hexadecimales que identifica de forma única a cada dispositivo ethernet. La
dirección MAC se compone de 48 bits. Los 24 primeros bits identifican al fabricante del
hardware y los 24 bits restantes corresponden al número de serie asignado por el
fabricante, lo que garantiza que dos tarjetas no puedan tener la misma dirección MAC.
Direcciones MAC duplicadas causarían problemas en la red.
Ahora que ha quedado claro que, para comunicarse en una red ethernet con otro equipo
de la misma, es necesario conocer su dirección MAC, la cual es única, se verá cómo se
puede conocer las direcciones MAC de los equipos de la red.
Asúmase que se trabaja con una computadora que utiliza Linux, por lo que la configuración
de la tarjeta del equipo se obtendrá con el comando ifconfig -a. La salida de este comando
se asemejará al siguiente:
Token ring, estas direcciones suelen tener 48 bits. La traducción inversa la hace el
protocolo RARP o Reverse ARP.
Cuando un ordenador necesita resolver una dirección IP a una MAC, lo que hace es
efectuar una petición arp (Arp request) a la broadcast de dicho segmento de red,
FF:FF:FF:FF:FF:FF, solicitando que el equipo con dicha IP responda con su dirección
ethernet (MAC).
Con el fin de reducir el tráfico en la red, cada arp-reply que llega a la tarjeta de red es
almacenado en la cache, incluso si la petición no la realizamos nosotros. Es decir, todo
arp-reply que llega es almacenado en la cache. Este factor es el que utilizaremos para
realizar arp-spoofing.
8.7.2 Arp-Spoofing
Este método no pone la interfaz de red en modo promiscuo. Esto no es necesario porque
los paquetes serán dirigidos hacia el host que realizará el sniffer y el switch enrutará los
paquetes hacia ese host A continuación se verá como esto es posible.
El método consiste en “envenenar” la cache arp de las dos máquinas que se quiere
sniffear. Una vez que las caches estén envenenadas, los dos hosts comenzarán la
comunicación, pero los paquetes serán enviados hacia el host que sniffeará la
comunicación y luego lo enrutará de nuevo al host apropiado. De esta forma, la
comunicación es transparente para los dos hosts. La única forma de descubrir que existe
“a man in the middle” en la conexión, sería ver la cache arp de la máquina origen y
comprobar si existen dos máquinas con la misma dirección MAC. El esquema de la
comunicación es sencillo:
Desde la máquina que intercepta la comunicación se enviará paquetes de tipo arp-reply
falsos a las dos host que se quieren sniffear. En estos reply’s se le debe decir al host 1
que la dirección ethernet del segundo host es la del host interceptor, quedando esta
información almacenada en su cache arp. Este equipo enviará ahora los paquetes al host 2
pero con la dirección MAC del interceptor. Los paquetes ya están en el host interceptor. El
switch se encargará de hacernos llegar los datos.
Imagínese la siguiente situación:
De esta forma, estamos “envenenando” las cache arp. A partir de ahora lo paquetes que
se envíen entre ambas nos llegarán a nosotros, pero para que ambos hosts no noten nada
extraño, deberemos de hacer llegar los paquetes a su destino final. Para ello, deberemos
de tratar los paquetes que recibamos en función del host de origen:
Hasta aquí hemos visto la forma en la que se pueden utilizar las vulnerabilidades del
protocolo ARP para poder espiar en nuestra red. Pero las posibilidades son múltiples:
ataques DoS (Denegación de servicio); si “envenenamos” la cache arp de una máquina
haciéndonos pasar por el gateway de la red, toda comunicación con el exterior pasará por
nosotros. Si desechamos los paquetes procedentes de este host y no los reenviamos al
gateway, el host no podrá comunicarse con el exterior. Algunos switches pueden ser
manipulados mediante paquetes ARP para que en vez de actuar en modo “bridging” lo
hagan en modo “repetición”. Es decir que, en vez de enviar los paquetes por la “boca o
puerto” adecuado del switch, los enviará por todos, a todas las máquinas les llegarán todo
los paquetes de la red. Esto se consigue inundando la tabla de direcciones con gran
cantidad de direcciones MAC falsas. El switch al recibir un paquete cuya dirección MAC de
destino no tenga en su cache, lo enviará a todos los equipos, y esperará la respuesta del
equipo para poder almacenar su MAC en la cache. Pero como estamos “bombardeándola”
con direcciones MAC falsas, esto no ocurrirá.
El ARP-SPOOFING no solo sirve como herramienta para espiar en una red o realizar
ataques DoS. También, se puede utilizar para crear servidores redundantes, servidores
con tolerancia fallos. La idea consiste en crear un servidor auxiliar que tome la identidad
del servidor que ha dejado de funcionar. Para ello, se hará uso de IP alias y de ARP-
SPOOFING. Es una solución rápida y no muy formal, pero puede ser útil.
En muchas ocasiones, es vital la redundancia en un determinado servicio: HTTP, FTP,
SMTP, POP3. Los equipos que permiten la redundancia en un servicio suelen ser bastante
caros, por lo que este método puede solucionar el problema. La situación es la siguiente:
Se tiene un servidor principal con dos interfaces de red (la segunda permitirá acceder al
servidor cuando el backup esté funcionando) y un servidor de backup también con dos
tarjetas de red (o bien puede utilizarse una sola en el redundante y emplear IP Alias para
poder disponer de dos direcciones IP).
El servidor de backup debe de configurarse de forma que cuando se active (porque el
principal ha sufrido algún problema y deja de funcionar) configure su tarjeta de red con la
IP del servidor principal que debe de sustituir (bien configurando la única tarjeta con IP
Alias o configurando una segunda tarjeta). A continuación, el servidor de backup utilizará
ARP SPOOFING para asegurarse de que recibe todos los paquetes destinados al servidor
que está sustituyendo. Los paquetes ARP que se enviarán informarán que la dirección
MAC correspondiente a la IP del servidor principal es ahora la MAC del servidor de
backup. Este envío debe de producirse de manera continua, mientras dure la caída del
principal, lo que evita que las cache arp se refresquen con la dirección MAC verdadera del
servidor principal. Si la cache arp expirase y se actualizase con la MAC verdadera del
servidor principal, se produciría un “race condition”, como se verá a continuación:
Autoevaluación
2. ¿En qué capa del modelo TCP/IP se encuentra definido el protocolo ARP?
Para recordar
• Cuando los mensajes ARP viajan de una máquina a otra, se deben transportar en
tramas físicas.
• En el caso de las tramas Ethernet, las tramas que transportan mensajes ARP tienen un
campo de tipo de 0806hex. Este es un valor estándar asignado para Ethernet. Otras
tecnologías de hardware de red utilizan otros valores.
SEMANA
9
Protocolo ICMP
TEMA
Protocolo ICMP
OBJETIVOS ESPECÍFICOS
CONTENIDOS
• Protocolo ICMP
• Protocolo de Mensajes de control de Internet
• Entrega de mensajes ICMP
• Prueba de accesibilidad y estado de un destino (Ping)
• Mensajes de error ICMP
ACTIVIDADES
9. PROTOCOLO ICMP
En aquellos casos en los que durante el proceso de ruteo un router no pudiera entregar un
datagrama, o si el ruteador detectara una condición anormal que pudiera afectar su
capacidad para direccionarlo (tráfico en la red), se necesita de un mecanismo que permita
informar a la fuente original para que este evite o corrija el problema.
En esta parte se estudiará un mecanismo que permita hacer este trabajo.
Los ruteadores utilizan el mecanismo para reportar problemas, mientras que los hosts lo
emplean para comprobar si los destinos son accesibles.
No hay que olvidar que el sistema de comunicación utilizado en Internet es uno sin
conexión; por lo tanto, cada ruteador trabaja de manera autónoma, ruteando o entregando
los datagramas que llegan sin ninguna coordinación con el transmisor original.
Este sistema es susceptible a fallas, de las cuales las más importantes se deben a lo
siguiente:
• Fallas en las líneas de comunicación y en los procesadores
• Fallas cuando la PC destino está desconectada temporal o permanentemente de la
red
• Cuando el TTL expira
• Cuando los ruteadores intermedios se congestionan tanto que no pueden procesar
el tráfico entrante
la fuente original, no se pueden utilizar para informar los problemas a los ruteadores
intermedios. ¿Cuál es la razón por la que solo se informan de los errores al origen?
Un datagrama solo contiene campos que especifican la fuente original y el último destino;
no contiene un registro completo de su viaje a través de la red. Los ruteadores pueden
establecer y cambiar sus propias tablas de ruteo, no existe un conocimiento global de las
rutas. Si un ruteador detecta un problema, no puede saber qué grupo de máquinas
intermedias procesaron el datagrama, así que no puede informarles del problema.
Si bien cada mensaje ICMP tiene su propio formato, todos comienzan con los mismos 3
campos:
• Campo TYPE :
De 8 bits y números enteros, que identifica el mensaje.
• Campo CODE :
De 8 bits, da información sobre el tipo de mensaje.
• Campo CHECKSUM :
De 16 bits (en este caso aplicable solamente al mensaje ICMP)
Además, los mensajes ICMP que reportan errores siempre incluyen el encabezado y los
primeros 64 bits de datos del datagrama que causó el problema.
La razón de regresar el encabezado del datagrama únicamente es para permitir que el
receptor determine de manera más precisa qué protocolo y qué programa de aplicación
son responsables del datagrama.
Como se verá luego, los protocolos de más alto nivel de TCP/IP están diseñados para
codificar información crucial en los primeros 64 bits.
El campo TYPE de ICMP define el significado del mensaje así como su formato.
Los tipos son los siguientes:
Una de las herramientas de depuración más utilizadas incluyen los mensajes ICMP de
echo request (solicitud de eco) y echo reply (respuesta de eco).
Un host o un ruteador envía un mensaje ICMP de solicitud de eco hacia un destino
específico. Cualquier máquina que recibe una solicitud de eco formula una respuesta y la
regresa al transmisor original. La solicitud de eco y su respuesta asociada se pueden
utilizar para comprobar si un destino es alcanzable y si responde.
Muchos sistemas implementan las solicitudes de eco bajo el comando PING.
Las versiones mas sofisticadas de PING envían varias solicitudes de eco ICMP, capturan
las respuestas y proporcionan estadísticas sobre las pérdidas de datagramas. Permiten
que el usuario especifique la longitud de los datos que se envían, así como el intervalo
entre solicitudes.
Ping de la Muerte:
Hacer pings no es malo; sin embargo, hay ocasiones en que puede ocasionar problemas.
La más famosa de estas situaciones es el “ping de la muerte”, que envía paquetes muy
grandes a un host remoto y puede hacer que este colapse. Sin embargo, la mayoría de los
NOS actuales están actualizados contra este tipo de contingencia.
DATOS OPCIONALES
.....................
.....................
• Código :
.....................
Las tablas de ruteo de una red de redes se mantienen sin cambios por grandes
periodos de tiempo. Los hosts las inician desde un archivo de configuración en el
arranque del sistema y los administradores de sistema, muy esporádicamente,
hacen cambios de ruteo durante la operación normal.
Los ruteadores intercambian en forma periódica información de ruteo para
incorporar los cambios en la red y para mantener actualizadas sus rutas.
Se asume que los ruteadores conocen rutas correctas; los hosts comienzan con
información mínima de ruteo y aprenden nuevas rutas de los ruteadores.
Todo host arranca con información mínima y confía en los ruteadores para
actualizar su tabla de ruteo. Cuando un ruteador detecta un host que utiliza una
ruta no óptima, le envía al host un mensaje ICPM, llamado redireccionar (redirect),
solicitándole que cambie sus rutas. El ruteador también direcciona el datagrama
original hacia su destino.
.....................
Por lo tanto, TCP/IP incluye varias técnicas para sincronizar los relojes, una de
estas justamente utiliza los mensajes ICMP.
Una máquina solicitante envía un mensaje ICMP de solicitud de timestamp (marca
de hora) a otra, solicitándole que informe su valor actual para la hora del día.
ORIGINAR TIMESTAMP
RECIBIR TIMESTAMP
TRANSMITIR TIMESTAMP
El campo TYPE identifica el mensaje como solicitud (13) o como respuesta(14): los
campos IDENTIFIER y SEQUENCE NUMBER los utiliza la fuente para asociar las
solicitudes con las respuestas.
Los campos restantes especifican la hora, en milisegundos desde la medianoche,
en Tiempo Universal (GMT).
El campo ORIGINATE TIMESTAMP es llenado por la fuente original justo antes de
transmitir el paquete; el campo RECEIVE TIMESTAMP se llena inmediatamente al
recibir una solicitud; y el campo TRANSMIT TIMESTAMP se llena justo antes de
transmitir la respuesta.
Los host utilizan estos tres campos para computar estimaciones del tiempo de
retraso entre ellos y para sincronizar sus relojes.
MÁSCARA DE DIRECCIÓN
Autoevaluación
Para recordar
• Para permitir que los ruteadores en una interred reporten los errores o
proporcionen información sobre las circunstancias inesperadas, los diseñadores
agregaron al TCP/IP un mecanismo de mensajes de propósito especial.
SEMANA
10
Técnicas de Multidifusión
TEMA
Mensajes ICMP
OBJETIVOS ESPECÍFICOS
CONTENIDOS
• La Multidifusión
• Multidifusión por hardware
• Multidifusión IP
• Direcciones de Multidifusión IP
• Conversión de direcciones de multidifusión IP en direcciones de multidifusión
• Protocolo de Administración de Grupos en Internet – IGMP
• Instalación del software IGMP
• Formato de los mensajes IGMP
ACTIVIDADES
• Hacen uso de la técnica de lluvia de ideas para identificar las características de las
técnicas de Multidifusión.
10 La Multidifusión
01.00.00.00.00.0 (hex)
10.2 Multidifusión IP
Los primeros 4 bits contienen 1110 e identifican la dirección como una multidifusión.
Los 28 bits restantes especifican un grupo de multidifusión particular. Los bits del 4
al 31 identifican la dirección como una multidifusión.
0 1 2 3
1 1 1 0 Identificador de grupo
224.0.0.0 a 239.255.255.255
La dirección del grupo de todos los host se utiliza para alcanzar todas las
máquinas que participan en la multidifusión IP en una red local. No hay direcciones
de multidifusión IP que hagan referencia a todos los hosts en la interred.
Las direcciones de multidifusión IP solo pueden emplearse como direcciones de
destino.
Estas direcciones nunca aparecerán en el campo de dirección de la fuente de un
datagrama.
No hay manera de generar mensajes de error ICMP relacionados con datagramas
de multidifusión.
Nivel Significado
0 El host no puede ni enviar ni recibir multidifusión IP.
1 El host puede enviar pero no recibir multidifusión IP.
2 El host puede enviar y recibir multidifusión IP.
Para participar en la multidifusión IP dentro de una red local, un host debe tener el
software que le permita enviar y recibir datagramas de multidifusión.
Para participar en una multidifusión que cubra varias redes, el host debe informar a
los ruteadores de multidifusión local.
El ruteador local se pone en contacto con otros ruteadores de multidifusión,
pasando información hacia los miembros y estableciendo rutas.
Fase 1:
Cuando un host se une a un nuevo grupo de multidifusión envía un mensaje
IGMP para la dirección de multidifusión “todos los hosts”, declarando su
pertenencia a dicho grupo.
Los ruteadores de multidifusión local reciben el mensaje y establecen el
ruteo necesario para difundir la información de pertenencia del grupo hacia
otros ruteadores de multidifusión a través de la interred.
Fase 2:
Debido a que la pertenencia a un grupo es dinámica, los ruteadores de
multidifusión local muestrean de manera periódica a los hosts en la red local
para determinar qué hosts se mantienen como miembros y de qué grupos.
Si en un grupo no se reportan miembros después de varios muestreos, el
ruteador de multidifusión asume que no hay hosts en la red que se
mantengan en el grupo y deja de anunciar miembros del grupo a otros
ruteradores de multidifusión.
CHECKSUM:
Contiene una suma de verificación para el mensaje IGMP de 8 bytes.
DIRECCIÓN DE GRUPO:
Los hosts contienen una dirección que define la pertenencia a un grupo
de multidifusión determinado.
En solicitudes, el campo contiene ceros y no tiene significado.
Autoevaluación
2. Mediante un diagrama, identifique los campos que forman parte de los mensajes
IGMP.
4. Indique si es cierto que los envíos Unicast pueden ser interpretados como un tipo
particular de Multidifusión.
Para recordar
• El tráfico de tipo multicast no molesta a los otros equipos que no están en escucha
de los paquetes.
SEMANA
11
Capa de Transporte
TEMA
Capa de transporte
OBJETIVOS ESPECÍFICOS
• Identificar los procesos que garantizan las entregas confiables y de control de flujo
CONTENIDOS
• Mecanismo de multiplexación
• Protocolo TCP
• Datagrama TCP
• Protocolo UDP
ACTIVIDADES
• Identifican el proceso de entregas seguras utilizada en la capa de transporte.
• Multiplexamiento
• Conexiones
• Fiabilidad
• Control de flujo y congestión
El protocolo TCP está diseñado para controlar el envío y recepción de segmentos TCP a
fin de evitar momentos de congestión en la red. Las principales técnicas de control de flujo
implementadas en el protocolo TCP son los siguentes:
La técnica de desplazamiento de ventana es una técnica de control del flujo impuesta por
el receptor de segmentos TCP con el fin de evitar momentos de congestión en el
computador receptor. Durante el proceso de inicialización de una conexión TCP, el
proceso TCP de cada computador da a conocer los parámetros de control ventana y MSS.
Con estos dos parámetros el proceso de envío de segmentos del protocolo TCP puede
calcular el máximo número de segmentos que puede recibir el proceso de recepción del
protocolo TCP en un momento determinado. El parámetro ventana incluido en una
cabecera TCP es un registro de 16 bits y el valor del mismo puede variar durante el envío y
recepción de segmentos TCP hasta llegar al punto de que sea igual a cero. Cuando esto
ocurre, indica que el proceso de recepción de segmentos no está en capacidad de recibir
ningún segmento TCP, ya que el buffer de recepción se encuentra completamente lleno.
Esto obliga al proceso de envío de segmentos TCP del computador remoto no transmitir
ningún segmento hasta que el parámetro de control ventana sea mayor o igual a un
segmento. Esta técnica funciona si la conexión TCP se establece en una red local, pero
cuando la conexión TCP se establece a través de una red WAN los enrutadores pueden
experimentar momentos de congestión, ya que los mismos interactúan con un servicio de
no orientado a la conexión. Además la capacidad de envío y recepción de datos de un
enlace WAN en la mayoría de los casos es mucho menor que el de una red LAN. Para
resolver este inconveniente, el protocolo TCP hace uso de la técnica comienzo lento "Slow
Start" y control de congestión. Estas técnicas son de control de flujo impuestas en el
emisor para evitar momentos de congestión en la red.
Las técnicas slow start y control de congestión consisten en que el transmisor de
segmentos TCP hace uso de los parámetros de control: ventana de congestión y umbral
de congestión. El parámetro de control de ventana de congestión es utilizado para calcular
el máximo número de segmentos que pueden ser transmitidos por el transmisor en un
momento determinado. Y el parámetro umbral de congestión es utilizado para detectar
momentos de congestión en la red.
El valor inicial del parámetro congestión de ventana es igual al parámetro MSS y el valor
inicial del umbral de congestión es igual a 65535. Por cada número de acuse recibido de
cada segmento transmitido, el parámetro congestión de ventana se incrementa a un MSS;
esto implica un posible crecimiento exponencial de este parámetro. El máximo número de
segmentos TCP que el transmisor puede enviar en un momento dado es seleccionado por
el mínimo valor de la comparación de los parámetros Ventana y Congestión de ventana, es
decir, que si el valor del parámetro Ventana es igual a 4096 bytes y el parámetro
Congestión de ventana es igual a 2048 bytes, el transmisor de segmentos TCP hará uso
del parámetro congestión de ventana para determinar el máximo número de segmentos
que pueden ser transmitidos en un momento dado. El crecimiento del parámetro
congestión de ventana se detiene hasta que el mismo sea igual al parámetro de control
ventana. Si el transmisor de segmentos TCP detecta un posible momento de congestión
en la red debido a que el tiempo de espera de un número de acuse recibido expiró, el
protocolo slow start se inicia nuevamente inicializando la ventana de congestión con el
valor asignado al MSS y el parámetro umbral de congestión se le asigna un valor igual a la
mitad de la ventana de transmisión, pero nunca por debajo de dos segmentos. Esto implica
que el umbral de congestión es determinado por la siguiente fórmula:
Luego, la técnica slow start entra en acción hasta que el parámetro congestión de ventana
sea mayor que el umbral de la congestión. Cuando esto ocurre, el crecimiento de la
ventana de congestión deja de ser exponencial, ya que se incrementa a uno no por cada
número de acuse recibido por segmento, sino por el grupo de números de acuse recibido
del rango de segmentos que son incluidos en la ventana de congestión en ese momento.
Se dice que el protocolo de transmisión TCP se encuentra en el estado slow start si la
ventana de congestión es menor o igual al umbral de congestión. Y si la ventana de
congestión es mayor que el umbral de congestión se dice que el protocolo de transmisión
se encuentra en un estado de control de congestión.
TCP define el segundo servicio más importante y mejor conocido de nivel de red, la
entrega de flujo confiable. Además, TCP añade una funcionalidad substancial a los
protocolos que ya se han analizado, pero, a su vez, su implantación es substancialmente
más compleja. Si bien forma parte de TCP/IP, es cierto que puede ser adaptado para ser
utilizado con otros sistemas de entrega.
En el nivel más bajo, las redes de comunicación por PC proporcionan una entrega de
paquetes no confiable. Esto significa que los paquetes se pueden perder o destruir,
cuando falla el hardware de red o cuando las redes se sobrecargan. También, los
paquetes se pueden entregar en desorden, con retraso o duplicados.
En el nivel más alto, los programas de aplicación, a menudo, necesitan enviar grandes
volúmenes de datos de una PC a otra. Utilizar un sistema de entrega sin conexión y
no confiable para las transferencias de gran volumen se vuelve tedioso, molesto y
requiere que los programadores incorporen, en cada programa de aplicación, la
detección y solución de errores.
• Orientación de flujo
• Se refiere al servicio de entrega de flujo que se da entre la máquina de destino
y la máquina de origen.
• Conexión de circuito virtual
• Transferencia con memoria intermedia
• Flujo no estructurado
• Conexión Full Duplex
Envío de paquete 1
Recep. De paq.1
Recepción de ACK 1 Envío de ACK 1
Envío de paquete 2
Recep. de paq. 2
Envío de ACK 2
Recepción de ACK 2
Paquete perdido
Expira el temporizador
Para lograr que el flujo de transmisión sea eficiente, se hace necesario introducir
el concepto de ventana deslizable. Si se analiza la manera cómo se da el
mecanismo de transmisión de datos, se verá que estos datos solo fluyen entre
las máquinas en una dirección a la vez, inclusive si la red tiene capacidad para
comunicación simultánea en ambas direcciones. Esto demuestra que la red tiene
periodos ociosos durante el tiempo en que las máquinas retrasan sus
respuestas. Así se tiene que un protocolo simple de acuses de recibo positivos
ocupa una cantidad sustancial de ancho de banda de red debido a que debe
retrasar el envío de un nuevo paquete hasta que reciba un acuse de recibo del
paquete anterior. La técnica de ventana deslizable es una forma más compleja
de acuse de recibo positivo y retransmisión que el sencillo método mencionado
antes. Esta técnica utiliza el ancho de banda de mejor forma, ya que permiten
que el trasmisor envíe varios paquetes sin esperar un acuse de recibo.
El protocolo coloca una ventana pequeña y de tamaño fijo en la secuencia, y
transmite todo los paquetes que residan dentro de la ventana.
En el gráfico se puede ver un protocolo de ventana deslizante con 8 paquetes en
la ventana en el caso A.
En el caso B, la ventana que se desliza hacia el paquete 9 puede enviarse
cuando se recibe un acuse de recibo del paquete 1. Únicamente se
retransmiten los paquetes sin acuse de recibo.
A. Ventana inicial
1 2 3 4 5 6 7 8 9 10
B. Deslizamiento de la ventana
1 2 3 4 5 6 7 8 9 10
Envío paq. 1
Recep.Paq.1
Envío paq. 2 Envio ACK1
Recep. ACK 1
Recep. ACK 2
Recep. ACK 3
El TCP visualiza el flujo de datos como una secuencia de bytes que divide en
segmentos para su transmisión.
Generalmente, cada segmento viaja a través de una red como un sólo datagrama IP.
El TCP utiliza un mecanismo especializado de ventana deslizable para solucionar 2
problemas importantes:
• La transmisión eficiente
• El control de flujo
De manera similar al caso anterior, el mecanismo de ventana del TCP hace posible
enviar varios segmentos antes de que llegue un acuse de recibo.
La forma TCP de un protocolo de ventana deslizable también soluciona el problema
de control de flujo de extremo a extremo, al permitir que el receptor restrinja la
transmisión hasta que tenga espacio suficiente en memoria intermedia para incorporar
más datos.
El mecanismo TCP de ventana deslizable opera a nivel de byte, no a nivel de
segmento ni de paquete.
Ventana activa
1 2 3 4 5 6 7 8 9 10 11
Este es el ejemplo de una ventana deslizante del TCP. Los bytes hasta el 2 se han
enviado y reconocido, los bytes del 3 al 6 han sido enviados pero no reconocidos, los
bytes del 7 al 9 no se han enviado pero serán enviados sin retardo y los bytes del 10
en adelante no pueden ser enviados hasta que la ventana se mueva.
NÚMERO DE SECUENCIA
DATOS
...........................
• Window (ventana)
Usado para que TCP informe cuántos datos está dispuesto a aceptar cada
vez que envía un segmento. Esto se hace al especificar el tamaño de
memoria intermedia en este campo.
• Code bits
Utilizado para determinar el propósito y contenido del segmento.
No todos los segmentos que se envían a través de una conexión serán del
mismo tamaño. Por ello, ambos extremos necesitan acordar el tamaño máximo
de los segmentos que transferirán.
Para esto se utiliza el campo OPTIONS. Este campo es usado por TCP para
negociar con el otro extremo las condiciones del intercambio. De esta manera,
cada máquina puede especificar el tamaño máximo de segmento (MSS) que
está dispuesto a recibir.
Para las computadoras conectadas por redes LAN es especialmente importante
escoger un tamaño máximo de segmento que llene los paquetes o no harán un
buen uso del ancho de banda.
Si los dos puntos extremos residen en la misma red física, el TCP, por lo
general, computará un tamaño máximo de segmento de tal forma que los
datagramas IP resultantes correspondan con la MTU de la red.
No hay que olvidar que los segmentos TCP viajan encapsulados dentro de
datagramas IP, que a su vez están encapsulados en tramas de red física.
11.4.2. Características
Dentro del grupo de protocolos TCP/IP, UDP proporciona el mecanismo primario que
utilizan los programas de aplicación para enviar datagramas a otros programas de
aplicación. El UDP proporciona puertos de protocolo utilizados para distinguir entre
muchos programas que se ejecutan en la misma máquina.
Esto es que cada mensaje UDP contiene tanto el número de puerto de destino como el
número de puerto de origen, haciendo posible que el software UDP en el destino
entregue el mensaje al receptor correcto y que este envíe una respuesta.
UDP no emplea acuses de recibo para asegurarse de que lleguen mensajes, no
ordena los mensajes entrantes ni proporciona retroalimentación para controlar la
velocidad a la que fluye la información entre las máquinas.
Por lo tanto, los mensajes UDP se pueden perder, duplicar o llegar sin orden.
También, los paquetes pueden llegar más rápido de lo que el receptor los puede
procesar. Un programa de aplicación que utiliza UDP acepta toda la responsabilidad
por el manejo de problemas de confiabilidad, incluyendo la pérdida, duplicación y
retraso de los mensajes, la entrega fuera de orden y la pérdida de conectividad. Por
esta razón, muchos programas que confían en UDP trabajan bien en un ambiente de
red LAN, pero fallan cuando se utilizan en Internet.
DATOS
• El puerto de origen
Es opcional. Cuando se utiliza, sirve para especificar la parte a la que se
deben enviar las respuestas, de lo contrario, puede tener valor de cero.
• El campo checksum UDP
Es opcional y no es necesario utilizarla; un valor de cero en el campo de
CHECKSUM significa que la suma no se computó.
Autoevaluación
11. Elabore un diagrama e identifique cada una de las partes del segmento UDP.
Para recordar
• TCP define el segundo servicio más importante y mejor conocido de nivel de red,
la entrega de flujo confiable.
• TCP añade una funcionalidad substancial a los protocolos que ya se han
analizado, pero a su vez su implantación es substancialmente más compleja.
• Para lograr que el flujo de transmisión sea eficiente, se hace necesario introducir
el concepto de ventana deslizable. Si se analiza la manera cómo se da el
mecanismo de transmisión de datos, se verá que los datos solo fluyen entre las
máquinas en una dirección a la vez, inclusive si la red tiene capacidad para
comunicación simultánea en ambas direcciones. Esto demuestra que la red tiene
periodos ociosos durante el tiempo en que las máquinas retrasan sus
respuestas.
• Al igual que el UDP, el TCP utiliza números de puerto de protocolo para identificar
el destino final dentro de una máquina. Sin embargo, los puertos TCP son mucho
más complejos, ya que un número de puerto no corresponde a un solo objeto.
• El TCP visualiza el flujo de datos como una secuencia de bytes que divide en
segmentos para su transmisión.
• Generalmente, cada segmento viaja a través de una red como un solo datagrama
IP.
SEMANA
Protocolos de ruteo
12
TEMA
Protocolos de ruteo
OBJETIVOS ESPECÍFICOS
• Comprender las técnicas de encaminamiento basadas en RIP
CONTENIDOS
• Protocolo RIP
• Problemas que pueden existir con RIP
• Protocolo OSPF
ACTIVIDADES
• Identifican las características del protocolo RIP y del OSPF.
Solo un ruteador puede correr RIP de modo activo; los hosts deben utilizar el modo pasivo.
Un ruteador que corre RIP de modo activo difunde un mensaje cada 30 segundos. Cada
mensaje consta de un par de datos, donde cada par contiene una dirección de red IP y un
entero que representa la distancia hacia esa red.
RIP utiliza una métrica de conteo de saltos (hop count metric) para medir la distancia
hacia un destino. En la métrica RIP, un ruteador define un salto desde la red conectada
directamente, dos saltos desde la red que está al alcance a través de otro ruteador, y así
sucesivamente. Usar el conteo de saltos para calcular la trayectoria más corta no siempre
produce resultados óptimos. Muchas implantaciones RIP permiten que los administradores
configuren artificialmente los contadores de saltos con valores altos cuando deban
anunciar conexiones hacia redes lentas. RIP especifica unas cuantas reglas para mejorar
el desempeño y la confiabilidad. Una vez que un ruteador aprende una ruta desde otro
ruteador, debe conservar esta ruta hasta que aprenda otra mejor.
Red 1
Red 2
R1 tiene una conexión directa hacia la red 1, de esta forma se tiene una ruta en su
tabla con la distancia 1. Este incluye la ruta en sus difusiones periódicas. El
ruteador R2 ha aprendido la ruta desde R1, instala la ruta en su tabla de ruteo y
anuncia la ruta con una distancia igual a 2. Finalmente, R3 ha aprendido la ruta de
R2 y la anuncia con una distancia 3.
Supóngase que la conexión de R1 hacia la red 1 falla. R1 actualizará su tabla de
ruteo inmediatamente para hacer la distancia igual a 16(infinita). En la siguiente
difusión, R1 reportará el alto costo de la ruta.
Sin embargo, a menos que el protocolo incluya mecanismos extra para prevenirlo,
cualquier otro ruteador podría difundir sus rutas antes que R1.
En particular, supóngase que R2 logra anunciar sus rutas justo después de que la
conexión de R1 falló. Si esto sucede, R1 recibirá los mensajes de R2 y seguirá el
algoritmo usual de vector-distancia. Este notará que R2 ha anunciado una ruta
hacia la red 1 a un costo bajo, calculando que ahora se encuentra a 3 saltos para
alcanzar la red 1(2 para que R2 alcance la red 1, más 1 para alcanzar R2) e
instalará una nueva ruta a través de R2.
En este punto, si R1 o R2 reciben un datagrama destinado para la red 1, rutearán el
datagrama de regreso y así, sucesivamente, hasta que su tiempo de vida límite se
cumpla.
En el siguiente ciclo de intercambio de ruteo, R1 difundirá sus tablas de rutas
completas. Cuando R2 aprenda que las rutas de R1 hacia la Red 1tienen una
longitud a 3, esta calculará una nueva longitud para tal ruta, haciéndola igual a 4.
Este problema es posible resolverlo mediante una técnica conocida como
actualización de horizonte separado (split horizon update).
Cuando se utilizan horizontes separados, un ruteador registra la interfaz por la que
ha recibido una ruta particular y no difunde esta información acerca de la ruta de
regreso sobre la misma interfaz. En este caso, el ruteador R2 anunciará su ruta de
longitud 2 hacia la red 1 de regreso hacia el ruteador R1, así, si R1 pierde su
conexión hacia la red 1, podrá detener el anuncio de la ruta.
Comando Significado
1 Solicitud para información parcial o completa
de ruteo
2 Respuesta con distancias de red de pares
desde la tabla de ruteo del emisor
DIRECCIÓN IP DE LA RED1
DIRECCIÓN IP DE LA RED1
………………………………..
Los mensajes RIP no contienen un campo de longitud explícito. De hecho, RIP asume que
los mecanismos de entrega subyacentes dirán al receptor la longitud de un mensaje
entrante. Los mensajes RIP dependen del UDP para informar al receptor la longitud del
mensaje. RIP opera el puerto 520 en UDP.
Este protocolo fue desarrollado por el IETF a partir del algoritmo SPF. Las características
de este protocolo son las siguientes:
• Constituye un estándar abierto, por lo que cualquiera puede implantarlo sin pagar
por una licencia de uso. Es el reemplazo de los protocolos abiertos.
• Utiliza un ruteo de tipo de servicio. Esto es que se pueden definir múltiples rutas
hacia un destino dado, uno por cada tipo de servicio (retardo bajo o rendimiento
alto). El OSPF está entre los primeros protocolos que utiliza esta característica.
• OSPF proporciona balanceo de carga. Esto significa que si existen múltiples rutas
hacia un destino dado con el mismo costo, OSPF distribuye el tráfico entre todas
las rutas.
• OSPF permite que una localidad divida sus redes y ruteadores en subconjuntos
llamados áreas. Cada área es autónoma, el conocimiento de la topología de un
área se mantiene oculto para las otras áreas.
• El intercambio de datos entre ruteadores debe ser previamente autenticado. La
idea es que solo ruteadores confiables difundan información de ruteo.
• OSPF permite a los ruteadores intercambiar información de ruteo aprendida desde
otras localidades (externas).
ÁREA ID
AUTENTICACIÓN (bytes 0 – 3)
TIPO SIGNIFICADO
1 Hello (para pruebas de accesibilidad)
2 Descripción de Base de datos (topología)
3 Solicitud de estado de enlace
4 Actualización de estado de enlace
5 Acuse de recibo de estado de enlace
Pero su flexibilidad permite que también se pueda utilizar en las redes grandes. En este
caso hacen uso de un diseño jerárquico.
Varias áreas se conectan a un área de distribución o a un área 0 que también se denomina
backbone. El enfoque del diseño permite el control extenso de las actualizaciones de
enrutamiento. La definición de área reduce el gasto de procesamiento, acelera la
convergencia, limita la inestabilidad de la red a un área y mejora el rendimiento.
Un router OSPF publica sus propios estados de enlace y, a su vez, envía los estados de
enlace recibidos. De esta manera, los routers procesan la información acerca de los
estados de enlace y crean una base de datos del estado de enlace. Cada router del área
OSPF tendrá la misma base de datos del estado de enlace. Por lo tanto, cada router tiene
la misma información sobre el estado del enlace y los vecinos de cada uno de los demás
routers.
Cada router luego aplica el algoritmo SPF a su propia copia de la base de datos. Este
cálculo determina la mejor ruta hacia un destino. El algoritmo SPF va sumando el costo, un
valor que se corresponde generalmente al ancho de banda.
La ruta de menor costo se agrega a la tabla de enrutamiento, que se conoce también como
la base de datos de envío.
Cada router mantiene una lista de vecinos adyacentes que se conoce como base de datos
de adyacencia. La base de datos de adyacencia es una lista de todos los routers vecinos
con los que un router ha establecido comunicación bidireccional. Esta base de datos es
exclusiva de cada router.
Los routers de estado de enlace mantienen una imagen común de la red e intercambian
información de enlace en el momento de la detección inicial o de efectuar cambios en la
red. Los routers de estado de enlace no envían las tablas de enrutamiento en broadcasts
periódicos como lo hacen los protocolos de vector-distancia.
Por lo tanto, los routers de estado de enlace utilizan menos ancho de banda para
garantizar el mantenimiento de la tabla de enrutamiento.
Así como RIP es adecuado para pequeñas redes y la mejor ruta se basa en el menor
número de saltos, OSPF es apropiado para internetworks grandes y escalables, y la mejor
ruta se determina sobre la base de la velocidad del enlace.
Los routers que implementan los protocolos de vector-distancia necesitan menos memoria
y menos potencia de procesamiento que los que implementan el protocolo OSPF. OSPF
selecciona las rutas sobre la base del costo, lo que se relaciona con la velocidad. Cuanto
mayor sea la velocidad, menor será el costo del enlace para OSPF. También, selecciona
la ruta más rápida y sin bucles del árbol SPF como la mejor ruta de la red. Asimismo,
garantiza un enrutamiento sin bucles, mientras que los protocolos de vector-distancia
pueden provocar bucles de enrutamiento.
• Velocidad de convergencia
• Admite la máscara de subred de longitud variable (VLSM)
• Tamaño de la red
• Selección de ruta
• Agrupación de miembros
OSPF selecciona la ruta mediante el costo, una métrica basada en el ancho de banda.
Todos los routers OSPF deben obtener información acerca de la redes de cada router en
su totalidad para calcular la ruta más corta. Éste es un algoritmo complejo. Por lo tanto,
OSPF requiere routers más poderosos y más memoria que RIP.
RIP utiliza una topología plana. Los routers de una región RIP intercambian información
con todos los routers. OSPF utiliza el concepto de áreas. Una red puede subdividirse en
grupos de routers. De esta manera, OSPF puede limitar el tráfico a estas áreas. Los
cambios en un área no afectan el rendimiento de otras áreas. Este enfoque jerárquico
permite el eficiente crecimiento de una red.
Autoevaluación
5. ¿En qué campo del mensaje OSPF se ve qué esquema de identificación se está
utilizando?
Para recordar
• Cuando existe la caída de un router, pueden pasar varios minutos hasta que los
cambios se propagan en la red. Esto es conocido como slow convergence problem o el
problema de la lenta convergencia.
• OSPF permite que una localidad divida sus redes y ruteadores en subconjuntos
llamados áreas. Cada área es autónoma. El conocimiento de la topología de un
área se mantiene oculto para las otras áreas.
SEMANA
13
Protocolo BOOTP-DHCP
TEMA
OBJETIVOS ESPECÍFICOS
CONTENIDOS
ACTIVIDADES
Se sabe que cada computadora conectada a una red TCP/IP requiere de una dirección IP
para poder comunicarse. La manera de agenciarse una dirección IP, cuando no se tiene de
disco duro, se puede resolver mediante el protocolo RARP; sin embargo esto no es lo
mejor, así que existen 2 posibilidades extras que son BOOTP y DHCP. El primero fue
utilizado ampliamente, pero actualmente ha sido desplazado por DHCP completamente.
Véase cómo trabajan estos protocolos.
13.1 BOOTP
(Boot Strap Protocol)
BOOTP utiliza al UDP y al IP. BOOTP debe implantarse como un programa de aplicacion.
Al igual que RARP, BOOTP opera dentro de un paradigma cliente-servidor y requiere solo
de un intercambio de paquetes. Sin embargo, es mas eficiente que RARP, pues un solo
mensaje BOOTP especifica muchos aspectos necesarios para el arranque, incluyendo una
dirección IP para la computadora, la dirección de un ruteador y la dirección de un servidor.
También, incluye un campo de vendedor específico en la respuesta que permite ingresar
información especial como la máscara de subred.
Dado que BOOTP se vale de UDP para transportar mensajes y los mensajes UDP a su
vez están encapsulados en los datagramas IP para su entrega, y para que un datagrama
IP pueda viajar se requiere que un equipo conozca su dirección IP, resulta todo una
paradoja. Sin embargo, la paradoja es solo aparente, pues hay varias direcciones IP de
casos especiales. En particular, cuando se usa como una dirección de destino, la dirección
IP está formada solo por unos (255.255.255.255), que especifican el límite para la difusión.
El software IP puede aceptar y difundir datagramas que especifican la dirección de difusión
límite. Por lo tanto, un programa de aplicación puede utilizar la dirección IP de difusión
límite para obligar al IP a difundir un datagrama en la red local, antes de que el IP haya
descubierto la dirección IP de la red local o la dirección IP de la máquina.
A B
Cliente BOOTP
Debido a que el BOOTP utiliza UDP y estos a su vez IP, los mensajes pueden
retrasarse, perderse, entregarse fuera de orden o duplicarse. Además, debido a
que IP no proporciona una suma de verificación, el datagrama UDP puede llegar
con bytes alterados. Para contrarrestar, esto BOOTP utiliza sumas de verificación
para los datos. Para manejar datagramas perdidos, BOOTP utiliza la técnica
convencional de tiempo límite (time out) y retransmisión (retransmission).
0 16 31
ID DE TRANSACCIÓN
DIRECCIÓN IP DE CLIENTE
SU DIRECCIÓN IP
Los mensajes tienen campos de longitud fija y las réplicas poseen el mismo formato que
las solicitudes.
13.4 INCONVENIENTES:
BOOTP fue diseñado para un ambiente relativamente estático en el que cada anfitrión
tiene una conexión de red permanente.
Con la llegada de laptops y redes inalámbricas, es posible cambiar rápidamente la posición
de las máquinas. En este contexto BOOTP no se acomoda bien.
No se debe olvidar que el archivo de configuración es creado y actualizado por un
administrador; por lo tanto, es de difícil actualización.
Para solucionar estos problemas, el IETF creó un nuevo protocolo: el DHCP (Protocolo de
configuración dinámica de anfitrión).
DHCP es mejor que BOOTP en dos formas:
• El DHCP permite que una computadora adquiera toda la información que necesita
en un solo mensaje.
• DHCP permite que una computadora posea una dirección IP en forma rápida y
dinámica.
Autoevaluación
1. Identifique los mensajes utilizados por DHCP para entregar la dirección IP a un host
remoto.
Para recordar
SEMANA
14
Protocolo Ipv6
TEMA
Direccionamiento IPv6
OBJETIVOS ESPECÍFICOS
CONTENIDOS
• Características del Ipv6
• Forma general de un datagrama Ipv6
• Formato del encabezado base del IPV6
• Fragmentación y reensamblaje del IPv6
• Direcciones IPv6
ACTIVIDADES
• Hacen uso de la técnica de lluvia de ideas para identificar las características del
protocolo IPv6 frente a la versión anterior.
La tecnología básica de IP ha trabajado bien durante una década; sin embargo, existen
algunos problemas que están empezando a surgir con el IPV4.
Este protocolo conserva muchas de las características que hicieron al IPv4 un protocolo
exitoso. Se tienen dos características:
• El IPv6 todavía soporta la entrega sin conexión (cada datagrama puede ser ruteado
independientemente).
• También, mantiene sus capacidades de fragmentación y ruteo de fuente.
Encabezado Ipv6
4 bits 24 bits
Para ser totalmente general, el Ipv6 necesita incluir mecanismos para soportar
funciones como la fragmentacion, el ruteo de fuente y la autenticación. Sin
embargo, elegir la asignación de campos fijos en el encabezado de datagrama para
todos los mecanismos es ineficiente, pues la mayor parte de los datagramas no
utilizan todos los mecanismos. El gran tamaño de las direcciones Ipv6 aumenta la
ineficiencia. Un emisor puede elegir qué encabezados de extensión incluir en un
datagrama determinado y cuáles omitir. De esta manera, los encabezados de
extensión proporcionan una flexibilidad máxima. Los encabezados de extensión
Ipv6 funcionan en forma similar a las opciones del Ipv4. Cada datagrama incluye
encabezados de extensión solo para los recursos que el datagrama utilice.
0 8 16 29 31
IDENTIFICACIÓN DE DATAGRAMA
IPv6 conserva mucho de la fragmentación del IPv4, de manera que cada fragmento debe
ser múltiplo de 8 bytes.
Esta técnica permite reducir la sobrecarga en los ruteadores y deja que cada
ruteador maneje más datagramas por unidad de tiempo.
Para poder asimilar las consecuencias de este comportamiento, se debe recordar
que el Ipv4 está diseñado para que los ruteadores cambiar en cualquier momento.
Si una red o un ruteador falla, el tráfico puede ser redireccionado hacia diferentes
trayectorias alternativas. En Ipv6, los ruteadores no pueden cambiar tan fácilmente,
pues un cambio en una ruta puede cambiar el Path MTU.Si el Path MTU a lo largo
de una nueva ruta es menor que el Path MTU a lo largo de la ruta original, un router
intermedio deberá fragmentar el datagrama original. Para resolver este problema, el
Ipv6 permite a los ruteadores intermedios hacer un túnel de Ipv6 a través del Ipv6.
Cuando un ruteador necesita fragmentar un datagrama, el ruteador no inserta un
encabezado de extensión de fragmento ni cambia los campos en el encabezado
base.
En lugar de eso, el router crea un datagrama completamente nuevo que encapsula
el datagrama original como dato. Luego, divide el nuevo datagrama en fragmentos
reproduciendo el encabezado base e insertando un encabezado de extensión de
fragmento en cada uno. Luego, el router envía cada uno de los fragmentos hacia el
destino final.
En IPv6, cada dirección ocupa 16 bytes (128 bits), 4 veces el tamaño de una
direccion IPv4. Este amplio esquema de direcciones garantiza que el IPv6 pueda
tolerar cualquier esquema de asignación de direcciones razonable.
El número total es de 2 ^128 = 3.4 x 10 ^38. Esto significa que si las direcciones se
asignaran a razón de un millón de direcciones por milisegundo, tomaría alrededor
de 20 años asignar todas las direcciones posibles.
104.230.140.100.255.255.255.255.0.0.17.128.150.10.255.255
68E6:8C64:FFFF:FFFF:0:1180:96A:FFFF
Además, la notación hexadecimal con 2 puntos presenta dos técnicas que la hacen
muy útil.
Primero:
La notación hexadecimal con 2 puntos permite la compresión 0 que permite que
una cadena de ceros repetidos se reemplacen por un par de dos puntos.
FA07:0:0:0:0:0:0:A5
Puede escribirse:
FA07:: A5
Para asegurar que la compresión cero produce una interpretación sin
ambigüedades, la propuesta especifica que puede aplicarse sólo una en cualquier
dirección.
Segundo :
Esta notación hexadecimal con dos puntos incorpora sufijos decimales con puntos;
como se verá, esta combinación tiene el propósito de utilizarse durante la transición
del Ipv4 al Ipv6.
Así, la siguiente dirección Ipv4:
128.10.2.1
0:0:0:0:0:0:128.10.2.1
O también:
::128.10.2.1
1. Unicast
Identifica una sola interfase dentro del ámbito de las direcciones unicast. Es
parecido al esquema actual de direccionamiento.
2. Multicast
Esta dirección identifica múltiples interfaces. Con un adecuado ruteo, los paquetes
diseccionados a una dirección multicast son enviados a todas las interfaces que
son identificadas mediante la dirección.
3. Anycast
Una dirección multicast identifica múltiples interfaces. Con un adecuado ruteo, los
paquetes direccionados a una dirección anycast son enviados a una sola interfase.,
la más cercana en términos de distancia de ruteo.
a. Direcciones Unicast
Un campo de longitud variable denominado Prefijo de formato, FP (Format
Prefix), permite identificar el tipo de dirección de Ipv6.
Las direcciones unicast pueden ser:
a.1 Direcciones unicast reservadas
a.2 Direcciones unicast globales agregables
a.3 Direcciones unicast de uso local
a.3.1 Direcciones de Enlace-local
a.3.2 Direcciones de Sitio-local
Dirección no específica:
La dirección 0:0:0:0:0:0:0:0 o (::) solo es utilizada para indicar la
ausencia de una dirección. Normalmente, se usa mientras los nodos
inicializan Ipv6 e indica que aún no ha conseguido conocer su propia
dirección.
Dirección de loopback:
La dirección 0:0:0:0:0:0:0:1 o (::1) es usada para identificar la
interfase de lazo cerrado (loopback), permitiendo a un nodo enviar
paquetes a sí mismo. Es la equivalente de la dirección 127.0.0.1 de
Ipv4.
Bajo el ruteo entre dominios sin clases, CIDR, los CPI´s asignan
direcciones en pools o bloques. Las direcciones unicast globales
agregables funcionan de forma similar, y se usarán para la
comunicación global en la parte activa con Ipv6.
A diferencia de Ipv4, que actualmente trabaja con una mezcla de
direcciones planas y jerárquicas, las direcciones Ipv6 han sido
diseñadas desde un inicio para soportar un ruteo eficiente y un
direccionamiento jerárquico.
El ámbito en el cual la dirección unicast global agregable Ipv6 es
única es en todo el Internet.
Los primeros 48 bits están siempre fijados para las direcciones de sitio
local. Luego de los 48 bits, sigue un identificador de subset que
proporciona 16 bits que se pueden utilizar para crear un esquema de
subred en la organización.
Dirección
000.......................000 0000 IPv4
b. Direcciones Multicast
Definidas en el RFC 2373 y 2375, estas direcciones se usan para el tráfico
de IPv6 de multidifusión y sustituyen a las direcciones de difusión en IPv6.
Una dirección de multicast se asigna a un grupo de nodos, pero al contrario
que las direcciones anycast, todos los configurados con la dirección de
multidifusión recibirán los paquetes enviados a dicha dirección.
Un nodo puede pertenecer a más de un grupo de multidifusión.
Ningún nodo puede utilizar una dirección de multidifusión como dirección de
origen en ningún paquete ni se puede utilizar en las cabeceras de
enrutamiento.
c. Direcciones Anycast:
Autoevaluación
1. Identifique los distintos tipos de direcciones ipv6. Defina cada una de ellas.
2. Mediante un diagrama, identifique los campos del encabezado base del datagrama
ipv6.
Para recordar
• Para ser totalmente general, el Ipv6 necesita incluir mecanismos para soportar
funciones como la fragmentacion, el ruteo de fuente y la autenticación.
• En IPv6, cada dirección ocupa 16 bytes (128 bits), 4 veces el tamaño de una
dirección IPv4.
SEMANA
15
Protocolo ICMPv6
TEMA
Protocolo ICMPv6
OBJETIVOS ESPECÍFICOS
CONTENIDOS
ACTIVIDADES
• Hacen uso de la técnica de lluvia de ideas para identificar las características del
protocolo ICMPv6 frente a la versión anterior.
15 Protocolo ICMPv6
Al igual que el protocolo IPV4, Ipv6 tampoco proporciona facilidades para reportar errores.
En lugar de ello, Ipv6 utiliza una versión actualizada del Internet Control Message Protocol
(ICMP). Icmpv6 cumple las funciones más comunes realizadas por Icmpv4, pero también
sirve de base para cumplir las siguientes funciones:
a. Mensajes de error
b. Mensajes informativos
a. Mensajes de error
Estos mensajes son usados para reportar errores en la entrega o re-envío de los
paquetes IPv6 por parte de nodos destinos o routers intermedios.
El valor del campo TYPE de 8 bits está en el rango de 0 a 127.
Algunos mensajes de error son los siguientes: Destino no alcanzable, Paquete muy
grande (Packet too big), Time exceded, etc.
b. Mensajes informativos :
Estos mensajes son utilizados para proporcionar funciones de diagnóstico y
funciones adicionales del host, tales como MLD y Neighbor Discovery.
Dentro de estos mensajes se encuentran los mensajes de Echo Request y Echo
Reply.
Encabezado ICMPv6
Campo Descripción
Type Indica el tipo de mensaje ICMPv6. Su tamaño es
de 8 bits.
El bit de mayor orden es :
Mensaje de error = 0
Mensajes informativos = 1
Code Permite diferenciar múltiples mensajes dentro de
un tipo de mensaje dado.
Si solo hay un mensaje para un tipo dado, asume
el valor 0.
Campo Descripción
Type Valor =2
Code Código = 0
Campo Descripción
Code Código = 0
Checksum Suma de verificación de error
Identifier Permite identificar el mensaje enviado
Sequence Number Proporciona la secuencia de los mensajes
enviados.
Data Normalmente es CERO, o puede
almacenar data opcional enviada por el
host transmisor.
El PATH MTU es la ruta con el MTU más pequeño de todas las posibles rutas entre
un equipo origen y otro destino.
Para descubrir el PATH MTU, el equipo transmisor utiliza los mensajes ICMPv6
Packet Too Big.
Autoevaluación
3. Describa brevemente el mensaje de tipo Packet Too Big e identifique para qué se le
utiliza.
Para recordar
• Neighbor Discovery es el proceso que hace uso de 5 tipos de mensajes ICMP y que
permiten gestionar la comunicación nodo-a-nodo en un enlace. Esta técnica reemplaza
al protocolo ARP en su integridad, y los mensajes ICMPv4 Router Discovery y al
mensaje ICMPv4 Redirect.
• Los mensajes de error ICMP son usados para reportar errores en la entrega o re-envío
de los paquetes IPv6 por parte de nodos destinos o routers intermedios. Para
conservar más convenientemente el ancho de banda los mensajes de error, no son
enviados por cada error encontrado, sino en función a una tasa de envío.
• La técnica denominada PATH MTU es la ruta con el MTU más pequeño de todas las
posibles rutas entre un equipo origen y otro destino. Esta técnica minimiza la cantidad
de fragmentaciones intermedias realizadas por los routers que se encuentran en la
trayectoria de los paquetes.
SEMANA
16
Seguridad en IPv6
TEMA
Seguridad en IPv6
OBJETIVOS ESPECÍFICOS
• Conocer las características de seguridad del protocolo IPv6
CONTENIDOS
• Seguridad en IPv6
• Cabecera de Autenticación (AH)
• Estructura de un encabezado AH
• Encabezado ESP
ACTIVIDADES
• Hacen uso de la técnica de lluvia de ideas para identificar las características de
seguridad del protocolo IPv6.
16 Seguridad en Ipv6
1. Próximo encabezado :
Valor que identifica el encabezado siguiente
2. Longitud de carga útil:
Tamaño de la cabecera de extensión
3. Índice de parámetros de seguridad:
Campo que identifica una asociación especifica de seguridad
4. Número de secuencia:
Proporciona la protección contra re-envíos innecesarios
5. Campo de autenticación :
Número de secuencia
Cifrado
Próximo encabezado
Relleno Longitud de relleno
Data de autenticación
2. Número de secuencia:
Campo para proporcionar la secuencia de los datagramas cifrados
4. Data de autenticación :
Proporciona la data que permitirá garantizar la confidencialidad de la información
transmitida.
Autoevaluación
Para recordar