Consulta-Tecnologías de Capa 2 de WAN

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

Tecnologías de capa 2 de WAN – Laura Camila Duque Vinasco

• Frame Relay

¿Qué es Frame Relay?

Frame Relay es una tecnología de conmutación de paquetes ofrecida como servicio de


telecomunicaciones por empresas de telecomunicaciones y operadores de larga distancia, utilizada
principalmente para enlaces WAN. La retransmisión de tramas se puede utilizar para encapsular el
tráfico de la red de área local (LAN), como las tramas de Ethernet para la transmisión a través de
líneas de transmisión de datos digitales para redes de área amplia (WAN) y puede conectar múltiples
LAN para formar una WAN multipunto. La tecnología de retransmisión de tramas era originalmente
una rama de la tecnología de comunicación digital de la Red digital de servicios integrados (RDSI).

¿Cómo funciona Frame Relay?

La tecnología Frame Relay es un servicio de conmutación de paquetes que es similar en operación


y considera el reemplazo de la tecnología de conmutación de paquetes X.25 más antigua, pero
proporciona un mayor rendimiento y una mayor eficiencia porque es un protocolo más
racionalizado. Por ejemplo, mientras X.25 incluye funciones de corrección de errores, el Frame Relay
deja la corrección de errores hasta los puntos finales de la estación para acelerar las comunicaciones
WAN. Cuando se producen errores, Frame Relay quita el cuadro infractor y retransmite los datos.
Frame Relay tampoco admite las funciones de control de flujo salto por salto que admite X.25, lo
que agiliza aún más su funcionamiento.

Como en otras redes de conmutación de paquetes, la retransmisión de tramas funciona al dividir


los datos de la red en "paquetes" y etiquetar cada paquete con una dirección de destino. Cada
paquete se retransmite a través de los nodos de conmutación que forman la red de conmutación
de paquetes. Los paquetes se vuelven a ensamblar en el orden correcto en su destino. Frame Relay
es un servicio independiente del protocolo que utiliza dispositivos especiales de retransmisión de
tramas para encapsular datos de red en paquetes de longitud variable llamados tramas utilizando
el protocolo de capa de enlace de datos llamado Control de enlace de datos de alto nivel (HDLC).
Los enlaces Frame Relay pueden tener latencia impredecible para formar conexiones porque las
redes Frame Relay no tienen un esquema de priorización.

En lugar de retransmitir cada paquete individualmente a través de la red frame relay, frame relay
utiliza circuitos virtuales que actúan como rutas temporales a través de la red. Estos circuitos
virtuales pueden ser circuitos virtuales conmutados ( SVC ) que se configuran y destruyen llamada
por llamada o circuitos virtuales permanentes ( PVC ) que se establecen de antemano. Se prefieren
los PVC porque proporcionan un grado de servicio más confiable para el cliente. Los PVC
proporcionan conexiones punto a punto dedicadas entrelas instalaciones locales y remotas del
cliente a través de una nube frame relay. Al establecer múltiples PVC, puede ejecutar múltiples
enlaces WAN lógicos a través de una única conexión de retransmisión de trama física. Los PVC se
administran utilizando el protocolo de Interfaz de administración local (LMI), que proporciona
características para verificar la integridad del enlace y administrar el estado de los PVC.
Los PVC funcionan de manera similar a las líneas privadas arrendadas y proporcionan al cliente un
nivel de servicio acordado, denominado Tasa de información comprometida (CIR). El CIR, un nivel
negociado de servicio que usted compra al operador especifica su velocidad máxima de transmisión
a través de la red frame relay. Las velocidades suelen oscilar entre 56 Kbps y velocidades T3 y
superiores, según sus requisitos. CIR actúa como un tipo de mecanismo de limitación de ancho de
banda que facilita el uso de circuitos de retransmisión de tramas compartidas por diferentes
usuarios. Algunos proveedores de servicios permiten que las ráfagas temporales de tráfico excedan
el CIR, pero cualquier tráfico por encima de la tasa de ráfaga de información comprometida (CIBR)
se cae y requiere retransmisión.

Frame Relay corre sobre portadoras T1 y T1 fraccionales con velocidades de transmisión que van
desde 56 Kbps hasta 1.544 Mbps o más. Dado que Frame Relay es independiente de los protocolos
de red como TCP / IP e IPX / SPX-Compatible Protocol, tiene más flexibilidad que X.25.

Las implementaciones de Frame Relay suelen seguir una de las dos topologías de red:

✓ Topología de malla completa: en esta implementación, cada dispositivo de retransmisión


de trama está conectado a cualquier otro dispositivo mediante PVC para formar una WAN
multipunto. Cuando una actualización se transmite a un dispositivo, también se ve en
cualquier otro dispositivo. La ventaja de esta configuración es que toda la red frame relay
se puede tratar como una única conexión de enlace de datos.
✓ Topología parcialmente enredada: esta implementación utiliza una topología en estrella o
de cubo y radio en la que los dispositivos frame relay no están conectados a ningún otro
dispositivo en la nube frame relay. Los diseñadores de redes deben tener cuidado al adoptar
esta configuración para evitar problemas de horizonte dividido.

Para conectar una red a un servicio portador de Frame Relay (FRBS) de telecomunicaciones, se usa
un puente especial, enrutador o dispositivo CSU / DSU (Unidad de servicio de canal / Unidad de
servicio de datos) llamado dispositivo de acceso de frame relay (FRAD). El FRAD conecta las
instalaciones de su cliente a un Edge Switch (ES) en la nube de frame relay de su proveedor (la
colección de todos los circuitos de frame relay pertenecientes a su proveedor). Vea la ilustración
para un ejemplo.
La tecnología Frame Relay es más popular en Norteamérica que las tecnologías de conmutación de
paquetes más lentas como X.25, mientras que en Europa, X.25 ha sido tradicionalmente una
solución más popular. Los servicios de retransmisión de tramas fueron ofrecidos por primera vez en
1992 por AT&T, Sprint y otros operadores, que han instalado puntos de presencia de retransmisión
de tramas (POP) para conexiones a la oficina central (CO) de las empresas de telecomunicaciones
locales en las principales ubicaciones metropolitanas de los Estados Unidos.

• ATM

Modo de transferencia asincrónica (ATM) es un protocolo de capa de enlace de datos como


Ethernet, dirigido a redes de área amplia (WAN) así como a redes de área local (LAN). Mientras que
Ethernet está realmente orientado a transportar solo tráfico de Protocolo de Internet (IP), ATM está
diseñado para integrar las necesidades de datos y voz en una red.

Si puede imaginarse que su gobierno prohíbe toda moneda de curso legal, excepto una sola moneda,
puede tener una idea de cómo funciona ATM. Imagine la vida con solo una moneda, tal vez lo
suficiente como para comprar, por ejemplo, un par de zapatos. Solo tiene un suministro de esta
moneda, y debe usarla para cubrir todas sus transacciones de dinero.

ATM tiene "celdas" de longitud fija de 53 bytes de longitud en contraste con las "tramas" de longitud
variable de Ethernet. Este tamaño de celda es un compromiso entre los requisitos de trama grande
de la transmisión de datos y las necesidades relativamente pequeñas de las llamadas de voz, así
como su única denominación de moneda es un compromiso entre la pequeña cantidad de dinero
necesaria para comprar una taza de café y la cantidad relativamente grande requerida para comprar
un televisor.

Al atender a ambas formas de tráfico de red, ATM se puede utilizar para manejar las necesidades
de red de una empresa, eliminando la necesidad de redes de voz y datos separadas. Sin embargo,
el rendimiento también puede verse comprometido, y la red puede no ser tan eficiente como las
redes dedicadas para cada servicio. Intenta comprar una casa con una bolsa llena de monedas y
deberías darte cuenta del problema.

Las celdas de 53 bytes de ATM contienen cada una una cabecera de 5 bytes junto con 48 bytes de
datos, y son posibles velocidades de transmisión generales desde unas pocas decenas de Mbit / s

hasta varios Gbit / s. ATM es un protocolo orientado a la conexión, lo que significa que debe
establecer una conexión (o "circuito") entre dos dispositivos antes de que pueda comenzar a enviar
información entre ellos. Esto es diferente del funcionamiento de Ethernet donde se envían tramas
con información de direccionamiento para orientarse (la llamada red "sin conexión").

El beneficio de las celdas de longitud fija es que el tráfico en la red es muy predecible, y es posible
una conmutación muy rápida de celdas debido al reloj incorporado de las celdas que
viajan. Debido a esta previsibilidad, ahora es posible garantizar niveles específicos de servicio al
tráfico que pueden ser muy sensibles al tiempo (como las llamadas de voz y las
videoconferencias). Las redes IP que utilizan Ethernet son lo que se conoce como "el mejor
esfuerzo", lo que significa que no se pueden dar garantías de calidad de servicio (QOS), y la red
hará todo lo posible para obtener información de A a B lo más rápido posible. A este respecto,
ATM realmente tiene la ventaja.
Cuando ATM establece una conexión entre dos dispositivos, utiliza lo que se conoce como canales
virtuales (VC) y rutas virtuales (VP). Un VP es una ruta entre dos puntos, y dentro de ella puede
haber muchos (hasta varios miles) VC que se inician para cada intercambio de información
específico. La ventaja de tener las rutas establecidas es que todos los canales dentro de una ruta
pueden beneficiarse de las mismas funciones de administración. Una ventaja adicional es que
agregar nuevos canales es más simple, ya que las bases del enlace ya están en su lugar. Una vez
que dicho VC está en su lugar, las celdas se pueden cambiar relativamente rápido a través de
puntos intermedios y directamente a su destino.

El encabezado de 5 bytes en la celda ATM contiene un identificador de ruta virtual (VPI) y un


identificador de canal virtual (VCI) que sirven para identificar la ruta exacta y el canal al que

pertenece cada celda, formando un "circuito virtual". Cabe señalar que hay dos tipos de conexión
que se pueden hacer. Los circuitos virtuales permanentes (PVC) son conexiones que están
constantemente en su lugar, mientras que los circuitos virtuales conmutados (SVC) son aquellos
que pueden crearse y destruirse dinámicamente según lo requiera la red.

Como nota final, en una aplicación de la vida real es probable que el tráfico IP pueda estar
viajando a través de una red ATM que luego salga a la fibra óptica a través de la Jerarquía digital
síncrona (SDH). Tal esquema se conoce como IP sobre ATM sobre SDH.

Puntos clave sobre ATM

✓ Es un protocolo de capa de enlace de datos diseñado para soportar voz y datos


✓ "Celdas" de longitud fija de 53 bytes (incluido el encabezado de 5 bytes)
✓ Protocolo orientado a la conexión con tráfico de red predecible debido a celdas de longitud
fija
✓ La calidad del servicio es posible, en contraste con el servicio de "mejor esfuerzo" de
Ethernet
✓ Rutas virtuales (VP) que contienen varios canales virtuales (VC); Los identificadores para
cada uno (VPI y VCI) en los encabezados definen un circuito virtual
✓ Son posibles los circuitos virtuales permanentes (PVC) y los circuitos virtuales conmutados
(SVC)
✓ Las capas de adaptación proporcionan diferentes niveles de servicio, desde velocidad de
bits constante (CBR) hasta velocidad de bits no especificada (UBR)
• MPLS

¿Alguna vez ordenó compró algo online y luego rastreó el paquete? Y percibió que hace paradas
extrañas y aparentemente ilógicas en todo el país. Es similar a la forma en que funciona el
enrutamiento IP en Internet. Cuando un enrutador de Internet recibe un paquete de IP, ese paquete
no contiene información más allá de una dirección IP de destino. No hay instrucciones sobre cómo
ese paquete debe llegar a su destino o cómo debe tratarse en el camino.

Cada enrutador debe tomar una decisión de reenvío independiente para cada paquete basándose
únicamente en el encabezado de la capa de red del paquete. Por lo tanto, cada vez que un paquete
llega a un enrutador, el enrutador debe "pensar" dónde enviar el paquete a continuación. El
enrutador hace esto al referirse a tablas de enrutamiento complejas.

El proceso se repite en cada salto a lo largo de la ruta hasta que el paquete finalmente llegue a su
destino. Todos esos saltos y todas esas decisiones de enrutamiento individuales dan como resultado
un rendimiento deficiente para aplicaciones sensibles al tiempo como videoconferencia o voz sobre
IP (VoIP).

¿Qué es MPLS?

La conmutación de etiquetas de protocolo múltiple (MPLS) aborda este problema estableciendo


rutas predeterminadas y altamente eficientes.

Con MPLS, la primera vez que un paquete ingresa a la red, se asigna a una clase de equivalencia de
reenvío específica (FEC), que se indica al agregar una secuencia de bit corto (la etiqueta) al paquete.

Cada enrutador de la red tiene una tabla que indica cómo manejar los paquetes de un tipo de FEC
específico, por lo que una vez que el paquete ha ingresado a la red, los enrutadores no necesitan
realizar un análisis de encabezado. En cambio, los enrutadores posteriores usan la etiqueta como
un índice en una tabla que les proporciona un nuevo FEC para ese paquete.

Esto le da a la red MPLS la capacidad de manejar paquetes con características particulares (tales
como provenientes de puertos particulares o que transportan tráfico de tipos de aplicaciones
particulares) de manera consistente. Los paquetes que transportan tráfico en tiempo real, como voz
o video, se pueden asignar fácilmente a rutas de baja latencia en toda la red, algo que es difícil con
el enrutamiento convencional.
El punto clave de la arquitectura con todo esto es que las etiquetas proporcionan una forma de
adjuntar información adicional a cada paquete, información que va más allá de lo que los
enrutadores tenían previamente.

¿Cómo funciona MPLS?

La belleza de MPLS es que no está ligada a ninguna tecnología subyacente. Fue diseñado en los días
de ATM y Frame Relay como una técnica de superposición diseñada para simplificar y mejorar el
rendimiento: esa es la parte del "protocolo múltiple".

El ATM y el Frame Relay son memorias lejanas, pero MPLS sigue vivo en las redes troncales de los
operadores y en las redes empresariales. Los casos de uso más comunes son sucursales, redes de
campus, servicios Ethernet metropolitanos y empresas que necesitan calidad de servicio (QoS) para
aplicaciones en tiempo real.

MPLS, ¿Layer 2 o Layer 3?

Ha habido mucha confusión sobre si MPLS es un servicio de Capa 2 o Capa 3. Pero MPLS no encaja
perfectamente en la jerarquía de siete capas de OSI. De hecho, uno de los beneficios clave de MPLS
es que separa los mecanismos de reenvío del servicio de enlace de datos subyacente. En otras
palabras, MPLS puede usarse para crear tablas de reenvío para cualquier protocolo subyacente.

Específicamente, los enrutadores MPLS establecen una ruta de conmutación de etiquetas (LSP), una
ruta predeterminada para enrutar el tráfico en una red MPLS, según los criterios de la FEC. Solo
después de que se haya establecido un LSP, puede producirse el reenvío de MPLS. Los LSP son
unidireccionales, lo que significa que el tráfico de retorno se envía a través de un LSP diferente.

Cuando un usuario final envía tráfico a la red MPLS, se agrega una etiqueta MPLS mediante un
enrutador de entrada MPLS que se encuentra en el borde de la red. La etiqueta MPLS consta de
cuatro subpartes:

La etiqueta: contiene toda la información de los enrutadores MPLS para determinar dónde debe
reenviarse el paquete.

Experimental: se usan bits experimentales para Quality of Service (QoS) para establecer la prioridad
que debe tener el paquete etiquetado.
Parte inferior de la pila: la parte inferior de la pila le dice al enrutador MPLS si es el último tramo del
viaje y no hay más etiquetas que preocuparse.

Time-To-Live: identifica cuántos saltos puede hacer el paquete antes de descartarlo.

MPLS Pros y contras

Los beneficios de MPLS son escalabilidad, rendimiento, mejor utilización del ancho de banda,
congestión de red reducida y una mejor experiencia para el usuario final.

MPLS en sí mismo no proporciona cifrado, pero es una red privada virtual y, como tal, está
particionado fuera de Internet público. Por lo tanto, MPLS se considera un modo de transporte
seguro. Y no es vulnerable a ataques de denegación de servicio, lo que podría afectar las redes
basadas en IP puro.

En el lado negativo, MPLS es un servicio que debe comprarse a un operador y es mucho más costoso
que enviar tráfico a través de Internet público.

A medida que las empresas se expanden a nuevos mercados, pueden encontrar difícil encontrar un
proveedor de servicios MPLS que pueda ofrecer cobertura global. Por lo general, los proveedores
de servicios combinan la cobertura global a través de asociaciones con otros proveedores de
servicios, lo que puede ser costoso.

Y MPLS fue diseñado en una época en que las sucursales enviaban tráfico de vuelta a una sede
principal o centro de datos, no para el mundo de hoy en día, donde los trabajadores de la sucursal
quieren acceso directo a la nube.

Referencias Web

1. Conceptos básicos de Frame Relay explicados en lenguaje fácil, ComputerNetworkingNotes.


(Recuperado de: https://www.computernetworkingnotes.com/ccna-study-guide/basic-concepts-
of-frame-relay-explained-in-easy-language.html)

2. Frame Relay, Network Encyclopedia. (Recuperado de: https://networkencyclopedia.com/frame-


relay/)

3. ATM, Lightreading. (Recuperado de: https://www.lightreading.com/asynchronous-transfer-


mode-(atm)/d/d-id/575165)

4. Cómo funciona MLPS, Network World. (Recuperado de:


https://www.networkworld.es/telecomunicaciones/como-funciona-mpls)

5. MLPS WAN, NexGen Networks. (Recuperado de: https://www.nexgen-net.com/services/mpls-


wan.html)

6. Preguntas frecuentes sobre MPLS para principiantes, CISCO. (Recuperado de:


https://www.cisco.com/c/es_mx/support/docs/multiprotocol-label-switching-mpls/mpls/4649-
mpls-faq-4649.html#anc1)

También podría gustarte