Professional Documents
Culture Documents
Antología
22/04/2010
Universidad Tecnológica de Izúcar de Matamoros
Mtro. Sergio Valero Orea
“Redes convergentes”
Contenido
Objetivo. El alumno diseñará redes convergentes aplicando las arquitecturas orientadas al servicio
considerando la infraestructura adecuada para garantizar la transmisión eficiente de información.
Hay tres reglas que ayudan a garantizar la efectividad y la eficiencia en los proyectos de diseño del
cableado estructurado.
La primera regla es buscar una solución completa de conectividad. Una solución óptima para
lograr la conectividad de redes abarca todos los sistemas que han sido diseñados para conectar,
tender, administrar e identificar los cables en los sistemas de cableado estructurado. La
implementación basada en estándares está diseñada para admitir tecnologías actuales y futuras. El
cumplimiento de los estándares servirá para garantizar el rendimiento y confiabilidad del proyecto
a largo plazo.
Hay siete subsistemas relacionados con sistemas de cableado estructurado como se ve en la figura
1. Cada subsistema realiza funciones determinadas para proveer servicios de datos y voz en toda
la planta de cables:
El demarc es donde los cables del proveedor externo de servicios se conectan a los cables del
cliente en su edificio. El cableado backbone está compuesto por cables de alimentación que van
desde el demarc hasta la salas de equipamiento y luego a la salas de telecomunicaciones en todo
el edificio. El cableado horizontal distribuye los cables desde las salas de telecomunicaciones hasta
las áreas de trabajo. Las salas de telecomunicaciones es donde se producen las conexiones que
proporcionan una transición entre el cableado backbone y el horizontal.
1.2 Escalabilidad
Una LAN que es capaz de adaptarse a un crecimiento posterior se denomina red escalable. Es
importante planear con anterioridad la cantidad de tendidos y de derivaciones de cableado en el
área de trabajo. Es preferible instalar cables de más que no tener los suficientes.
El proveedor de telefonía local normalmente debe terminar el cableado dentro de los 15 m (49,2
pies) del punto de penetración del edificio y proveer protección primaria de voltaje. Por lo general,
el proveedor de servicios instala esto.
Asociación de Industrias Electrónicas (EIA) desarrollan y publican estándares para muchas
industrias, incluyendo la industria del cableado. Se deben aplicar estos estándares durante
cualquier proceso de instalación o mantenimiento del cableado de voz o de datos, para garantizar
que el cableado sea seguro, esté correctamente instalado, y tenga el rendimiento adecuado.
El estándar TIA/EIA-569-A especifica los requisitos para el espacio del demarc. Los estándares
sobre el tamaño y estructura del espacio del demarc se relacionan con el tamaño del edificio. Para
edificios de más de 2000 metros cuadrados (21.528 pies cuadrados), se recomienda contar con
una habitación dentro del edificio que sea designada para este fin y que tenga llave.
Las siguientes son pautas generales para determinar el sitio del punto de demarcación.
Una vez que el cable ingresa al edificio a través del demarc, se dirige hacia la instalación de
entrada (EF), que por lo general se encuentra en la sala de equipamiento (ER). La sala de
equipamiento es el centro de la red de voz y datos. La sala de equipamiento es esencialmente una
gran sala de telecomunicaciones que puede albergar el marco de distribución, servidores de red,
routers, switches, PBX telefónico, protección secundaria de voltaje, receptores satelitales,
moduladores y equipos de Internet de alta velocidad, entre otros. Los aspectos de diseño de la
sala de equipamiento se describen en los estándares TIA/EIA-569-A.
El hub de cableado y un panel de conexión de una TR pueden estar montados contra una pared
con una consola de pared con bisagra, un gabinete para equipamiento completo, o un bastidor de
distribución.
La consola de pared con bisagra debe ser colocada sobre un panel de madera terciada que cubra la
superficie de pared subyacente. La bisagra permite que la unidad pueda girar hacia afuera de
modo que los técnicos tengan fácil acceso a la parte posterior de la pared. Es importante dejar 48
cm (19 pulgadas) para que el panel se pueda separar de la pared.
El bastidor de distribución debe tener un mínimo de 1 metro (3 pies) de espacio libre para poder
trabajar en la parte delantera y trasera del bastidor. Para montar el bastidor de distribución, se
utiliza una placa de piso de 55,9 cm (22 pulgadas). La placa de piso brinda estabilidad y determina
la distancia mínima para la posición final del bastidor de distribución. La Figura 2 muestra un
bastidor de distribución.
Un gabinete para equipamiento completo requiere por lo menos 76,2 cm (30 pulgadas) de espacio
libre delante de la puerta para que ésta se pueda abrir. Los gabinetes para equipamiento tienen
por lo general 1,8 m (5,9 pies) de alto, 0,74 m (2,4 pies) de ancho y 0,66 m (2.16 pies) de
profundidad.
Cuando coloque el equipamiento dentro de los bastidores de equipos, tenga en cuenta si el equipo
utiliza electricidad o no. Otras consideraciones a tener en cuenta son el tendido y administración
de los cables y la facilidad de uso. Por ejemplo, un panel de conexión no debe colocarse en la parte
de arriba de un bastidor si se van a realizar modificaciones significativas después de la instalación.
Los equipos pesados como switches y servidores deben ser colocados cerca de la base del bastidor
por razones de estabilidad.
1.5 MC, IC y HC
Por varias razones, la mayoría de las redes tienen varias TR. Si una red está distribuida en varios
pisos o edificios, se necesita una TR para cada piso de cada edificio. Los medios sólo pueden
recorrer cierta distancia antes de que la señal se comience a degradar o atenuar. Es por ello que
las TR están ubicadas a distancias definidas dentro de la LAN para ofrecer interconexiones y
conexiones cruzadas a los hubs y switches, con el fin de garantizar el rendimiento deseado de la
red. Estas TR contienen equipos como repetidores, hubs, puentes, o switches que son necesarios
para regenerar las señales.
La TR primaria se llama conexión cruzada principal (MC) La MC es el centro de la red. Es allí donde
se origina todo el cableado y donde se encuentra la mayor parte del equipamiento. La conexión
cruzada intermedia (IC) se conecta a la MC y puede albergar el equipamiento de un edificio en el
campus. La conexión cruzada horizontal (HC) brinda la conexión cruzada entre los cables backbone
y horizontales en un solo piso del edificio.
Hay numerosas organizaciones que regulan y especifican los diferentes tipos de cables. Las
agencias locales, estatales, de los condados o provincias y nacionales también emiten códigos,
especificaciones y requisitos.
Una red que se arma según los estándares debería funcionar bien, o interoperar con otros
dispositivos de red estándar. El rendimiento a largo plazo y el valor de la inversión de muchos
sistemas de cableado de red se ven reducidos porque los instaladores no cumplen con los
estándares obligatorios y recomendados.
La TIA/EIA son asociaciones industriales que desarrollan y publican una serie de estándares sobre
el cableado estructurado para voz y datos para las LAN.
Tanto la TIA como la EIA están acreditadas por el Instituto Nacional Americano de Normalización
(ANSI) para desarrollar estándares voluntarios para la industria de las telecomunicaciones. Muchos
de los estándares están clasificados ANSI/TIA/EIA. Los distintos comités y subcomités de TIA/EIA
desarrollan estándares para fibra óptica, equipo terminal del usuario, equipo de red,
comunicaciones inalámbricas y satelitales.
Estándares TIA/EIA
Aunque hay muchos estándares y suplementos, los que se enumeran a continuación son los que
los instaladores de cableado utilizan con más frecuencia:
Los modelos de redes jerárquicos permiten diseñar redes que usan especialización de funciones
combinados con una organización jerárquica. Tal diseño simplifica las tareas requeridas para
construir una red que cumplan los requerimientos actuales y puede crecer para cumplir los
requerimientos a futuro. Los modelos jerárquicos utilizan niveles o capas para simplificar las
tareas, así, cada capa se enfoca en una función específica, permitiéndote elegir los sistemas y
características correctos de cada capa. Los modelos jerárquicos aplican a diseños tanto de redes
LAN como WAN.
Los beneficios de utilizar modelos jerárquicos para el diseño de las redes incluyen los siguientes:
Reducción de costos
Facilidad de comprensión o interpretación
Crecimiento modular
Mejora en el aislamiento de errores
Como se muestra en la figura 2, un tradicional diseño jerárquico para una LAN tiene 3 capas. Entre
las ventajas que tenemos de separar las redes en 3 niveles tenemos que es más fácil diseñar,
implementar, mantener y escalar la red, además de que la hace más confiable, con una mejor
relación costo/beneficio. Cada capa tiene funciones específicas asignadas y no se refiere
necesariamente a una separación física, sino lógica; así que podemos tener distintos dispositivos
en una sola capa o un dispositivo haciendo las funciones de más de una de las capas.
Capa de Núcleo (core layer): esta capa es el backbone de alta velocidad de la red, la cual es crucial
para comunicaciones corporativas. Debe tener las siguientes características: transporte rápido,
alta confiabilidad, redundancia, tolerancia a fallos, rápida adaptación a fallos, baja latencia. Su
única función es switchear tráfico tan rápido como sea posible.
Se debe diseñar el core para una alta confiabilidad (high reliability), por ejemplo con tecnologías
de capa dos que faciliten redundancia y velocidad, como FDDI, Gigabit Ethernet (con enlaces
redundantes), ATM, y seleccionamos todo el diseño con la velocidad en mente, procurando la
latencia más baja, y considerando protocolos con tiempo de convergencia más bajos.
Capa de distribución (distribution layer): routing. Esta capa es el medio de comunicación entre la
capa de acceso y el núcleo. Las funciones de esta capa son proveer ruteo, filtrado, acceso a la red
WAN y determinar qué paquetes deben llegar al core. Aquí se implementan las políticas de red,
por ejemplo: ruteo, access-list, filtrado de paquetes, colas de espera, se implementan la seguridad
y las políticas de red (traducciones NAT y firewalls), la redistribución entre protocolos de ruteo,
ruteo entre VLANs, se definen dominios de broadcast y multicast.
Capa de acceso (access layer): switching. Esta capa proporciona a los usuarios acceso a segmentos
locales de la red, controla a los usuarios y el acceso de grupos de trabajo o los recursos de la red.
Entre las funciones más importantes están la continuación de control de tráfico y políticas,
creación de dominios de colisión separados (segmentación), alta disponibilidad, seguridad en
puertos, limite en tasas de transferencia, inspección del protocolo ARP. En esta capa se lleva a
cabo la segmentación Ethernet, DDR y ruteo estático.
Los switchs LANs de esta capa pueden controlar el acceso a los puertos y limitar la tasa de
transferencia al enviar y recibir tramas hacia y desde el switch. Esto se puede implementar al
identificar las direcciones MAC utilizando ARP y utilizando listas de acceso.
2.2 La arquitectura de redes orientadas a servicio de Cisco
La arquitectura SONA (Service Oriented Network Architecture, por sus siglas en inglés), es un
framework arquitectónico que ilustra cómo construir sistemas integrados y guía a la evolución de
las empresas hacia redes más inteligentes. Al utilizar el framework SONA, las empresas pueden
mejorar la flexibilidad e incrementar su eficiencia al optimizar sus aplicaciones, procesos de
negocio y sus recursos al habilitar las Tecnologías de la Información y tener un efecto mayor en los
negocios.
El framework SONA (figura 3), muestra cómo los sistemas integrados pueden permitir una
arquitectura flexible y dinámica al proveer eficiencia operacional a través de la estandarización y la
virtualización.
Capa de infraestructura en red. Es donde todos los recursos de TI están interconectados a través
de los cimientos de la red convergente. Los recursos de TI incluyen servidores, dispositivos de
almacenamiento y clientes. La capa de infraestructura en red representa cómo esos recursos
existen en diferentes lugares en la red, incluyendo campus, sucursales, data centers, WAN, MAN y
trabajadores remotos. El objetivo de esta capa es proporcionar conectividad, en cualquier lugar y a
cualquier hora.
Capa de servicios interactivos. Esta capa incluye servicios de aplicaciones de red así como
servicios de infraestructura. Esta capa permite una asignación eficiente de recursos para
aplicaciones y procesos de negocios provistos a través de la infraestructura de la red. Esta capa
incluye los siguientes servicios: voz y colaboración, movilidad, wireless, identidad y seguridad,
almacenamiento, cómputo, aplicaciones en red, virtualización, QoS, alta disponibilidad, multicast
IP.
Capa de aplicaciones. Esta capa incluye aplicaciones de negocio y colaboración. El objetivo de esta
capa es recibir requerimientos de negocio e impulsar la eficiencia de la capa de los servicios
interactivos. Esta capa incluye las siguientes aplicaciones colaborativas: mensajería instantánea,
telefonía IP, transmisión de video usando el Cisco Digital Media System, entre otros.
Un sistema de comunicación inalámbrica utiliza energía de radio frecuencia (RF) para transmitir
datos de un punto a otro a través del aire; el término señal es utilizado para referirse a esta
energía de RF. El dato a transmitirse primero es modulado (convertido) en una señal portadora y
después enviado; los receptores demodulan (convierten) la señal y procesan el dato.
Existen diferentes tipos de tecnologías inalámbricas, cada una cubre un área geográfica distinta:
Las redes WLAN remplazan el medio de transmisión de capa 1 de una red alámbrica tradicional
(usualmente cable categoría 5) con radio transmisión sobre el aire. Las WLAN se pueden conectar
a una red LAN cableada y funcionar sobre ella o pueden ser desarrolladas por sí solas donde el
cableado de red no es posible. Una computadora con una NIC inalámbrica se conecta a una WLAN
mediante un punto de acceso (Access point – AP). Una WLAN desarrollada apropiadamente puede
proveer acceso instantáneo a la red desde cualquier lugar dentro de las instalaciones de manera
que los usuarios puedan “vagar” sin perder su conexión a la red.
Las WLAN usan un identificador (SSID – Service Set Identifier) para identificar el nombre de la
WLAN. Este SSID debe ser de 2 a 32 caracteres de longitud. Todos los dispositivos en la WLAN
deben tener configurado el mismo SSID para comunicarse, es similar a una VLAN en una red
cableada.
La capa de control de acceso al medio (MAC) de la IEEE 802.11 implementa el método de acceso
CSMA/CA (Carrier Sense Multiple Access/ Collision Avoidance). Con este método, cada estación
WLAN “escucha” para ver si algún dispositivo está transmitiendo. Si no ocurre actividad, la
estación transmite. Si existe algún tipo de transmisión, la estación usa un conteo regresivo con un
reloj. Cuando el tiempo expira, la estación transmite.
Algunas de las agencias y grupos de estándares relacionados con redes WLAN son los siguientes:
En Septiembre de 1999, la IEEE ratificó el estándar IEEE 802.11 (5 GHz a 54 Mpbs) y el estándar
802.11b (2.4 GHz a 11 Mbps). En Junio del 2003, la IEEE ratificó el estándar 802.11g (2.4 GHz a 54
Mbps); este estándar es compatible con los sistemas 802.11b, ya que ambos usan el mismo ancho
de banda en la misma frecuencia. A continuación se presenta un resumen de los estándares IEEE
802.11 para comunicaciones inalámbricas:
Las redes inalámbricas utilizan un medio compartido, el aire, para transmitir ondas de radio
frecuencia (RF). En este, existen obstáculos e interferencias que afectan la calidad del aire. Dos
redes similares (por ejemplo, dos sucursales bancarias de arquitectura similar) pueden dar
rendimientos muy diferentes por causa del entorno: vecinos, ruidos, materiales de construcción,
decorados, etc. Por lo tanto, es de vital importancia, antes de desplegar una red inalámbrica,
estudiar “el terreno” y el entorno. A ese estudio se le conoce como “site survey” – estudio o
evaluación de sitio.
Un site survey de RF es el primer paso en el diseño y desarrollo de una red inalámbrica, y el más
importante para asegurar la operación deseada. Un estudio de sitio es un proceso en el cual el
“perito” estudia las instalaciones para entender las características de RF en el ambiente, planea y
revisa las áreas de cobertura, verifica la interferencia y determina el lugar apropiado para
establecer los dispositivos inalámbricos de la infraestructura de la red.
La meta principal del site survey es proveer suficiente información para determinar el número y
ubicación de los access points que provean la adecuada cobertura a través del edificio. Un site
survey de RF adicionalmente detecta la presencia de interferencia proveniente de otros orígenes
(microondas, teléfonos inalámbricos) que puedan degradar el performance de la WLAN.
Teare D. (2007). Designing for Cisco Internetwork Solution. 2nd Ed. Pearson Education.
Bruno A. (2007). CCDA Official Exam Certification Guide. 3rd Ed. Pearson Education.
Unidad II. Calidad en el servicio (QoS)
Objetivo. El alumno implementará y administrará la QoS en las redes de las organizaciones para
aprovechar al máximo la infraestructura de telecomunicaciones.
Hace pocos años, debido básicamente a la baja capacidad de las redes, la posibilidad de llevar a
cabo aplicaciones relacionadas con información multimedia (videoconferencia, audioconferencia,
video bajo demanda, pizarras compartidas, teletrabajo, telemedicina, etc.) eran prácticamente
impensable, pero en estos momentos es una realidad. Se ha avanzado mucho en la comprensión
de audio y video, y en tecnologías de redes.
Hasta hace poco este término no era importante en la mayoría de los sistemas. Para comprobarlo
tan solo tenemos que pensar en los algoritmos que se usan actualmente en la transmisión de
paquetes por la red (pensar en el sistema Best Effort utilizado en Internet), estos algoritmos suelen
garantizar la llegada de todos los paquetes, pero no dan ninguna cota respecto al límite de su
llegada a destino. Esta forma de transmisión es buena para muchas aplicaciones, como por
ejemplo la transmisión de archivos (FTP), la navegación vía Web, el correo electrónico, donde lo
importante es que los datos lleguen correctamente. Para el tráfico en tiempo real, en cambio, los
datos necesitan llegar a su destino en un tiempo determinado, ya que tardar un poco más implica
que la aplicación se detendría por falta de datos, lo cual sería inadmisible.
La calidad en el servicio (QoS) es el rendimiento de extremo a extremo de los servicios electrónicos
tal y como los percibe el usuario final. Los parámetros de QoS son: el ancho de banda (bandwith),
el retardo (delay), la variación del retardo (jitter) y la pérdida de paquetes (packet loss). Una red
debe garantizar cierto nivel de calidad de servicio para un nivel de tráfico que sigue un conjunto
especificado de parámetros.
La implementación de políticas de calidad de servicio se puede enfocar en varios puntos según los
requerimientos de la red, los principales son:
Aumentar el ancho de banda significa poder transmitir más datos (algo así como aumentar el
número de carriles de una autopista), pero también implica un incremento económico y, en
ocasiones, resulta imposible su ampliación sin cambiar de tecnología de red.
Retardo (Delay)
Es la variación temporal y/o retraso de la llegada de los flujos de datos a su destino. Es una
característica que se hace muy evidente en aplicaciones como la videoconferencia donde todos
hemos experimentado alguna vez el retraso en la recepción de algún mensaje vocal enviado por
nosotros y el retardo existente entre la señal de voz y la señal de video. Teniendo en cuenta hacia
qué tipo de aplicaciones se están orientando las telecomunicaciones (es evidente la llegada de voz
sobre IP), es necesario que las en las políticas de QoS definidas para nuestra red este parámetro
sea reducido al mínimo.
Es lo que ocurre cuando los paquetes transmitidos en una red no llegan a su destino en debido
orden o en la base de tiempo determinada, es decir, varían en latencia. Algo semejante a la
distorsión de una señal. En redes de conmutación de paquetes, jitter es una distorsión de los
tiempos de llegada de los paquetes recibidos, comparados con los tiempos de los paquetes
transmitidos originalmente. Esta distorsión es particularmente perjudicial para el tráfico
multimedia.
Una solución ante el jitter es la utilización de buffers en el receptor. Pero esta medida es poco
eficaz, dado que sería necesario un gran tamaño para los buffers, lo que implica un costo
económico en los equipos, y porque estos buffers incrementarían el retardo. El tamaño de uno de
estos buffers debería ser al menos dos veces el tamaño del jitter y el retardo adicional introducido
por el buffer podría superar el retardo máximo permitido por la aplicación.
Indica el número de paquetes perdidos durante la transmisión. Normalmente se mide en tanto por
ciento. Por ejemplo, los routers pierden/niegan/descartan paquetes por muchas razones, muchas
de las cuales, las herramientas QoS no pueden hacer nada.
2. Modelos de QoS
|
Existen 3 modelos de QoS llamados Best-Effort, IntServ y DiffServ. Los cuales serán definidos a
continuación:
Best-Effort. Este modelo es el más sencillo. Es un modelo simple de servicio, en el cual, una
aplicación envía información cuando ella lo desea, en cualquier cantidad, sin ningún permiso
requerido y sin informar previamente a la red. Es decir, simplemente este modelo quiere decir que
no se aplica calidad en el servicio al tráfico. Además, este modelo no asegura tasa de
transferencia, retraso o fiabilidad. Por último, utiliza el modelo de cola FIFO (First In First Out) para
sus transmisiones.
Decimos que una red o un proveedor ofrece calidad en el servicio cuando se garantiza el valor de
uno o varios de los parámetros que definen esta calidad. Si el proveedor no se compromete en
ningún parámetro decimos que lo que ofrece es un servicio “best-effort”. TCP/IP fue diseñado
para dar un servicio best-effort también. Existen aplicaciones que no pueden funcionan en redes
congestionadas con best-effort, por ejemplo, la videoconferencia o VoIP.
IntServ (Integrated Services). Este modelo se basa en la idea de reserva de recursos en la red por
flujos. Un flujo es una cadena de paquetes que fluyen por la red desde una aplicación en una
computadora origen hasta una aplicación en una computadora destino. Para cada flujo entrante se
definen los recursos (ancho de banda, retardo, etc.) que serán necesarios para este flujo. La
reserva de recursos debe establecerse previamente en cada uno de los routers que forman parte
del camino entre el origen y el destino. Cada nodo en el camino indica si puede asegurar la reserva
y mantiene una tabla con el estado de la reserva por flujo.
La principal limitación de este modelo es la gran cantidad de información que debe almacenar
cada nodo, provocando que la solución no sea aplicable en situaciones con gran cantidad de flujos
entre usuarios finales.
DiffServ (Differentiated Services). Este modelo será descrito a continuación.
Differentiated Services es un protocolo de QoS propuesto por IETF [RFC 2475 y RFC 2474] que
permite distinguir diferentes clases de servicio marcando los paquetes. Consiste en un método
para marcar o etiquetar paquetes, permitiendo a los routers modificar su comportamiento de
envío. Cada tipo de etiqueta representa un determinado tipo de QoS y el tráfico con la misma
etiqueta se trata de la misma forma.
DiffServ fue desarrollada en respuesta a la necesidad de métodos toscos pero simples de proveer
diferentes niveles de servicio para el tráfico de internet y para soportar diferentes tipos de
aplicaciones y negocios específicos.
Para proporcionar los diferentes niveles de servicio utiliza el campo type of service (ToS) o DiffServ
Codepoint (DSCP) de la cabecera del estándar IPv4 e IPv6. Éste es un campo de 8 bits estando los
últimos 2 reservados. Con los 6 bits restantes se consiguen 64 combinaciones: 48 para el espacio
global y 16 para uso local.
Para su funcionamiento, DiffServ divide el tráfico en unas pocas clases y los recursos se asignan
con base a las clases (y no a los flujos individuales como IntServ), lo que hace que esta arquitectura
no sufra el problema de agotamiento de recursos de la red.
Para el control del tráfico DiffServ tiene dos enrutadores (routers): los nodos frontera y los nodos
interiores (Figura 7). Solo los nodos frontera clasifican tráfico y marcan paquetes, mientras que
los nodos interiores usan las clases codificadas en la cabecera del paquete (llamadas clases de
retransmisión o forwarding equivalence class) para determinar el tratamiento de los paquetes. El
tratamiento que reciben los paquetes según su clase se denomina tratamiento de retransmisión
(PHB ó Per-Hop Behaviour).
Toma ventaja de las propiedades escalables de las herramientas QoS basadas en clases
para diferencias entre tipos de paquetes, con la meta de “diferenciar servicios en
Internet”.
En una red simple, los paquetes deberían ser marcados al ingreso a un punto dentro de la
red, con otros dispositivos realizando elecciones QoS basados en el campo marcado.
El campo marcado estará en el encabezado IP y no en el encabezado de la capa de enlace
de datos, ya que el encabezado IP permanece a lo largo de toda la red.
Entre redes, los paquetes pueden ser reclasificados y remarcados al ingresar dentro de
otra red.
Para facilitar el marcado, el encabezado IP ha sido redefinido al incluir un campo de 6 bits
llamado DSCP, el cual permite 64 clasificaciones diferentes.
Aparte de las estrategias generales de QoS, DiffServ realmente provee dos características claves
adicionales: el campo DSCP y algunas sugerencias de cómo usar este campo.
La mayoría de las herramientas QoS clasifican el tráfico. El cual, permite a cada clase de tráfico
recibir un trato diferente con respecto a otras clases de tráfico. Estos diferentes tipos de tráfico,
en terminología QoS se les llama típicamente clases de servicio. La clasificación permite a los
dispositivos decidir qué paquetes son parte de cada clase de servicio.
Casi todas las herramientas QoS usan la clasificación en algún nivel. Para poner un paquete en una
cola de espera diferente a otro paquete, el IOS debe diferenciar de alguna forma entre los dos
paquetes, por ejemplo: paquetes de voz (VoIP) y paquetes de datos.
Por ejemplo, muchas herramientas QoS permiten clasificar utilizando listas de control de acceso
(ACL). Si la ACL 101 permite el paso a un paquete, la herramienta de encolado podría poner el
paquete en una cola, si la ACL 102 permite el paso a otro paquete, este es almacenado en una
segunda cola de espera, y así sucesivamente.
El marcado de tráfico basado en clases puede clasificar paquetes en clases de servicio al examinar
directamente el encabezado de la trama, paquete, celda (ATM) y segmento. Este método de
marcado también puede utilizar ACL para igualar (match) paquetes.
NBAR provee un router con la capacidad de clasificar paquetes, particularmente paquetes difíciles
de identificar. Independientemente, NBAR puede ser configurado para mantener contadores de
tipo de tráfico y volumen de tráfico de cada tipo.
NBAR clasifica paquetes que, normalmente, son difíciles de clasificar. Por ejemplo, algunas
aplicaciones utilizan números de puertos dinámicos, entonces, un comando “match” configurado
estáticamente, buscando por un número de puerto particular TCP o UDP, simplemente podría no
clasificarlo. NBAR puede buscar en el encabezado TCP y UDP y mandar al nombre del host, URL o
tipo MIME en solicitudes HTTP.
Marcado de tráfico
El marcado de tráfico involucra la configuración de algunos bits dentro del encabezado de la capa
de red, con el objetivo de dejar a otros dispositivos QoS realizar la clasificación basado en los
valores de las marcas. Algunas opciones del marcado de tráfico tienen sentido para todos los
dispositivos de una LAN, mientras otros solamente cuando se utilizan plataformas de hardware
específicas.
Los dos campos más populares para el marcado de tráfico para QoS son el campo “prioridad”
(Precedence) y el campo “DSCP” (Differentiated Services Code Point).
Se puede marcar los campos “prioridad” y DSCP con cualquier valor binario válido de 3 o 6 bits,
respectivamente.
Toda la clasificación QoS se resuelve con este campo en el modelo DiffServ, ya que se identifica
cada paquete su agregado de tráfico (BA, Behavior Aggregate). Cada BA es identificado por un
único código DS. En términos concretos un PHB (Per-Hop Behaviors) se refiere a la programación,
encolamiento, definición de políticas o características de un nodo en cualquier paquete, es decir,
cómo se le tratará.
Muchos de los switches LAN de hoy en día pueden marcar y reaccionar a campos de capa 2,
llamado clase de servicio (CoS) dentro de los encabezados Ethernet. El campo CoS existe
solamente dentro de las tramas Ethernet cuando los enlaces troncales 802.1Q o ISL (Inter-
Switching Link) están siendo usados. El estándar IEEE 802.1P actualmente define el uso de los bits
CoS dentro del encabezado 802.1Q. se puede utilizar el campo para establecer 8 valores binarios
diferentes, los cuales pueden ser utilizados para la clasificación llevada a cabo por herramientas
QoS, de la misma forma que los campos “prioridad” y “DSCP”. La figura 9 muestra el encabezado
descrito anteriormente.
Los sistemas de encolamiento más básicos utilizan una cola sencilla con un tratamiento FIFO (First
In First Out). Y, ¿qué significa esto? Bueno, cuando el IOS decide tomar el siguiente paquete de la
cola, de todos los que están esperando, toma aquel que llegó primero como se muestra en la
figura 10.
El encolamiento FIFO no requiere las dos características más interesantes de otras herramientas
de encolamiento: clasificación y planeación.
Finalmente, cabe mencionar que el IOS Cisco utiliza por default el método de encolamiento
“weighted fair” (espera equitativa ponderada) en lugar del encolamiento FIFO y que para
cambiarse, los routers proveen los comandos necesarios para ajustar estos parámetros.
El proceso de este mecanismo es muy simple, siempre inicia en la cola de alta prioridad y ella
transmitirá primero, si esta cola no tiene paquetes en espera, la cola de mediana prioridad tiene la
opción de transmitir paquetes y así sucesivamente. La cola de baja prioridad transmitirá sus
paquetes si ninguna de las anteriores tiene paquetes en espera.
Es un método automatizado que provee una justa asignación de ancho de banda para todo el
tráfico de la red. Como se mencionó, WFQ ordena el tráfico en flujos utilizando una combinación
de parámetros. Por ejemplo, para una conversación TCP/IP, se utiliza el protocolo IP (dirección
origen y destino), etc. Una vez distinguidos estos flujos el router determina cuáles son de uso
intensivo o sensible al retardo, priorizándolos y asegurando que los flujos de alto volumen sean
empujados al final de la cola, y los volúmenes bajos, sensibles al retardo, sean empujados al
principio de la cola.
Esta técnica es apropiada en situaciones donde se desea proveer un tiempo respuesta consistente
ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a las condiciones
cambiantes del tráfico en ésta.
Encolamiento por espera equitativa ponderada basado en clases (CBWFQ –Class Based Weighted
Fair Queuing)
Si existe tráfico en la cola de prioridad, ésta es atendida antes que las otras colas de prioridad
personalizadas. Si la cola de prioridad no está encolando paquetes, se procede a atender a otras
colas según su prioridad. Debido a este comportamiento es necesario configurar un ancho de
banda límite reservado para la cola de prioridad, evitando la inanición del resto de las colas. La
cola de prioridad que posee LLQ provee un máximo retardo garantizado para los paquetes
entrantes para esta cola, el cual es calculado como el tamaño del MTU dividido por la velocidad
del enlace.
Evasión de la congestión
Las metodologías de evasión de la congestión se basan en la manera en que los protocolos operan,
con el fin de no llegar a la congestión de la red. Las técnicas de RED (Random Early Detection) y
WRED (Weighted Random Early Detection) evitan el efecto conocido como “sincronización global”.
Cuando múltiples conexiones TCP operan sobre un enlace común todas ellas incrementan el
tamaño de su ventana deslizante a medida que el tráfico llega sin problemas. Este aumento
gradual consume el ancho de banda hasta congestionarlo.
En este punto, las conexiones TCP experimentan errores de transmisión, lo que hace que se
disminuya su tamaño de ventana simultáneamente. Esto conlleva a una sincronización global,
donde todos los flujos comienzan a incrementar su tasa de transmisión nuevamente para llegar a
otro estado de congestión. Este ciclo es repetitivo, creando picos y valles en la utilización del
ancho de banda del enlace. Es debido a este comportamiento que no se utiliza los máximos
recursos de la red.
Los métodos de evasión de la congestión tratan con este tipo de situación, descartando paquetes
de forma aleatoria. RED forza a que el flujo de reduzca el tamaño de su ventana de transmisión,
disminuyendo la cantidad de información enviada. A medida que se alcanza el estado de
congestión de la red, más paquetes entrantes son descartados con el fin de no llegar al punto de
congestión en el enlace. Lo que limita a estas técnicas de evasión de congestión es que sólo sirve
para el tráfico basado en TCP, ya que otros protocolos no utilizan el concepto de ventana
deslizante.
6. AutoQoS
Cisco ha desarrollado una nueva forma de QoS denominada AutoQoS y que tiene como propósito
facilitarle al administrador de la red las pruebas básicas de los atributos de QoS. AutoQoS clasifica
automáticamente el tráfico al implementar los comandos necesarios en la CLI del router.
AutoQoS se encuentra disponible en los routers Cisco IOS desde la serie 2600 hasta la serie 7200 y
también en la mayoría de los routers Cisco que utilizan versiones del IOS 12.2(15)T y posteriores.
AutoQoS ofrece los siguientes beneficios:
No requiere una comprensión avanzada de QoS del mismo modo que sí se desea
configurar desde la línea de comandos.
Se pueden reutilizar las políticas de QoS y reutilizarlas, del mismo modo en que si se
tratara de una plantilla.
Se ahorra mucho tiempo de configuración.
Wendell O. (2005). IP Telephony Self Study Cisco QoS Exam Certification Guide. 2nd Ed. Pearson
Education.
Objetivo. El alumno configurará protocolos de VoIP en una red convergente para establecer
comunicaciones de voz.
1. Introducción a la tecnología y arquitecturas de VoIP
La red telefónica pública conmutada (PSTN – Public Switched Telephone Network) es una red
masiva de voz. Si alguna vez has hecho alguna llamada desde o hacia un teléfono público o
residencial entonces has experimentado los usos de las líneas telefónicas tradicionales.
Esta red no es distinta a muchas de las redes de datos de hoy en día. Su objetivo primario es
establecer rutas permitiendo a la gente, conectarse, conversar y desconectarse fácilmente. Los
sistemas modernos PSTN son construidos utilizando la tecnología mostrada en la figura 11.
Por otro lado, la telefonía IP conjuga dos mundos históricamente separados: la transmisión de voz
y la de datos. Se trata de transportar la voz, previamente convertida a datos, entre dos puntos
distantes. Esto posibilitaría utilizar las redes de datos para efectuar llamadas telefónicas, y yendo
un poco más allá, desarrollar una única red que se encargue de cursar todo tipo de comunicación,
ya sea vocal o de datos. Es evidente que tener una red en lugar de dos, es beneficioso para
cualquier operador que ofrezca ambos servicios, como gastos de mantenimiento, personal, entre
otros.
El crecimiento y fuerte implantación de las redes IP, tanto local como remoto, el desarrollo de
técnicas avanzadas de digitalización de voz, mecanismos de priorización y control de tráfico,
protocolos de transmisión en tiempo real, así como el estudio de nuevos estándares que permiten
las calidad en el servicio en redes IP, han creado un entorno donde es posible transmitir telefonía
sobre IP lo que no significará en modo alguno la desaparición de las redes telefónicas, sino que
habrá, al menos temporalmente, una fase de coexistencia entre ambas, y por supuesto, la
necesaria interconexión entre gateways, denominados genéricamente gateways IP. El concepto
original es relativamente simple: se trata de transformar la voz en “paquetes de información”
manejables por una red IP.
Muchas empresas tienen cientos –o tal vez miles- de teléfonos en sus compañías. Si cada
compañía contratara una línea telefónica para cada uno de esos teléfonos el costo sería
demasiado alto. En su lugar, la mayoría de las organizaciones eligen utilizar un conmutador
telefónico (PBX – Private Branch Exchange) para administrar esas líneas telefónicas internas. Con
estos sistemas, se permite realizar llamadas telefónicas a los usuarios internos sin utilizar recursos
extras de la PSTN.
El modelo de referencia OSI fue diseñado para crear métodos de conexión y comunicación
estándares a través de las redes de datos. En el mundo de las transmisiones de voz, existen
modelos de conexión similares que describes este tipo de comunicaciones. Cisco ha desarrollado
un modelo que describe el sistema de comunicaciones unificadas, mostrado en la figura 12.
Routers, switches y gateways de voz: estos dispositivos representan la base que sostienen la red
de voz. Estos dispositivos deben proveer redundancia y QoS, esto es un aspecto clave para ellos. El
tiempo de funcionamiento de sistemas de estos tipos es de 99.99% (aproximadamente unos 5
minutos de inactividad al año).
Cisco Unified Communications Manager: esta serie de dispositivos de la compañía Cisco tiene
como función el procesamiento de llamadas y todas las funciones que ello implique. Cuando un
usuario levanta un teléfono estos dispositivos se involucran al generar un tono. Cada dígito que es
marcado es analizado y procesado. Una señal de timbrado es generada en el dispositivo remoto y
la llamada es establecida. Acciones como el reenvío de llamadas, el correo de voz, la
intercomunicación y las comunicaciones móviles son posibles gracias a estos dispositivos.
Teléfonos IP: un teléfono IP (también llamado teléfono softphone), permite hacer llamadas a
cualquier otro teléfono IP, móvil o estándar por medio de la tecnología de VoIP (la voz es
transmitida por internet en lugar de la red PSTN). Puede ser un teléfono basado en software o un
teléfono de hardware analógico o digital. Los teléfonos IP de Cisco ofrecen una gran cantidad de
funcionalidades, entre las que destacan: flexibilidad, escalabilidad, adaptabilidad, conectividad,
simplicidad. Algunos ofrecen la posibilidad de transmisión de video, touchscreen, identificador de
llamadas, PoE, XML, entre otros.
SIP. Protocolo para el Inicio de Sesión. Fue diseñado por IETF como una alternativa a H.323.
Comparar los dos protocolos, es como comparar a TCP/IP con FTP: H.323 es una suite de
protocolos mientras que SIP tiene un solo propósito, que es configurar sesiones entre dispositivos
de voz y video. SIP no está diseñado para transferir audio, video y demás. Es un protocolo de
señalización para el establecimiento, mantenimiento y terminación de sesiones interactivas entre
usuarios; estas sesiones pueden tratarse de conferencias multimedia, chat, sesiones de voz o
distribución de contenidos multimedia.
Los servidores por defecto utilizan el puerto 5060 en TCP y UDP para recibir las peticiones de los
clientes SIP. Este protocolo es muy similar a HTTP y comparte con él algunos de sus principios de
diseño: es legible por humanos y sigue una estructura de petición respuesta.
Para implementar las funcionalidades que SIP ofrece, este protocolo se apoya de distintos
componentes: los agentes de usuario y los servidores.
Agentes de usuario (User Agent – UA): están formados por dos partes distintas: el User Agent
Client (UAC) y el User Agen Server (UAS). Un UAC es una entidad lógica que genera peticiones SIP y
recibe respuestas a esas peticiones. Un UAS es una entidad lógica que genera respuestas a las
peticiones SIP. Ambos se encuentran en todos los UA, así permiten la comunicación entre
diferentes agentes usuario mediante comunicaciones de tipo cliente-servidor.
Proxy server: retransmiten solicitudes y deciden a qué otro servidor deben remitir,
alternando los campos de la solicitud en caso de ser necesario. Es una entidad intermedia
que actúa como cliente y servidor con el propósito de establecer llamadas entre los
usuarios. Este servidor tiene una funcionalidad semejante a la de un Proxy HTTP que tiene
una tarea de encaminar las peticiones que recibe de otras entidades más próximas al
destinatario.
Registrar server: es un servidor que acepta invitaciones de registro de los usuarios y
guarda la información de estas peticiones para suministrar un servicio de localización y
traducción de direcciones en el dominio que controla.
Redirect server: es un servidor que genera respuestas de redirección a las peticiones que
recibe. Este servidor reencamina las peticiones hacia el próximo servidor.
La división de estos servidores es conceptual, cualquiera de ellos puede estar físicamente en una
única máquina, la división de ellos puede ser por motivos de escalabilidad y rendimiento.
RTP. Es el Protocolo de Transporte de Tiempo Real. Surgió con la idea de crear un protocolo
específico para la gran demanda de recursos en tiempo real por parte de los usuarios. Algunos de
estos recursos son la música, la videoconferencia, video, telefonía en internet y más aplicaciones
multimedia. Se ejecuta, generalmente, sobre UDP ya que posee menor retardo que TCP. Por
tanto, con UDP se gana en velocidad a cambio de sacrificar la confiabilidad de TCP. Debido a esto,
RTP no garantiza la entrega de todos los paquetes, ni la llegada de éstos en el instante adecuado.
La función básica de RTP es multiplexar varios flujos de datos en tiempo real en un solo flujo de
paquetes UDP, pudiéndose enviar tanto a un solo destino (unicast) o múltiples destinos
(multicast). Los paquetes son numerados de la siguiente manera: se le asigna a cada paquete un
número mayor que su antecesor. Esto será útil para que la aplicación conozca si ha fallado algún
paquete o no en la transmisión.
Para que la comunicación pueda ser realizada, se necesitará un una computadora con micrófono y
bocinas o un teléfono analógico o digital. Si un usuario desea hacer una llamada debe descolgar el
teléfono y marcar el número del destinatario. Esta llamada llega al MG, éste, notifica al MGC que
una llamada está en camino. El MGC busca en su base de datos, el número de teléfono del
destinatario para saber su IP y su número de puerto. Entonces, busca el MG del destinatario y le
envía un mensaje para indicarle que le está llegando una llamada. El MG del destinatario abre una
conexión RTP cuando el usuario descuelga.
MGCP. El Protocolo para el Control de Pasarelas de Medios (Media Gateway Control Protocol)
permite controlar las pasarelas (gateways) de los medios de comunicaciones de los elementos de
control de llamada externas (MGC).
Mucha gente confunde al control de medios con señalización. Señalización (como se describió
anteriormente), es el establecimiento de sesiones entre dos o más partes. En redes VoIP cada una
necesita ser manejada por un diferente tipo de Gateway VoIP: un Gateway de señalización y un
Gateway de control de medio. Los Gateway de señalización traducen los canales de datos en
protocolos de señalización compatibles con VoIP, como H.323 o SIP. Un Gateway de control de
medio proporciona el puente para el tránsito entre datos de redes PSTN y VoIP. Los MGC
controlan MG por medio de MGCP.
Dicho con otras palabras, MGCP es un protocolo que permite comunicar al MGC (también
conocido como Call Agent) con los Gateway de telefonía (PBX o PSTN). Este protocolo es de tipo
maestro-esclavo donde el MGC informa al MG qué hacer. Los mensajes MGCP viajan sobre UDP/IP
por la misma red de transporte IP con seguridad IPSec.
El formato de trabajo genera una inteligencia externa a la red (concentrada en el MGC) y donde la
red de conmutación está formada por routers de la red IP. El Gateway solo realiza funciones de
conversión vocal y genera un camino RTP entre extremos. La sesión de MGCP puede ser punto a
punto o multipunto. El protocolo MGCP entrega al Gateway la dirección IP, el puerto UDP y los
perfiles de RTP.
4. Cálculo de requerimientos de ancho de banda
Para entender al método, se hará mediante un ejemplo que permita entenderlo más fácilmente.
Paso 1. Calcular el tamaño de las tramas de voz. Para esta tarea, se puede emplear el siguiente
procedimiento:
a) este parámetro es resultado del códec utilizado, que da como resultado el tamaño de la
porción de datos. A esto debe sumarse el tamaño de los encabezados de capa 4, capa 3 y
capa 2.
Por ejemplo, las tramas utilizadas al utilizar G.729 tienen una longitud de 20 Bytes, a eso
debemos sumarle los encabezados RTP, UDP e IP necesarios, que son 40 Bytes adicionales,
y luego el encabezado de capa de enlace, que suponiendo que se trata de una trama PPP
agrega 6 Bytes (al final del procedimiento se agregan las tablas de los valores necesarios):
a) los códecs actualmente utilizados para la digitalización de voz (G.711, G.728, G.729)
generan 50 tramas por segundo.
b) Para calcular el ancho de banda requerido para cada llamada se debe multiplicar el
tamaño de cada trama por la cantidad de tramas que se envían por segundo:
Los puertos FXS conectan dispositivos finales. Generalmente, dispositivos analógicos como
teléfonos, fax o módems. También se les denomina interfaces de abonado, ya que se envía la línea
analógica hacia el abonado. Una interfaz FXS proporciona alimentación eléctrica, señalización de
llamada y tono al dispositivo terminal. Estas interfaces son las que permiten conectar un teléfono
analógico convencional a un router o central de telefonía IP, es decir, estas interfaces -o puertos-
emulan a una línea analógica tradicional.
Estos puertos actúan como enlaces troncales para la PSTN o PBX. Es el puerto que recibe la línea
analógica. Es la interfaz que permite conectar un dispositivo terminal a un servicio de telefonía
como PSTN o una PBX. Envía al sistema telefónico una señal de colgado o descolgado (cierre de
loop). Este puerto recibe las señales del puerto FXS. Un teléfono tiene un puerto FXO, es decir,
este puerto no envía señales de tono o timbrado, solo recibe las señales de los FXS.
FXS y FXO son siempre pares que se corresponde mutuamente: una interfaz FXS se conecta en el
otro extremo de la línea a una interfaz FXO.
Gateway de voz
Es el dispositivo que permite interconectar la red PSTN o las PBX de telefonía tradicional con la red
IP. Este dispositivo puede ser un router o un PBX IP y debe contar con tantos puertos FXO como
líneas telefónicas desee acceder y puertos FXS como PBXs o teléfonos convencionales desee
conectar.
Ejemplo
A partir de ahora, se revisará la configuración de un router Cisco IOS para operar como Gateway
de voz, definiendo un plan de marcación (dial plan) que permitirá utilizar la red de telefonía
pública como la red IP para el transporte de voz, usando el ejemplo que se muestra a
continuación:
Figura 19. Topología de ejemplo para configurar interfaces de voz
Como se puede observar en la figura 19, se tienen 2 routers Cisco conectados entre sí a través de
sus puertos seriales utilizando la subred 172.16.1.0/30. El router 1 tiene conectado un teléfono
analógico (interno 720) a través de un puerto FXS. El router 2 conecta a la PSTN usando un puerto
FXO y da acceso al interno 721 mediante un puerto FXS.
!
interface Serial0/0/0
ip address 172.16.1.1 255.255.255.252
!
! Redirige una llamada dirigida al interno 720
! a través del enlace serial (sobre IP)
! hacia el Router1
dial-peer voice 1 voip
destination-pattern 720
session-target ipv4:172.16.1.2
!
! Una llamada al interno 721
! genera señal de ring en el puerto FXS
dial-peer voice 2 pots
destination-pattern 721
port 1/0/0
!
! Define dial-peer para acceso a línea externa
! Marcando 9 se obtiene línea
dial-peer voice 3 pots
destination-pattern 9
port 2/0/0
!
Cada número de interno definido requiere de un "destination-pattern" que define el ID que se
recibe. Cuando se trata de una comunicación telefónica tradicional, a ese destination-pattern se
asocia el puerto de voz correspondiente, es el caso por ejemplo del interno 721.Cuando se trata
de destination-pattern cuyo tráfico debe encaminarse a través de la red IP se define la dirección IP
de destino del dispositivo en el cual se encuentra conectado ese interno, como es el caso del
interno 720.
6. Protocolo H.323
Por ejemplo, considere la red mostrada en la figura 20. En esta red, necesitaría configurar cada
Gateway H.323 para conocer acerca de todas las extensiones de las oficinas remotas. Por ejemplo,
sería necesario configurar el Gateway 1 para apuntar a la IP 10.1.1.2 y alcanzar las extensiones
2XXX, apuntar a la 10.1.1.3 para alcanzar las extensiones 3XXX y apuntar a la 10.1.1.4 para alcanzar
las extensiones 4XXX. Sería necesario entonces repetir este proceso en cada uno de los Gateway
H.323 para alcanzar a las demás oficinas. Por último, imagine que su red crece de 4 a 10 o hasta 20
oficinas remotas, la cantidad de configuración de cada uno de estos dispositivos de voz podría
volverse muy difícil de administrar.
El H.323 soporta vídeo en tiempo real, audio y datos sobre redes de área local, metropolitana,
regional o de área extensa. Soporta así mismo Internet e intranets. En Mayo de 1997, el Grupo 15
del ITU redefinió el H.323 como la recomendación para "los sistemas multimedia de
comunicaciones en aquellas situaciones en las que el medio de transporte sea una red de
conmutación de paquetes que no pueda proporcionar una calidad de servicio garantizada. Nótese
que H.323 también soporta videoconferencia sobre conexiones punto a punto, telefónicas y
RDSI.En estos casos, se debe disponer un protocolo de transporte de paquetes tal como PPP.
Componentes H.323
• Entidad
La especificación H.323 define el término genérico entidad como cualquier componente que
cumpla con el estándar.
• Extremo
Un extremo H.323 es un componente de la red que puede enviar y recibir llamadas. Puede generar
y/o recibir secuencias de información.
• Terminal
• Gatekeeper
• Gateway
La unidad de control multipunto está diseñada para soportar la conferencia entre tres o más
puntos bajo el estándar H.323, llevando la negociación entre terminales para determinar las
capacidades comunes para el proceso de audio y video y controlar la multidifusión.
La comunicación bajo H.323 contempla las señales de audio y video. La señal de audio se digitaliza
y se comprime bajo los algoritmos soportados, tales como G.711 o G.723, y la señal de video
(opcional) se trata con la norma H.261 o H.263. Los datos (opcional) se manejan bajo el estándar
T.120 que permite la compartición de aplicaciones en conferencias punto a punto y multipunto.
Ejemplo H.323
A continuación se analizará detalladamente una llamada. En una llamada H.323 hay varias fases
como se indica en el siguiente gráfico y varios protocolos cada uno de un color.
1. ESTABLECIMIENTO
- En esta fase lo primero que se observa es que uno de los terminales se registra en el
gatekeeper utilizando el protocolo RAS (Registro, admisión y estado) con los mensajes
ARQ y ACF.
- Posteriormente utilizando el protocolo H.225 (que se utiliza para establecimiento y
liberación de la llamada) se manda un mensaje de SETUP para iniciar una llamada H.323.
Entre la información que contiene el mensaje se encuentra la dirección IP, puerto y alias
del llamante o la dirección IP y puerto del llamado.
- El terminal llamado contesta con un CALL PROCEEDING advirtiendo del intento de
establecer una llamada.
- En este momento el segundo terminal tiene que registrarse con el gatekeeper utilizando el
protocolo RAS de manera similar al primer terminal
- El mensaje ALERTING indica el inicio de la fase de generación de tono.
- Y por último CONNECT indica el comienzo de la conexión.
2. SEÑALIZACIÓN DE CONTROL
3. AUDIO
4. DESCONEXIÓN
Cioara J. (2009). CCNA Voice Official Exam Certification Guide. Pearson Education. Cisco Press.
ISBN 987-158720-2070.
Objetivo. El alumno integrará las tecnologías WAN y de banda ancha en las comunicaciones
actuales para adaptarlas a las necesidades de las empresas.
Algunas de las variantes de los servicios de Línea Digital de Suscriptor (DSL – Digital Subscriber
Line) son de banda ancha en el sentido de que los datos se envían por un canal y la voz por otro
canal pero compartiendo el mismo par de cables.
La Línea Digital de Suscriptor (DSL, por sus siglas en inglés) es una tecnología de transmisión
telefónica que transmite datos más rápido a través de las líneas telefónicas de cobre ya instaladas
en casas y empresas. La banda ancha de DSL proporciona velocidades de transmisión que van
desde varios cientos de kilobits por segundo (Kbps) hasta millones de bits por segundo (Mbps). La
disponibilidad y velocidad de su servicio de DSL puede depender de la distancia que hay entre su
casa o negocio a las instalaciones más próximas de la compañía de teléfonos.
o Línea digital asimétrica de suscriptor (ADSL, por sus siglas en inglés) - es usada
principalmente por usuarios en residencias que reciben una gran cantidad de
datos pero no mandan muchos datos, como son las personas que navegan por
Internet. La ADSL proporciona una velocidad más rápida en la transferencia de
datos que bajan a la computadora del cliente que en la transferencia de datos que
suben a la central telefónica. El ADSL permite una transmisión de datos de bajada
más rápida a través de la misma línea que usa para proveer el servicio de voz, sin
interrumpir las llamadas telefónicas regulares en esa línea.
o Línea digital simétrica de suscriptor (SDSL, por sus siglas en inglés) - se usa
típicamente en los negocios para servicios tales como video conferencias que
necesitan un ancho de banda importante para la transmisión de datos de subida y
bajada.
Algunas formas más rápidas de DSL disponibles típicamente para empresas son:
o Línea digital de suscriptor de alta velocidad (HDSL, por sus siglas en inglés); y
o Línea digital de suscriptor de muy alta velocidad (VDSL, por sus siglas en inglés).
Módem de Cable
El servicio de módem de cable permite a los operadores de cable suministrar acceso a Internet de
alta velocidad usando los cables coaxiales que envían imágenes y sonidos a su televisor.
La mayoría de los módems de cable son dispositivos externos que tienen dos conectores, uno en la
salida de pared del cable y el otro en la computadora. La velocidad de transmisión de datos es de
1.5 Mbps o más.
Los suscriptores pueden tener acceso al servicio de módem de cable simplemente prendiendo sus
computadores sin tener que marcar al proveedor del servicio de Internet (ISP, por sus siglas en
inglés). Podrá ver la TV por cable y usar el Internet al mismo tiempo. Las velocidades de
transmisión varían dependiendo del tipo de módem de cable, red del cable y carga de tráfico. Las
velocidades son comparables con la DSL.
Fibra óptica
La fibra o fibra óptica es una tecnología muy nueva que proporciona servicio de banda ancha. La
tecnología de fibra óptica convierte las señales eléctricas que llevan los datos en luz y envía la luz a
través de fibras de vidrio transparentes con un diámetro cercano al del cabello humano. La fibra
transmite los datos a velocidades muy superiores a las velocidades de la DSL o módem de cable
actuales, normalmente en diez o cien veces más Mbps.
La velocidad real que experimenta variará dependiendo de diversos factores como qué tan cerca
lleva su proveedor de servicio la fibra a su computadora y la forma como configura el servicio,
incluyendo la cantidad de ancho de banda utilizada. La misma fibra que provee su banda ancha
puede también simultáneamente suministrar servicios de telefonía por Internet (VoIP) y de vídeo,
incluyendo vídeo según demanda.
Las variantes de esta tecnología permiten que la fibra llegue hasta el hogar o empresa del cliente,
hasta la esquina de su casa o algún lugar entre las instalaciones del proveedor y el cliente.
Inalámbrica
La banda ancha inalámbrica conecta su casa o negocio a Internet usando un enlace de radio entre
la localidad del cliente y las instalaciones del proveedor del servicio. La banda ancha inalámbrica
puede ser móvil o fija.
Las tecnologías inalámbricas que usan equipo direccional con un rango mayor proveen el servicio
de banda ancha en áreas remotas o muy poco pobladas donde el servicio de la DSL o del módem
de cable sería muy costoso. Generalmente las velocidades son comparables a las de la DSL y el
módem de cable. Normalmente se requiere de una antena externa.
Cada vez es más frecuente el servicio de banda ancha inalámbrica fija en aeropuertos, parques de
la ciudad, bibliotecas y otros lugares públicos llamados "hotspots". Los "hotspots" usan
generalmente una tecnología de rango corto con velocidades de transmisión de hasta 54 Mbps. La
tecnología de fidelidad inalámbrica (Wi-Fi) se usa con frecuencia también en conjunto con el
servicio de la DSL o módem de cable para conectar los dispositivos de una casa o negocio al
Internet vía una conexión de banda ancha.
Los servicios de banda ancha inalámbrica móvil se pueden obtener también de compañías de
telefonía móvil y otros. Estos servicios generalmente son adecuados para los clientes que tienen
mucha movilidad y requieren una tarjeta especial para PC con una antena integrada que se
conecta a la computadora portátil del usuario. Generalmente proveen velocidades menores de
transmisión en el rango de varios cientos de Kbps.
Satélite
Así como los satélites que giran alrededor de la tierra proveen los enlaces necesarios para los
servicios de telefonía y televisión, también proveen enlaces para la banda ancha. La banda ancha
por satélite es otra forma de banda ancha inalámbrica, muy útil también para dar servicio a áreas
remotas o muy poco pobladas.
Las velocidades de transmisión de datos de subida y bajada para la banda ancha por satélite
dependen de varios factores, incluyendo el paquete de servicios que se compra y el proveedor, la
línea de visibilidad directa del consumidor al satélite y el clima. Normalmente un consumidor
puede esperar recibir (descargar) los datos a una velocidad de aproximadamente 500 Kbps y
enviarlos (cargar) a una velocidad de aproximadamente 80 Kbps. Estas velocidades pueden ser
menores que las que se tienen con la DSL o el módem de cable, pero la velocidad para descargar
los datos es aproximadamente 10 veces más rápida que la velocidad que se tiene con el Internet
de marcación telefónica. El servicio puede interrumpirse en condiciones climáticas severas.
La banda ancha por la línea eléctrica (BPL, por sus siglas en inglés) es el servicio que se
proporciona a través de la red existente de distribución de energía eléctrica de bajo y medio
voltaje. Las velocidades de transmisión de la BPL son comparables a las de la DSL y el módem de
cable. La BPL puede llegar a las casas usando las conexiones y salidas eléctricas existentes.
La BPL es una tecnología emergente, actualmente disponible en áreas muy limitadas. Tiene un
potencial significativo ya que las líneas eléctricas están instaladas virtualmente en todos lados,
aliviando la necesidad de construir nuevas instalaciones de banda ancha para cada consumidor.
Tecnología 3G
Se dice que los usuarios de GPRS y 3G están "siempre conectados", dado que con estos métodos
de conexión tienen acceso permanente a Internet. Mediante los mensajes de texto cortos, los
empleados de campo pueden comunicar su progreso y solicitar asistencia. Los ejecutivos que se
encuentran de viaje pueden acceder al correo electrónico de la empresa, de igual modo que
puede hacerlo un empleado de ventas, que también puede consultar el inventario. Puede
automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus inversiones.
2. Estándares WAN
Una WAN es una red de comunicación de datos que tiene una cobertura geográfica relativamente
grande y suele utilizar las instalaciones de transmisión que ofrecen compañías portadoras de
servicios como las telefónicas. Las tecnologías WAN operan en las 3 capas inferiores del modelo
OSI.
Con frecuencia las organizaciones desean compartir información con otras organizaciones que se
encuentran a grandes distancias. Como, obviamente, no es posible conectar computadoras a nivel
nacional o mundial de la misma manera en que las computadoras de una LAN se conectan con
cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se está
utilizando cada vez más como una alternativa económica al uso de una WAN empresarial para
algunas aplicaciones. Hay nuevas tecnologías disponibles para las empresas que proporcionan
seguridad y privacidad para las comunicaciones y las transacciones a través de Internet. El uso de
redes WAN solas o en combinación con Internet permite a las organizaciones y a los particulares
satisfacer sus necesidades de comunicaciones de área extensa.
Como se describió en relación con el modelo de referencia OSI, las operaciones de una WAN se
centran principalmente en las Capas 1 y 2. Los estándares de acceso WAN normalmente describen
tanto los métodos de entrega de la capa física como los requisitos de la capa de enlace de datos,
incluyendo la dirección física, el control del flujo y la encapsulación. La definición y la
administración de los estándares de acceso WAN están a cargo de varias autoridades reconocidas,
entre ellas la Organización Internacional de Normalización (ISO), la Asociación de la Industria de las
Telecomunicaciones (TIA, Telecommunications Industry Association) y la Asociación de Industrias
Electrónicas (EIA, Electronic Industries Alliance).
Los protocolos de capa física (capa 1 del modelo OSI) describen cómo proporcionar las conexiones
eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de
servicios de comunicaciones.
Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen cómo se encapsulan
los datos para su transmisión a lugares remotos y los mecanismos de transferencia de las tramas
resultantes. Se utiliza una variedad de tecnologías diferentes, como Frame Relay y ATM. Algunos
de estos protocolos utilizan los mismos mecanismos básicos de entramado, control de enlace de
datos de alto nivel (HDLC, High‐Level Data Link Control), una norma ISO o uno de sus subgrupos o
variantes.
Figura 23. Modelo OSI y Tecnologías WAN
Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización
debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una
portadora WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una
operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de
otras organizaciones, con servicios externos y con usuarios remotos. La capa física de acceso a la
WAN describe la conexión física entre la red de la empresa y la red del proveedor de servicios. La
imagen muestra la terminología utilizada comúnmente para describir las conexiones físicas de la
WAN, por ejemplo:
Equipo local del cliente (CPE, Customer Premises Equipment): dispositivos y cableado
interno localizados en las instalaciones del suscriptor y conectados con un canal de
telecomunicaciones de una portadora. El suscriptor es dueño de un CPE o le alquila un CPE
al proveedor de servicios. En este contexto, un suscriptor es una empresa que contrata los
servicios WAN de un proveedor de servicios u operadora.
Equipo de comunicación de datos (DCE, Data Communications Equipment): también
llamado equipo de terminación de circuito de datos, el DCE está compuesto por
dispositivos que ponen datos en el bucle local. La tarea principal del DCE es suministrar
una interfaz para conectar suscriptores a un enlace de comunicación en la nube WAN.
Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos del cliente que
pasan los datos de la red o la computadora host de un cliente para transmisión a través de
la WAN. El DTE se conecta al bucle local a través del DCE.
Punto de demarcación: punto establecido en un edificio o un complejo para separar los
equipos del cliente de los equipos del proveedor de servicios. Físicamente, el punto de
demarcación es la caja de empalme del cableado que se encuentra en las instalaciones del
cliente y que conecta los cables del CPE con el bucle local. Normalmente se coloca en un
lugar de fácil acceso para los técnicos.
PPPoE y PPPoA
PPPoE: Significa “Protocolo de Punto a Punto sobre Ethernet“, se implementa una capa IP sobre
dos puertos Ethernet, dando la posibilidad de transferir paquetes de datos entre los dispositivos
que estén conectados. Estándar oficial RFC 2516 (PPPoE)
PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa Ethernet, se realiza sobre
una capa ATM. Gracias a este protocolo, las señales del router pueden negociar los parámetros de
conexión o de red entre el router y el ISP, con lo que sólo necesitas saber tu Identificador de
Usuario y contraseña para poder comenzar a navegar, puesto que el resto de datos se obtienen
automáticamente en el momento en que se efectúa la conexión. Estándar oficial RFC 2364
(PPPoA)
El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha, como cable y DSL.
Este ofrece las principales funciones PPP como autenticación, cifrado y compresión de datos.
Actualmente es algo mejor que PPPoE debido a que reduce la pérdida de calidad en las
transmisiones. Al igual que PPPoE, PPPoA puede usarse en los modos VC‐MUX y LLC.
Con PPPoE el router efectúa el encaminamiento IP con Network Address Translation (NAT) para la
LAN. El router que cuente con PPPoE también es compatible con la asignación dinámica de
direcciones IP a nodos de red local. Cuando se use la asignación dinámica, el router actuará como
servidor DHCP.
Dispositivos WAN
Las WAN utilizan numerosos tipos de dispositivos que son específicos para los entornos WAN,
entre ellos:
o Módem: modula una señal portadora analógica para codificar información digital y demodula
la señal portadora para decodificar la información transmitida.
o CSU/DSU: las líneas digitales, por ejemplo las líneas portadoras T1 o T3, necesitan una unidad
de servicio de canal (CSU, channel service unit) y una unidad de servicio de datos (DSU, data
service unit). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo,
llamada CSU/DSU. La CSU proporciona la terminación para la señal digital y garantiza la
integridad de la conexión mediante la corrección de errores y la supervisión de la línea. La DSU
convierte las tramas de la línea Portadora T en tramas que la LAN puede interpretar y
viceversa.
o Servidor de acceso: concentra las comunicaciones de usuarios de servicios de acceso con
marcación. Un servidor de acceso puede tener una mezcla de interfaces analógicas y digitales
y admitir a cientos de usuarios al mismo tiempo.
o Switch WAN: dispositivo de internetworking de varios puertos que se utiliza en redes
portadoras. Estos dispositivos normalmente conmutan el tráfico, por ejemplo Frame Relay,
ATM o X.25, y operan en la capa de enlace de datos del modelo de referencia OSI. Dentro de la
nube también es posible utilizar switches de red pública de telefonía conmutada (PSTN, Public
Switched Telephone Network) para conexiones de conmutación de circuitos, por ejemplo red
digital de servicios integrados (ISDN, Integrated Services Digital Network) o conexión
telefónica analógica.
o Router: proporciona puertos de interfaz de internetworking y acceso WAN que se utilizan para
conectarse con la red del proveedor de servicios. Estas interfaces pueden ser conexiones
seriales u otras interfaces WAN. En algunos tipos de interfaces WAN se necesita un dispositivo
externo, como una CSU/DSU o un módem (analógico, por cable o DSL) para conectar el router
al punto de presencia (POP, point of presence) local del proveedor de servicios.
Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas,
mecánicas, operativas y funcionales para los servicios WAN. La capa física de la WAN también
describe la interfaz entre el DTE y el DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa
física, entre ellos:
Los protocolos de la capa de enlace de datos definen cómo se encapsulan los datos para su
transmisión a lugares remotos, así como también los mecanismos de transferencia de las tramas
resultantes. Se utiliza una variedad de tecnologías diferentes, como ISDN, Frame Relay o ATM.
Muchos de estos protocolos utilizan los mismos mecanismos básicos de entramado, HDLC, un
estándar ISO o uno de sus subgrupos o variantes. ATM se diferencia de los demás porque utiliza
celdas pequeñas de un tamaño fijo de 53 bytes (48 bytes para datos), mientras que las demás
tecnologías de conmutación de paquetes utilizan paquetes de tamaño variable.
ISDN y X.25 son protocolos de enlace de datos más antiguos que en la actualidad se utilizan con
menor frecuencia. Sin embargo, ISDN se sigue incluyendo en este curso porque se utiliza para
proporcionar redes VoIP con enlaces PRI. X.25 se menciona para ayudar a explicar la importancia
de Frame Relay.
Frame Relay
Frame Relay ofrece una conectividad permanente, compartida, de ancho de banda mediano, que
envía tanto tráfico de voz como de datos. Frame Relay es ideal para conectar las LAN de una
empresa. El router de la LAN necesita sólo una interfaz, aún cuando se estén usando varios VC. La
línea alquilada corta que va al extremo de la red Frame Relay permite que las conexiones sean
económicas entre LAN muy dispersas.
Objetivo. El alumno configurará switches multicapa aplicando los protocolos de capa 2 y 3 para
mejorar el rendimiento de la red.
Mientras que muchos switches operan a nivel 2 (enlace de datos) según el modelo OSI, algunos
incorporan funciones de router y operan a nivel 3 (red) también. De hecho, un multilayer switch o
switch de nivel 3 es increíblemente similar a un router. Cuando un router recibe un paquete, mira
dentro de él y verifica las direcciones de origen y destino para determinar el camino que el
paquete debería tomar. Un switch estándar relega en la dirección MAC para determinar el origen y
destino de un paquete, lo cual es puramente nivel 2.
La diferencia fundamental entre un router y un multilayer switch es que estos últimos tienen
hardware optimizado para pasar datos igual de rápido que los switches de nivel 2. Sin embargo,
toman decisiones de cómo debe ser transmitido el tráfico a nivel 3, igual que un router. Dentro de
un entorno LAN, un multilayer switch es normalmente más rápido que un router porque está
construido en la electrónica que usan los switches.
La manera que tienen los multilayer switches de tratar los paquetes y gestionar el tráfico es muy
similar a la de los routers. Ambos usan un protocolo de enrutamiento y una tabla de rutas para
determinar el mejor camino. Sin embargo, un switch de nivel 3 tiene la habilidad de reprogramar
el hardware de una forma dinámica con la información de rutas que tiene. Esto es lo que le
permite procesar los paquetes mucho más deprisa. En los multilayer switches actuales, la
información que se recibe de los protocolos de routing, es usada para actualizar las tablas
hardware de almacenamiento caché.
Normalmente estos equipos se usan compañías para uso interno donde hacen de punto central de
comunicaciones en edificio, comunicándolo con otros edificios o nodos. Tienen las típicas tarjetas
de red donde los usuarios se pueden conectar a sus puertos, y una tarjeta que hace la función de
enrutar tráfico a nivel 3. Decimos que hacen de punto central porque también suele interconectar
otros switches de nivel 2 que están distribuidos por las plantas del edificio.
2. VLANs
Básicamente, una vlan es una colección de nodos que están agrupadas en un solo dominio
broadcast, el cual no está limitado estrictamente a una localización física. Los routers no pasan los
broadcast o paquetes de amplia difusión.
Un dominio broadcast es una red, o porción de red, que recibirá un paquete broadcast de
cualquier nodo localizado dentro de la red. En una red típica, todo lo que está en el mismo lado del
router, forma parte del mismo dominio broadcast. En un switch donde se han creado muchas
vlans, tiene múltiples dominios broadcast. Aun así, se sigue necesitando un router, o un multilayer
switch, para realizar un enrutamiento de paquetes de una vlan a otra – el switch no puede hacer
esto por sí mismo.
Una Red de Área Local Virtual (VLAN) puede definirse como una serie de dispositivos conectados
en red que a pesar de estar conectados en diferentes equipos de interconexión (hubs o switches),
zonas geográficas distantes, diferentes pisos de un edificio e, incluso, distintos edificios,
pertenecen a una misma Red de Área Local.
Una VLAN es una subred IP separada de manera lógica. Las VLAN permiten que redes de IP y
subredes múltiples existan en la misma red conmutada. La figura 24 muestra una red con tres
computadoras. Para que las computadoras se comuniquen en la misma VLAN, cada una debe
tener una dirección IP y una máscara de subred consistente con esa VLAN. En el switch deben
darse de alta las VLANs y cada puerto asignarse a la VLAN correspondiente. Un puerto de switch
con una VLAN singular configurada en el mismo se denomina puerto de acceso. Recuerde que si
dos computadoras están conectadas físicamente en el mismo switch no significa que se puedan
comunicar. Los dispositivos en dos redes y subredes separadas se deben comunicar a través de un
router (Capa 3), se utilicen o no las VLAN. No necesita las VLAN para tener redes y subredes
múltiples en una red conmutada, pero existen ventajas reales para utilizar las VLAN.
La productividad del usuario y la adaptabilidad de la red son impulsores clave para el crecimiento y
el éxito del negocio. La implementación de la tecnología de VLAN permite que una red admita de
manera más flexible las metas comerciales. Los principales beneficios de utilizar las VLAN son los
siguientes:
Seguridad: los grupos que tienen datos sensibles se separan del resto de la red,
disminuyendo las posibilidades de que ocurran violaciones de información confidencial.
Como se ve en la figura 25, las computadoras del cuerpo docente se encuentran en la
VLAN 10 y están completamente separadas del tráfico de datos del Invitado y de los
estudiantes.
Reducción de costo: el ahorro en el costo resulta de la poca necesidad de actualizaciones
de red caras y más usos eficientes de enlaces y ancho de banda existente.
Mejor rendimiento: la división de las redes planas de Capa 2 en múltiples grupos lógicos de
trabajo (dominios de broadcast) reduce el tráfico innecesario en la red y potencia el
rendimiento.
Mitigación de la tormenta de broadcast: la división de una red en las VLAN reduce la
cantidad de dispositivos que pueden participar en una tormenta de broadcast. La
segmentación de LAN impide que una tormenta de broadcast se propague a toda la red.
En la figura 25 puede observar que, a pesar de que hay seis computadoras en esta red, hay
sólo tres dominios de broadcast: Cuerpo docente, Estudiante y Invitado .
Mayor eficiencia del personal de TI: las VLAN facilitan el manejo de la red debido a que los
usuarios con requerimientos similares de red comparten la misma VLAN. Cuando
proporciona un switch nuevo, todas las políticas y procedimientos que ya se configuraron
para la VLAN particular se implementan cuando se asignan los puertos. También es fácil
para el personal de TI identificar la función de una VLAN proporcionándole un nombre. En
la figura 25, para una identificación más fácil se nombró "Estudiante" a la VLAN 20, la
VLAN 10 se podría nombrar "Cuerpo docente" y la VLAN 30 "Invitado ".
Administración de aplicación o de proyectos más simples: las VLAN agregan dispositivos de
red y usuarios para admitir los requerimientos geográficos o comerciales. Tener funciones
separadas hace que gestionar un proyecto o trabajar con una aplicación especializada sea
más fácil, por ejemplo una plataforma de desarrollo de e-learning para el cuerpo docente.
También es fácil determinar el alcance de los efectos de la actualización de los servicios de
red.
Tipos de VLAN
Hoy en día, existe fundamentalmente una manera de implementar las VLAN: VLAN basada en
puerto. Una VLAN basada en puerto se asocia con un puerto denominado acceso VLAN.
Sin embargo, en las redes existe una cantidad de términos para las VLAN. Algunos términos
definen el tipo de tráfico de red que envían y otros definen una función específica que desempeña
una VLAN. A continuación, se describe la terminología común de VLAN:
VLAN de Datos
Una VLAN de datos es una VLAN configurada para enviar sólo tráfico de datos generado por el
usuario. Una VLAN podría enviar tráfico basado en voz o tráfico utilizado para administrar el
switch, pero este tráfico no sería parte de una VLAN de datos. Es una práctica común separar el
tráfico de voz y de administración del tráfico de datos. La importancia de separar los datos del
usuario del tráfico de voz y del control de administración del switch se destaca mediante el uso de
un término específico para identificar las VLAN que sólo pueden enviar datos del usuario: una
"VLAN de datos". A veces, a una VLAN de datos se la denomina VLAN de usuario.
VLAN Predeterminada
Todos los puertos de switch se convierten en un miembro de la VLAN predeterminada luego del
arranque inicial del switch. Hacer participar a todos los puertos de switch en la VLAN
predeterminada los hace a todos parte del mismo dominio de broadcast. Esto admite cualquier
dispositivo conectado a cualquier puerto de switch para comunicarse con otros dispositivos en
otros puertos de switch. La VLAN predeterminada para los switches de Cisco es la VLAN 1. La VLAN
1 tiene todas las características de cualquier VLAN, excepto que no la puede volver a denominar y
no la puede eliminar. El tráfico de control de Capa 2, como CDP y el tráfico del protocolo spanning
tree se asociará siempre con la VLAN 1: esto no se puede cambiar.
VLAN Nativa
Una VLAN nativa está asignada a un puerto troncal 802.1Q. Un puerto de enlace troncal 802.1Q
admite el tráfico que llega de muchas VLAN (tráfico etiquetado) como también el tráfico que no
llega de una VLAN (tráfico no etiquetado). El puerto de enlace troncal 802.1Q coloca el tráfico no
etiquetado en la VLAN nativa. Las VLAN se establecen en la especificación IEEE 802.1Q para
mantener la compatibilidad retrospectiva con el tráfico no etiquetado común para los ejemplos de
LAN antigua. Una VLAN nativa sirve como un identificador común en extremos opuestos de un
enlace troncal. Es una optimización usar una VLAN diferente de la VLAN 1 como la VLAN nativa.
VLAN de Administración
Una VLAN de administración es cualquier VLAN que usted configura para acceder a las
capacidades de administración de un switch. La VLAN 1 serviría como VLAN de administración si
no definió proactivamente una VLAN única para que sirva como VLAN de administración. Se asigna
una dirección IP y una máscara de subred a la VLAN de administración. Se puede manejar un
switch mediante HTTP, Telnet, SSH o SNMP. Debido a que la configuración lista para usar de un
switch de Cisco tiene a VLAN 1 como la VLAN predeterminada, puede notar que la VLAN 1 sería
una mala opción como VLAN de administración; no querría que un usuario arbitrario se conectara
a un switch para que se configurara de manera predeterminada la VLAN de administración.
VLAN de voz
Es fácil apreciar por qué se necesita una VLAN separada para admitir la Voz sobre IP (VoIP).
Imagine que está recibiendo una llamada de urgencia y de repente la calidad de la transmisión se
distorsiona tanto que no puede comprender lo que está diciendo la persona que llama. El tráfico
de VoIP requiere:
Para cumplir estos requerimientos, se debe diseñar la red completa para que admita VoIP. Los
detalles sobre cómo configurar una red para que admita VoIP están más allá del alcance del curso,
pero es útil resumir cómo una VLAN de voz funciona entre un switch, un teléfono IP de Cisco y una
computadora.
En la figura 26, la VLAN 150 se diseña para enviar tráfico de voz. La computadora del estudiante
PC5 está conectada al teléfono IP de Cisco y el teléfono está conectado al switch S3. La PC5 está en
la VLAN 20 que se utiliza para los datos de los estudiantes. El puerto F0/18 en S3 se configura para
que esté en modo de voz a fin de que diga al teléfono que etiquete las tramas de voz con VLAN
150. Las tramas de datos que vienen a través del teléfono IP de Cisco desde la PC5 no se marcan.
Los datos que se destinan a la PC5 que llegan del puerto F0/18 se etiquetan con la VLAN 20 en el
camino al teléfono, que elimina la etiqueta de la VLAN antes de que los datos se envíen a la PC5.
Etiquetar se refiere a la adición de bytes a un campo en la trama de datos que utiliza el switch para
identificar a qué VLAN se debe enviar la trama de datos.
Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN ‐un puerto solo puede
pertenecer a una VLAN ‐, el problema se presenta cuando se quieren hacer VLAN por MAC ya que
la tarea es compleja. Aquí el puerto del switch pertenece a una VLAN, por tanto, si alguien posee
un servidor conectado a un puerto y este pertenece a la VLAN amarilla, el servidor estará en la
VLAN amarilla.
Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario pertenezca a una
determinada VLAN. Obviamente dependerá de la política de creación. Este tipo de VLAN ofrece
mayores ventajas, pero es complejo porque hay que meterse con las direcciones MAC y si no se
cuenta con un software que las administre, será muy laborioso configurar cada una de ellas.
Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro de este
para que el usuario aunque esté conectado a la VLAN del protocolo IP sea asignado en otra VLAN
subred que pertenecerá al grupo 10 o 20 dentro del protocolo.
En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el frame. Si los
primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las características del
usuario protocolo, dirección MAC y puerto. Si el usuario manifiesta otro patrón de bits, entonces
se trasladara a la VLAN que le corresponda; aquí el usuario define las VLAN.
VLAN Binding
Se conjugan tres parámetros o criterios para la asignación de VLAN: si el usuario es del puerto x,
entonces se le asignara una VLAN correspondiente. También puede ser puerto, protocolo y
dirección MAC, pero lo importante es cubrir los tres requisitos previamente establecidos, ya que
cuando se cumplen estas tres condiciones se coloca al usuario en la VLAN asignada, pero si alguno
de ellos no coincide, entonces se rechaza la entrada o se manda a otra VLAN.
Es difícil describir las VLAN sin mencionar los enlaces troncales de la VLAN. Aprendió acerca de
controlar broadcasts de la red con segmentación de la VLAN y observó la manera en que los
enlaces troncales de la VLAN transmitieron tráfico a diferentes partes de la red configurada en una
VLAN. En la figura 27, los enlaces entre los switches S1 y S2 y entre S1 y S3 están configurados para
transmitir el tráfico que proviene de las VLAN 10, 20, 30 y 99. Es posible que esta red no funcione
sin los enlaces troncales de la VLAN. El usuario descubrirá que la mayoría de las redes que
encuentra están configuradas con enlaces troncales de la VLAN. Esta sección une su conocimiento
previo sobre el enlace troncal de la VLAN y proporciona los detalles necesarios para poder
configurar el enlace troncal de la VLAN en una red.
Un enlace troncal es un enlace punto a punto, entre dos dispositivos de red, que transporta más
de una VLAN. Un enlace troncal de VLAN le permite extender las VLAN a través de toda una red.
Cisco admite IEEE 802.1Q para la coordinación de enlaces troncales en interfaces Fast Ethernet y
Gigabit Ethernet. Más adelante en esta sección, aprenderá acerca de 802.1Q.
Un enlace troncal de VLAN no pertenece a una VLAN específica, sino que es un conducto para las
VLAN entre switches y routers.
Sin “trunking” se requiere de varios puertos dedicados a cada vlan. Utilizando “trunking” se
requiere un único puerto etiquetando las tramas.
Es claro que las redes de computadoras representan un componente fundamental para la mayoría
de las pequeñas y medianas empresas. En consecuencia, los administradores de TI deben
implementar la redundancia en sus redes jerárquicas. Sin embargo, cuando se agregan enlaces
adicionales a switches y routers de la red, se generan bucles en el tráfico que deben ser
administrados de manera dinámica. Cuando se pierde la conexión con un switch, otro enlace debe
reemplazarlo rápidamente sin introducir nuevos bucles en el tráfico. El protocolo spanning-tree
(STP) evita los inconvenientes relacionados con bucles en la red y la manera en que STP ha
evolucionado en un protocolo que determina de forma rápida aquellos puertos que deben
bloquearse, de forma que una red basada en red de área local virtual (VLAN, Virtual Local Area
Network) no experimente bucles en el tráfico.
STP asegura que exista sólo una ruta lógica entre todos los destinos de la red, al bloquear de forma
intencional aquellas rutas redundantes que puedan ocasionar un bucle. Un puerto se considera
bloqueado cuando el tráfico de la red no puede ingresar ni salir del puerto. Esto no incluye las
tramas de unidad de datos del protocolo de puentes (BPDU) utilizadas por STP para evitar bucles.
El bloqueo de las rutas redundantes es fundamental para evitar bucles en la red. Las rutas físicas
aún existen para proporcionar la redundancia, pero las mismas se deshabilitan para evitar que se
generen bucles. Si alguna vez la ruta es necesaria para compensar la falla de un cable de red o de
un switch, STP vuelve a calcular las rutas y desbloquea los puertos necesarios para permitir que la
ruta redundante se active.
STP utiliza el algoritmo spanning tree (STA) para determinar los puertos de switch de la red que
deben configurarse para el bloqueo, y así evitar que se generen bucles. El STA designa un único
switch como puente raíz y lo utiliza como punto de referencia para todos los cálculos de rutas. En
la figura 28, el puente raíz, el switch S1, se escoge a través de un proceso de elección. Todos los
switches que comparten STP intercambian tramas de BPDU para determinar el switch que posee
el menor ID de puente (BID) en la red. El switch con el menor BID se transforma en el puente raíz
de forma automática según los cálculos del STA.
La BPDU es la trama de mensaje que se intercambia entre los switches en STP. Cada BPDU
contiene un BID que identifica al switch que envió la BPDU. El BID contiene un valor de prioridad,
la dirección MAC del switch emisor y un ID de sistema extendido opcional. Se determina el BID de
menor valor mediante la combinación de estos tres campos.
Después de determinar el puente raíz, el STA calcula la ruta más corta hacia el mismo. Todos los
switches utilizan el STA para determinar los puertos que deben bloquearse. Al determinar el STA
las mejores rutas hacia el puente raíz para todos los destinos del dominio de broadcast, se evita
que todo el tráfico sea enviado a través de la red. El STA considera los costos tanto de la ruta como
del puerto cuando determina la ruta que debe permanecer desbloqueada. Los costos de la ruta se
calculan mediante los valores de costo de puerto asociados con las velocidades de los puertos para
cada puerto de switch que atraviesa una ruta determinada. La suma de los valores de costo de
puerto determina el costo de ruta total para el puente raíz. Si existe más de una ruta a escoger, el
STA elige la de menor costo de ruta.
Cuando el STA determina las rutas que deben permanecer disponibles, configura los puertos de
switch de acuerdo con distintas funciones. Las funciones de los puertos describen su relación en la
red con el puente raíz y si los mismos pueden enviar tráfico.
Puertos raíz: los puertos de switch más cercanos al puente raíz. En el ejemplo, el puerto
raíz del switch S2 es F0/1, configurado para el enlace troncal entre el switch S2 y el switch
S1. El puerto raíz del switch S3 es F0/1, configurado para el enlace troncal entre el switch
S3 y el switch S1.
Puertos designados: todos los puertos que no son raíz y que aún pueden enviar tráfico a la
red. En el ejemplo, los puertos de switch F0/1 y F0/2 del switch S1 son puertos
designados. El switch S2 también cuenta con su puerto F0/2 configurado como puerto
designado.
Puertos no designados: todos los puertos configurados en estado de bloqueo para evitar
los bucles. En el ejemplo, el STA configura al puerto F0/2 del switch S3 en la función no
designado. El puerto F0/2 del switch S3 se encuentra en estado de bloqueo.
Al igual que con muchos estándares de redes, la evolución de STP se ha enfocado en la necesidad
de crear especificaciones para toda la industria cuando los protocolos de propiedad son
estándares de hecho. Cuando un protocolo de propiedad es tan predominante que todos sus
competidores del mercado deben contar con soporte para el mismo, las agencias como el IEEE
intervienen y crean una especificación pública.
Existen muchos tipos de variantes de STP. Algunas de estas variantes son propiedad de Cisco y
otras son estándares de IEEE.
Mantiene una instancia de spanning-tree para cada VLAN configurada en la red. Utiliza el
protocolo de enlace troncal ISL propiedad de Cisco que permite que un enlace troncal de la VLAN
se encuentre en estado de enviar para algunas VLAN y en estado de bloqueo para otras. Debido a
que PVST trata a cada VLAN como una red independiente, puede balancear la carga de tráfico de
la Capa 2 mediante el envío de algunas VLAN de un enlace troncal y otras de otro enlace troncal
sin generar bucles. Para PVST, Cisco desarrolló varias extensiones de propiedad del IEEE 802.1D
STP original, como BackboneFast, UplinkFast y PortFast.
PVST+
Cisco desarrolló PVST+ para que una red pueda ejecutar una instancia de STP para cada VLAN de la
red. Con PVST+ puede bloquearse más de un enlace troncal en una VLAN y puede implementarse
la carga compartida. Sin embargo, implementar PVST+ implica que todos los switches de la red se
comprometan con la convergencia de la red y los puertos de switch deben ajustarse al ancho de
banda adicional utilizado para cada instancia de PVST+ a fin de poder enviar sus propias BPDU.
En un entorno de PVST+ de Cisco se pueden ajustar los parámetros de spanning-tree de manera
que la mitad de las VLAN puedan enviar en todos los enlaces troncales. En la figura 29, el puerto
F0/3 del switch S2 es el puerto emisor para la VLAN 20 y F0/2 del switch S2 es el puerto emisor
para la VLAN 10. Esto se logra mediante la configuración de un switch para elegirlo como puente
raíz para la mitad de la cantidad total de VLAN de la red y de otro para elegirlo como puente raíz
para la otra mitad de las VLAN. En la figura 29, el switch S3 es el puente raíz para la VLAN 20 y el
switch S1 es el puente raíz para la VLAN 10. La creación de distintos switches raíz en STP por VLAN
genera una red más redundante.
PVST+ rápido es una implementación de Cisco de RSTP. Admite spanning tree para cada VLAN y es
la variante rápida de STP para utilizar en redes de Cisco. Se basa en el estándar IEEE 802.1w y
posee una convergencia más veloz que STP (estándar 802.1D). PVST+ rápido incluye las
extensiones propiedad de Cisco, como BackboneFast, UplinkFast y PortFast.
RSTP (IEEE 802.1w) es una evolución del estándar 802.1D. Principalmente, la terminología de
802.1w STP sigue siendo la misma que la del IEEE 802.1D STP. La mayoría de los parámetros no se
modifican, de modo que los usuarios familiarizados con STP puedan configurar rápidamente el
nuevo protocolo.
En la figura 30, la red muestra un ejemplo de RSTP. El switch S1 es el puente raíz con dos puertos
designados en estado de enviar. RSTP admite un nuevo tipo de puerto. El puerto F0/3 del switch
S2 es un puerto alternativo en estado de descarte. Observe que no existen puertos bloqueados.
RSTP no posee el estado de puerto de bloqueo. RSTP define los estados de puertos como de
descarte, aprender o enviar.
Permite que se asignen VLAN múltiples a la misma instancia de spanning‐tree, de modo tal que se
reduce la cantidad de instancias necesarias para admitir una gran cantidad de VLAN. MSTP se
inspiró en STP de instancias múltiples (MISTP) propiedad de Cisco y es una evolución de STP y
RSTP. Se introdujo en el IEEE 802.1s como enmienda de la edición de 802.1Q de 1998. El estándar
IEEE 802.1Q‐2003 ahora incluye a MSTP. MSTP proporciona varias rutas de envío para el tráfico de
datos y permite el balanceo de carga.
Etherchannel
Por ejemplo, agrupando enlaces Fast Ethernet de 100 Mbps cada uno, pudiéndose agrupar hasta 8
enlaces, se puede lograr una capacidad de hasta 1600 Mbps en full-duplex. Esta tecnología aplica
tanto para Fast EthernetChannel (FEC) o Gigabit EtherChannel (GEC).
Las características más resaltantes que se puede lograr con esta tecnología son:
Incremento de ancho de banda.
Convergencia rápida con tolerancia a fallas.
Balanceo de cargas.
Figura 31. Etherchannel
4. Ruteo InterVLAN
Ahora que ya conoce cómo configurar las VLAN en un switch de redes, el siguiente paso es
permitir a los dispositivos conectados a las distintas VLAN comunicarse entre sí. Anteriormente,
aprendió que cada VLAN es un dominio de broadcast único. Por lo tanto, de manera
predeterminada, las computadoras en VLAN separadas no pueden comunicarse. Existe una
manera para permitir que estas estaciones finales puedan comunicarse; esta manera se llama
enrutamiento inter VLAN.
En una red tradicional que utiliza VLAN múltiples para segmentar el tráfico de la red en dominios
de broadcast lógicos, el enrutamiento se realiza mediante la conexión de diferentes interfaces
físicas del router a diferentes puertos físicos del switch. Los puertos del switch conectan al router
en modo de acceso; en el modo de acceso, diferentes VLAN estáticas se asignan a cada interfaz del
puerto. Cada interfaz del switch estaría asignada a una VLAN estática diferente. Cada interfaz del
router puede entonces aceptar el tráfico desde la VLAN asociada a la interfaz del switch que se
encuentra conectada, y el tráfico puede enrutarse a otras VLAN conectadas a otras interfaces.
"Router-on-a-stick" es un tipo de configuración de router en la cual una interfaz física única enruta
el tráfico entre múltiples VLAN en una red. La interfaz del router se configura para funcionar como
enlace troncal y está conectada a un puerto del switch configurado en modo de enlace troncal. El
router realiza el enrutamiento inter VLAN al aceptar el tráfico etiquetado de la VLAN en la interfaz
troncal proveniente del switch adyacente y enrutar en forma interna entre las VLAN, mediante
subinterfaz. El router luego reenvía el tráfico enrutado de la VLAN etiquetada para la VLAN de
destino, por la misma interfaz física.
Figura 32. Enrutamiento interVLAN usando router
Las subinterfaces son interfaces virtuales múltiples, asociadas a una interfaz física. Estas interfaces
están configuradas en software en un router configurado en forma independiente con una
dirección IP y una asignación de VLAN para funcionar en una VLAN específica. Las subinterfaces
están configuradas para diferentes subredes que corresponden a la asignación de la VLAN, para
facilitar el enrutamiento lógico antes de que la VLAN etiquete las tramas de datos y las reenvíe por
la interfaz física.
Las redes que usan segmentos en campus, obtienen su funcionalidad basada en la organización,
políticas, aplicaciones, equipos de trabajo o simplemente por ubicaciones geográficas. Para lograr
ahorros considerables en servicios, costos y equipos se utiliza la arquitectura de las VLAN en vez
de instalar redes independientes físicamente y unidas por routers Se recomienda el uso de VLANs
que además estén basadas en una segmentación a través de subredes.
Cisco Systems (2006). Building Cisco Multilayer Switched Networks, Student Guide.
Objetivo. El alumno configurará los esquemas de direccionamiento IPv6 y los tipos de tunneling
de IPv4 a IPv6 para su implementación en la empresa.
El esquema de direccionamiento IPv6 ha sido desarrollado para ser compatible con el actual
esquema de direccionamiento IPv4, lo cual, permite a las actuales redes IPv6 coexistir con la redes
IPv4. El esquema de direccionamiento IPv6 incrementa el tamaño de direcciones al usar, de 32 bits
a 128 bits, el cual provee 340,282,366,920,938,463,374,607,431,768,211,456 o 3.4 x 10 38
direcciones IP.
A diferencia del formato decimal separado por puntos de IPv4, IPv6 es representado por números
hexadecimales. Un número hexadecimal es equivalente a 4 bits, y su representación va del 0 - 9 y
de la A – F. La dirección IPv6 es un valor numérico hexadecimal de 32 dígitos, 8 grupos de 4 dígitos
hexadecimales, separados por dos puntos (:), representando una dirección de 128 bits. Por
ejemplo, 1041:0000:130B:0000:0000:09C0:586C:1305.
Tipos de direcciones IP
Unicast. Este tipo de direcciones son bastante conocidas. Un paquete que se envía a una dirección
unicast debería llegar a la interfaz identificada por dicha dirección.
Anycast. Las direcciones anycast son sintácticamente indistinguibles de las direcciones unicast
pero sirven para identificar a un conjunto de interfaces. Un paquete destinado a una dirección
anycast llega a la interfaz “más cercana” (en términos de métrica de “routers”). Las direcciones
anycast sólo se pueden utilizar en “routers”.
Dichos mecanismos están diseñados para ser usados por hosts y routers IPv6 que necesitan
interoperar con hosts IPv4 y utilizar infraestructuras de ruteo IPv4. Se espera que muchos nodos
necesitarán compatibilidad por mucho tiempo y quizás indefinidamente. No obstante, IPv6
también puede ser usado en ambientes donde no se requiere interoperabilidad con IPv4. Nodos
diseñados para esos ambientes no necesitan usar ni implementar estos mecanismos.
Los nodos o redes IPv6 que se encuentran separadas por infraestructuras IPv4 pueden construir un
enlace virtual, configurando un túnel. Paquetes IPv6 que van hacia un dominio IPv6 serán
encapsulados dentro de paquetes IPv4. Los extremos del túnel son dos direcciones IPv4 y dos IPv6.
Se pueden utilizar dos tipos de túneles: configurados y automáticos. Los túneles configurados son
creados mediante configuración manual. Un ejemplo de redes conteniendo túneles configurados
es el 6bone. Los túneles automáticos no necesitan configuración manual. Los extremos se
determinan automáticamente determinados usando direcciones IPv6 IPv4-compatible.