UNIDAD II - PROTOCOLO DE ENRUTAMIENTO Y CONTROL DE TRAFICO

PROTOCOLOS DE ENRUTAMIENTO 

     Los protocolos de enrutamiento son el conjunto de reglas utilizadas por un router cuando se comunica con otros router con el fin de compartir información de enrutamiento. Dicha información se usa para construir y mantener las tablas de enrutamiento 

Enrutamiento Estático

     El principal problema que plantea mantener tablas de enrutamiento estáticas, además de tener que introducir manualmente en los routers toda la información que contienen, es que el router no puede adaptarse por sí solo a los cambios que puedan producirse en la topología de la red. Sin embargo, este método de enrutamiento resulta ventajoso en las siguientes situaciones:

  • Existe una sola conexión con un solo ISP. En lugar de conocer todas las rutas globales, se utiliza una única ruta estática.
  • Un cliente no desea intercambiar información de enrutamiento dinámico. 

Enrutamiento Predeterminado. 

     Es una ruta estática que se refiere a una conexión de salida o Gateway de “último recurso”. El tráfico hacia destinos desconocidos por el router se envía a dicha conexión de salida. Es la forma más fácil de enrutamiento para un dominio conectado a un único punto de salida. 
     
     Esta ruta se indica como la red de destino 0.0.0.0/0.0.0.0. 


Enrutamiento Dinámico. 

     Los protocolos de enrutamiento mantienen tablas de enrutamiento dinámicas por medio de mensajes de actualización del enrutamiento, que contienen información acerca de los cambios sufridos en la red, y que indican al software del router que actualice la tabla de enrutamiento en consecuencia. Intentar utilizar el enrutamiento dinámico sobre situaciones que no lo requieren es una pérdida de ancho de banda, esfuerzo, y en consecuencia de dinero. 

 Los algoritmos de enrutamiento se dividen en:


a) Vector Distancia: 

     Determina la dirección y la distancia hacia cualquier enlace de la red. Su métrica se basa en lo que se le llama en redes “Numero de Saltos”, es decir la cantidad de routers por los que tiene que pasar el paquete para llegar a la red destino, la ruta que tenga el menor numero de saltos es la mas optima y la que se publicará.
  • Visualiza la red desde la perspectiva de los vecinos 
  • Actualizaciones periódicas 
  • Transmite copias completas o parciales de las tablas de enrutamiento 
  • Convergencia lenta 
  • Incrementa las métricas a través de las actualizaciones 


b) Estado de enlace: 

     También llamado “Primero la Ruta Libre Mas Corta” (OSPF – Open Shortest Path First), recrea la topología exacta de toda la red. 

     Su métrica se basa el retardo ,ancho de banda , carga y confiabilidad, de los distintos enlaces posibles para llegar a un destino en base a esos conceptos el protocolo prefiere una ruta por sobre otra. Estos protocolos utilizan un tipo de publicaciones llamadas Publicaciones de estado de enlace (LSA),que intercambian entre los routers, mediante estas publicación cada router crea una base datos de la topología de la red completa.

  • Buscan una unión común de la topología de la red. 
  • Cada dispositivo calcula la ruta más corta a los otros routers. 
  • Las actualizaciones se activan por los eventos (cambios en la topología) de la red.
  • Transmite actualizaciones. 



MÉTRICA 

     La métrica es el análisis, y en lo que se basa el algoritmo del protocolo de enrutamiento dinámico para elegir y preferir una ruta por sobre otra, basándose en eso el protocolo creará la tabla de enrutamiento en el router, publicando sólo las mejores rutas. Un protocolo de enrutamiento utiliza métrica para determinar qué vía utilizar para transmitir un paquete a través de un Intercambio.

     La métrica utilizada por protocolos de enrutamiento incluyen 

  • Numero de saltos: Número de routers por los que pasará un paquete. 
  • Pulsos: Retraso en un enlace de datos usando pulsos de reloj de PC. 
  • Coste: Valor arbitrario, basado generalmente en el ancho de banda, el coste económico u otra medida. 
  • Ancho de banda: Capacidad de datos de un enlace. 
  • Retraso: Cantidad de actividad existente en un recurso de red, como un router o un enlace. 
  • Carga: Cantidad de actividad existente en un recurso de red, como un router o un enlace. - Fiabilidad: Se refiere al valor de errores de bits de cada enlace de red. 
  • MTU: Unidad máxima de transmisión. Longitud máxima de trama en octetos que puede ser aceptada por todos los enlaces de la ruta. 

     Los protocolos de enrutamiento almacenar los resultados de estas cifras en una tabla de enrutamiento.


Convergencia 

     Es el objetivo principal de todos los protocolos de enrutamiento. Cuando un conjunto de enrutadores converge significa que todos sus elementos se han puesto de acuerdo y reflejan la situación real del entorno de red donde se encuentran. La velocidad con la que los protocolos convergen después de un cambio es una buena medida de la eficacia del protocolo de enrutamiento. 


Distancia administrativa y métrica 

     Es una medida de la confianza otorgada a cada fuente de información de enrutamiento Cada protocolo de enrutamiento lleva asociado una distancia administrativa. Los valores más bajos significan una mayor fiabilidad. Un enrutador puede ejecutar varios protocolos de enrutamiento a la vez, obteniendo información de una red por varias fuentes. En estos casos usará la ruta que provenga de la fuente con menor distancia administrativa de los protocolos de enrutamiento. 

     Cada protocolo de enrutamiento da prioridad a los caminos de mayor a menor fiabilidad usando un valor de distancia administrativa. Es preferible un valor bajo: por ejemplo, una ruta OSPF con una distancia administrativa de 110 prevalecerá sobre una ruta RIP con una distancia administrativa de 120. La siguiente tabla muestra las distancias administrativas por defecto usadas por los routers Cisco:






Algunos protocolos de enrutamiento dinámicos son: 

  • RIP : Protocolo de enrutamiento de gateway Interior por vector distancia. 
  • IGRP: Protocolo de enrutamiento de gateway Interior por vector distancia, del cual es propietario CISCO. 
  • EIGRP: Protocolo de enrutamiento de gateway Interior por vector distancia, es una versión mejorada de IGRP. 
  • OSPF: Protocolo de enrutamiento de gateway Interior por estado de enlace. 
  • BGP: Protocolo de enrutamiento de gateway exterior por vector distancia 


Protocolos Internos de Pasarela (Interior Gateway Protocols o IGP) 


RIP 

     Es un protocolo de enrutamiento Dinámico de vector distancia, esto quiere decir que su métrica para llegar a una red destino se basa en el numero de saltos. 

     Es un protocolo abierto a diferencia de por ejemplo IGRP y EIGRP que son propietarios de Cisco.Es relativamente simple ideal para redes pequeñas, el numero de saltos máximo hacia un destino es 15 (cuando hablo de numero de saltos , me refiero a la cantidad de routers , por la que tiene que atravesar el paquete para llegar a destino), ya con 16 la red se declara como inalcanzable. 

     Existen dos versiones de este protocolo versión 1 y 2, la diferencia más importante, es que RIP v1 es lo que se llama un Protocolo con clase, lo que significa que cuando cuando publica las tablas de enrutamiento, este no adjunta las mascaras de subred.

     En cambio Rip v2 es un Protocolo sin clase, que si adjunta la mascara de subred, por lo que permite el uso de VLSM, CIDR, sumarización. 

    Otra diferencia es que RIP v1 publica sus actualizaciones en forma de Broadcast, es decir a todos los equipos de la red, mientras que RIP v2 lo hace en modo de Multicast, es decir solo a un grupo de host de una red. 

    Resumiendo las características de las 2 versiones: 

RIP Versión 1: 

  • Protocolo Abierto 
  • Distancia Administrativa:120 
  • Protocolo con clase 
  • Métrica numero de saltos 
  • Actualizaciones cada 30 segundos 
  • Envía las Actualizaciones en forma de Broadcast 
  • Numero Máximo de Saltos 15
  • Red Destino Inalcanzable, se declara como 16 saltos 
  • No Permite VLSM, CIDR RIP 

RIP Versión 2: 

     En lo que difiere es lo siguiente, porque lo demás es lo mismo que el versión 1 : 

  • Protocolo sin clase 
  • Envía las Actualizaciones en forma de Multicast (224.0.0.9) 
  • Permite VLSM, CIDR.



En cisco 
router0>enable router0#configure terminal 
router0(config)#router rip 
router0(config)#version 2 
router0(config-router)#network 10.0.0.0 
router0(config-router)#network 150.150.0.0 


Balanceo por destino 

router(config-if)# ip route-cache 

     El balanceo por destino significa que el router distribuye los paquetes basado en la dirección de destino. Dadas dos trayectorias a la misma red, todos los paquetes para el destino 1 en la red irán por la trayectoria 1; todos los paquetes hacia el destino 2 irán por la trayectoria 2. Esto preserva el orden de los paquetes, con el riesgo potencial de no hacer uso de los enlaces de manera desigual. Si un host recibe la mayoría del tráfico, todos los paquetes irán por ese enlace, lo que deja el ancho de banda de otros enlaces sin uso. Un número grande de direcciones de destino lleva a usos más equilibrados de los enlaces. Para lograr un mejor equilibrio, podemos usar el IOS para construir una entrada de caché de rutas para cada dirección de destino, en lugar de cada red de destino, como es el caso cuando sólo existe una trayectoria. De ahí que el tráfico para diferentes hosts dentro de la misma red de destino pueda usar diferentes trayectorias para llegar a su destino. La desventaja es que este proceso es altamente demandante para los routers de core backbone, ya que los requerimientos de proceso y memoria para mantener el caché son muy pesados 


Balanceo por paquete 

router(config-if)# no ip route-cache 

     El balanceo por paquete significa que el router envía un paquete a la red de destino 1 por la trayectoria 1, el siguiente paquete, que podría ser también para la red de destino 1, será enviado por la trayectoria 2, y así. Este método hace un uso más equilibrado de los enlaces, pero tiene el riesgo potencial de que los paquetes arriben en un orden distinto al que fueron enviados. EL IOS, excepto el 11.1CC, desactiva la aceleración de reenvío (forwarding acceleration) por caché de rutas cuando usamos el balanceo por paquete; porque la información del route cache incluye la interface de salida. Para el balanceo por paquete, el proceso de reenvío (forwarding) determina la interface de salida para cada paquete buscando en la tabla de ruteo y escogiendo la interface menos usada. Así se asegura el uso equilibrado de los enlaces, pero es una tarea muy intensiva para el procesador que impacta sobre el desempeño general del forwarding. 

     Esta forma de balanceo no es recomendable para interfaces de alta velocidad. 

El algunos routers, disponemos del modo CEF, que es lo mismo que el Forward-cahe, pero empleando menos recursos.

  • router(config-if)# Ip cef 
  • router(config-if)# No ip cef


Capa de Distribución


     La capa de distribución es una de las capas del diseño jerárquico de una red. Es la encargada de conectar redes locales independientes y controlar el tráfico que circula entre ellas. Está diseñada para interconectar redes, no hosts individuales.

     La capa de distribución garantiza que el tráfico entre los hosts de una red local Ethernet siga siendo local y sólo se transfiere el tráfico que está destinado a otras redes.

     La capa de distribución filtra el tráfico entrante y saliente para administrar la seguridad y el tráfico. Proporciona una conectividad basada en políticas y controla el límite entre las capas de acceso y de núcleo. Agrega los datos recibidos de la capa de acceso antes de que se transmitan a la capa núcleo.



Funciones de la capa de distribución


     Las funciones que proporciona la capa de distribución en un diseño de red de tres capas son: 


  • Agregar redes de armario de cableado a gran escala
  • Agregar dominios de difusión de capa 2 y límites de routing de capa 3
  • Proporcionar funciones inteligentes de switching, de routing y de política de acceso a la red para acceder al resto de la red
  • Proporcionar una alta disponibilidad al usuario final mediante los switches de capa de distribución redundantes, y rutas de igual costo al núcleo
  • Proporcionar servicios diferenciados a distintas clases de aplicaciones de servicio en el perímetro de la red
  • Proporcionar un límite de control entre las otras capas

     La capa de distribución se crea cuando se conectan entre sí los dispositivos de la capa de acceso, hubs y switches, a través de los dispositivos de la capa de distribución, los routers. Los dispositivos de la capa de acceso se conectan entre sí a través de dispositivos de la capa de distribución.




Dispositivos de la capa de distribución


     Los dispositivos de networking que se ubican en la capa de distribución suelen ser los routers y los switches multicapa.

     El dispositivo de capa de distribución es el centro en los armarios de cableado. Para segmentar los grupos de trabajo y aislar los problemas de la red, se utiliza un router o un switch multicapa.

Routers de la capa de distribución.

  • Se ubica en la capa de distribución.
  • Conectan las redes locales entre sí.
  • Dirigen el tráfico y pueden decodificar y leer los mensajes que reciben.
  • Utilizan direcciones IP para reenviar paquetes a otras redes.
  • Un puerto de router se conecta a la conexión WAN y los otros puertos se conectan a las LAN corporativas.
  • Es el gateway, la puerta de salida o la ruta hacia el exterior, para las LANs.

Switches multicapa

  • Es un switch que realiza conmutación de capa 3
  • Pueden tener tanto interfaces virtuales como puertos enrutados en el mismo switch
  • Reenvían el tráfico de capa 2 o capa 3 mediante hardware, lo que contribuye a un routing más veloz.


Enlaces troncales

     Estos se configuran entre los dispositivos de la capa de distribución y la de acceso. Los utilizamos para transportar trafico en múltiples VLAN en distintos dispositivos del el mismo enlace.
     El diseñador de enlaces troncales debe considerar los patrones de trafico de la red y crear una estrategia para que las VLAN funcionen correctamente.



Enlaces redundantes

     Aquí nos permite configurar los dispositivos para que sea balanceada la carga del trafico de la red a través de los enlaces.


Topología de la capa de distribución

     La topología de malla parcial, proporciona suficientes rutas redundantes para asegurar que la red pueda sobrevivir a una falla en un dispositivo o enlace. Cuando los dispositivos de la capa de distribución se ubican en el mismo armario de cableado o centro de datos se interconectan utilizando enlaces Gigabit. Cuando los dispositivos están separados por distancias más grandes, se utiliza cable de fibra. Es necesaria una planificación detallada para garantizar que existan suficientes puertos de fibra disponibles a fin que puedan proporcionar redundancia y el ancho de banda deseados.


Limitación del tamaño de los dominios de fallas 

     El diseñador de la red debe tratar de evitar fallas pues estas afectan de manera considerable en la capa núcleo de una red. En la capa de distribución, los errores de la red pueden contenerse en un área más pequeña y así afectar a la menor cantidad de usuarios. Al utilizar los dispositivos de Capa 3 en la capa de distribución, cada router funciona como gateway para una cantidad limitada de usuarios de la capa de acceso. 


Implementación de bloques de switches

     Los routers o switches se implementan en pares. Esta configuración se denomina bloque de switch de departamento o construcción. Cada bloque de switches funciona de manera independiente. Como resultado, la falla de un único dispositivo no desactiva la red. Incluso la falla de todo un bloque de switches no afecta a un número considerable de usuarios finales.




Redundancia en la capa de distribución

   Los dispositivos de la capa de distribución tienen conexiones redundantes con los switches en la capa de acceso y con los dispositivos en la capa núcleo. Si falla un dispositivo o un enlace, estas conexiones proporcionan rutas alternativas. 

     Los switches no son capaces de aprender de forma correcta los puertos; por tanto el trafico termina acumulándose en todo el switch.

     En una red estable, son poco frecuentes los nuevos cálculos del STP. En una red inestable, es importante verificar los switches para detectar cambios en la configuración y la estabilidad. Una de las causas más comunes de los nuevos cálculos del STP en forma frecuente es la falla en una fuente de energía o suministro eléctrico del switch. Una fuente de energía defectuosa provoca el reinicio del dispositivo de manera imprevista.



FILTRADO DEL TRÁFICO EN LA CAPA DE DISTRIBUCIÓN


     Una ACL es una lista de condiciones que se utilizan para probar el tráfico de la red que intenta viajar a través de la interfaz del router. Las declaraciones de la ACL identifican qué paquetes aceptar o denegar. 


Filtrado del tráfico de la red

     Para filtrar el tráfico de la red, el router examina cada paquete y luego lo envía o lo descarta, según las condiciones especificadas en la ACL. Existen diferentes tipos de ACL para distintos propósitos. Las ACL estándar filtran el tráfico según la dirección de origen. Las ACL extendidas pueden filtrar según varios criterios, entre ellos:

  • Dirección de origen
  • Dirección de destino
  • Protocolos
  • Números de puerto o aplicaciones
  • Si el paquete es parte de un flujo TCP establecido

ACL complejas


     Las ACL extendidas y estándar sirven de base para otras clases de ACL más complejas. Con el software IOS de Cisco, se pueden configurar tres funciones de ACL compleja: dinámica, reflexiva y basada en tiempo.


ACL dinámica: requiere que un usuario utilice Telnet para conectarse al router y realizar la autenticación. Una vez autenticada, se permite el tráfico proveniente del usuario.

ACL reflexiva: permite el tráfico saliente y luego limita el tráfico entrante de manera que se admitan solo las respuestas a solicitudes autorizadas. 

ACL basada en tiempo: permite y deniega determinado tráfico según la hora del día o el día de la semana.


Ubicación de las ACL

     El tráfico que viaja hacia una interfaz se filtra mediante la ACL entrante. El tráfico que sale de una interfaz se filtra mediante la lista de control de acceso saliente. El diseñador de red debe decidir dónde ubicar las ACL dentro de la red para alcanzar los resultados deseados.



Capa de acceso

     La capa de acceso representa el perímetro de la red, por donde entra o sale el tráfico de la red del campus. Tradicionalmente, la función principal de los switches de capa de acceso es proporcionar acceso de red al usuario. Los switches de capa de acceso se conectan a los switches de capa de distribución, que implementan tecnologías de base de red como el routing, la calidad de servicio y la seguridad.

     Para satisfacer las demandas de las aplicaciones de red y de los usuarios finales, las plataformas de switching de última generación ahora proporcionan servicios más convergentes, integrados e inteligentes a diversos tipos de terminales en el perímetro de la red. La incorporación de inteligencia en los switches de capa de acceso permite que las aplicaciones funcionen de manera más eficaz y segura en la red.
     
     La capa de acceso es una de las capas del diseño jerárquico de una red. Es el nivel más básico de la red. Representa el perímetro de la red. El tráfico de los usuarios se inicia en la capa de acceso. Es por donde entra o sale el tráfico de los usuarios.

     La capa de acceso proporciona conectividad a los usuarios. Proporciona un punto de conexión a la red para los dispositivos de los usuarios finales. Es la parte de la red que permite a los usuarios obtener acceso a otros hosts, a archivos e impresoras compartidos.

     La capa de acceso está formada por host y por la primera línea de dispositivos de red. Cada host está conectado a un dispositivo de red.


Funciones de la capa de acceso


     Las funciones que proporciona la capa de acceso en un diseño de red de tres capas son:
  • Switching de capa 2
  • Alta disponibilidad
  • Seguridad del puerto
  • Clasificación y marcación de QoS, y límites de confianza
  • Inspección del protocolo de resolución de direcciones (ARP)
  • Listas de control de acceso virtual (VACL)
  • Árbol de expansión
  • Alimentación por Ethernet y VLAN auxiliares para VoIP

     La capa de acceso se crea, conectando directamente cada host a un dispositivo de red mediante un cable punto a punto. Cada cable se conecta a una NIC del host y a un puerto del dispositivo de red.


Dispositivos de la capa de acceso

     Los hosts o dispositivos finales se conectan a otros hosts a través de un dispositivo de red de capa de acceso, por lo general un hub, un switch o un punto de acceso inalámbrico.


Hubs en la capa de acceso

  • Dispositivos simples que no decodifican los mensajes enviados entre los hosts
  • No pueden determinar qué host debe recibir un mensaje en particular
  • Sólo acepta datos en un puerto, para después regenerarlos y enviarlos al resto de los puertos
  • Funcionan como repetidor extendiendo el alcance de una red cuando se produce deterioro de los datos a causa de la distancia



     Los hubs no se utilizan con tanta frecuencia debido a que disminuyen el ancho de banda disponible, para los dispositivos conectados a estos, al no segmentar el tráfico. Además, contribuyen a que haya un tráfico constante e innecesario de datos entre los dispositivos conectados a estos.


Switches en la capa de acceso

     Filtran y segmentan el tráfico de la red al enviar datos solo al dispositivo al que se envían los datos

  • Proporcionan un mayor ancho de banda dedicado a cada dispositivo de la red
  • Mantienen una tabla de conmutación para determinar que host debe recibir el mensaje
  • Al enviar tramas hacia el destino, los otros puertos no se ven afectados




Puntos de acceso inalámbrico


  • Proporcionan acceso a la red a dispositivos inalámbricos
  • Utiliza ondas de radio para comunicarse con los dispositivos y con otros puntos de acceso inalámbrico
  • Tiene un rango de cobertura limitado
  • Varios puntos de acceso proporcionan cobertura inalámbrica adecuada
  • Proporciona conectividad solo a la red




VLAN


     Una VLAN (Red de área local virtual o LAN virtual) es una red de área local que agrupa un conjunto de equipos de manera lógica y no física. 

     Efectivamente, la comunicación entre los diferentes equipos en una red de área local está regida por la arquitectura física. Gracias a las redes virtuales (VLAN), es posible liberarse de las limitaciones de la arquitectura física (limitaciones geográficas, limitaciones de dirección, etc.), ya que se define una segmentación lógica basada en el agrupamiento de equipos según determinados criterios (direcciones MAC, números de puertos, protocolos, etc.).

     En una red de área local (LAN), todas las estaciones de trabajo conectadas a un mismo switch (hub), o a un grupo de switches conectados entre sí, comparten el mismo dominio de difusión. Esto hace que cualquier paquete de difusión enviado a la LAN es replicado en todos los puertos del switch o grupo de switches. Este hecho hace que el rendimiento de la red baje considerablemente debido al uso del ancho de banda para el envío de los mensajes de difusión. 

     Es muy habitual que dentro de una misma LAN (dominio de difusión) haya usuarios pertenecientes a distintos grupos de trabajo. Normalmente los mensajes de difusión sólo incumben a los dispositivos pertenecientes a un mismo grupo de trabajo. A cada usuario le llegan mensajes de otros grupos de trabajo que no le incumben, y que usan un ancho de banda que no puede ser aprovechado para enviar otros mensajes. 

Como puede verse en la siguiente figura, hay dos formas de solucionar estos problemas: 

  • Utilización de routers: El router es un dispositivo que aísla dominios de difusión, es decir, los mensajes de difusión de una LAN no son propagados más allá del router.
  • Implementación de redes de área local virtual de (VLANs)






     Una VLAN está formada por un grupo lógico de estaciones, físicamente unidas a uno o más switches, y que se gestionan como una subred. Cada estación sólo puede comunicarse con otras estaciones de su grupo. Aunque una estación puede pertenecer a más de un grupo. 






Las principales ventajas que aporta una VLAN son: 


  • Mejora en la velocidad de la red al optimizar la gestión de los puertos.
  • Gestión más eficaz del ancho de banda de la LAN.
  • Aumento de la seguridad de la red.


Tipos de VLAN

     Se han definido diversos tipos de VLAN, según criterios de conmutación y el nivel en el que se lleve a cabo. Así, la VLAN de nivel 1 (también denominada VLAN basada en puerto) define una red virtual según los puertos de conexión del conmutador. La VLAN de nivel 2 (también denominada VLAN basada en la dirección MAC) define una red virtual según las direcciones MAC de las estaciones. Este tipo de VLAN es más flexible que la VLAN basada en puerto, ya que la red es independiente de la ubicación de la estación. 

     Además de las anteriores, existe la VLAN de nivel 3, que incluye diferentes tipos. La VLAN basada en la dirección de red conecta subredes según la dirección IP de origen de los datagramas. Este tipo de solución brinda gran flexibilidad, en la medida en que la configuración de los conmutadores cambia automáticamente cuando se mueve una estación. En contrapartida, puede haber una ligera disminución del rendimiento, ya que la información contenida en los paquetes debe analizarse detenidamente. La VLAN basada en protocolo permite crear una red virtual por tipo de protocolo(por ejemplo, TCP/IP, IPX, AppleTalk, etc.). Por lo tanto, se pueden agrupar todos los equipos que utilizan el mismo protocolo en la misma red.


Ventajas de la VLAN

     La VLAN permite definir una nueva red por encima de la red física y, por lo tanto, ofrece diversas ventajas: una mayor flexibilidad en la administración y en los cambios de la red, ya que la arquitectura puede cambiarse usando los parámetros de los conmutadores; un aumento de la seguridad, puesto que la información se encapsula en un nivel adicional y puede ser analizada; una disminución en la transmisión de tráfico en la red.


Qué estándares definen a las VLAN 

     Las VLAN están definidas por los estándares IEEE 802.1D, 802.1p, 802.1Q y 802.10. Para obtener más información, te aconsejamos que consulte los siguientes documentos: IEEE 802.1D, IEEE 802.1Q y IEEE 802.10.



No hay comentarios.:

Publicar un comentario