Si una señal de voz se reduce a paquetes y se ve obligada a compartir un enlace con tráfico de datos en ráfaga (tráfico con algunos paquetes de datos grandes), entonces, por muy pequeños que sean los paquetes de voz, siempre se encontrarán con paquetes de datos de tamaño completo. En condiciones normales de colas, las células podrían experimentar retrasos máximos en las colas. Para evitar este problema, todos los paquetes ATM, o «celdas», tienen el mismo tamaño pequeño. Además, la estructura de celdas fijas significa que ATM puede ser fácilmente conmutada por hardware sin los retrasos inherentes introducidos por las tramas conmutadas y enrutadas por software.

Por lo tanto, los diseñadores de ATM utilizaron celdas de datos pequeñas para reducir la fluctuación (variación del retraso, en este caso) en la multiplexación de los flujos de datos. La reducción del jitter (y también de los retrasos de ida y vuelta de extremo a extremo) es particularmente importante cuando se transporta tráfico de voz, porque la conversión de la voz digitalizada en una señal de audio analógica es un proceso inherentemente en tiempo real, y para hacer un buen trabajo, el decodificador (códec) que lo hace necesita un flujo de datos uniformemente espaciado (en el tiempo). Si el siguiente elemento de datos no está disponible cuando se necesita, el códec no tiene más remedio que producir silencio o adivinar – y si los datos llegan tarde, son inútiles, porque el período de tiempo en que deberían haberse convertido en una señal ya ha pasado.

En el momento del diseño de ATM, la jerarquía digital síncrona (SDH) de 155 Mbit/s con una carga útil de 135 Mbit/s se consideraba un enlace de red óptica rápido, y muchos enlaces de jerarquía digital plesiócrona (PDH) de la red digital eran considerablemente más lentos, oscilando entre 1.544 a 45 Mbit/s en Estados Unidos, y de 2 a 34 Mbit/s en Europa.

A 155 Mbit/s, un paquete de datos típico de longitud completa de 1.500 bytes (12.000 bits), suficiente para contener un paquete IP de tamaño máximo para Ethernet, tardaría 77,42 µs en transmitirse. En un enlace de menor velocidad, como una línea T1 de 1,544 Mbit/s, el mismo paquete tardaría hasta 7,8 milisegundos.

Un retardo de cola inducido por varios paquetes de datos de este tipo podría superar varias veces la cifra de 7,8 ms, además de cualquier retardo de generación de paquetes en el paquete de voz más corto. Esto se consideró inaceptable para el tráfico de voz, que necesita tener una baja fluctuación en el flujo de datos que se introduce en el códec si se quiere producir un sonido de buena calidad. Un sistema de voz por paquetes puede producir esta baja fluctuación de varias maneras:

  • Utilizando un búfer de reproducción entre la red y el códec, lo suficientemente grande como para que el códec supere casi toda la fluctuación de los datos. Esto permite suavizar el jitter, pero el retardo introducido por el paso a través del buffer requiere canceladores de eco incluso en redes locales; esto se consideraba demasiado caro en ese momento. Además, aumentaba el retardo a través del canal y dificultaba la conversación en canales de alto retardo.
  • Utilizar un sistema que proporcione intrínsecamente un bajo jitter (y un retardo global mínimo) al tráfico que lo necesite.
  • Operar sobre una base de usuario 1:1 (es decir, una tubería dedicada).

El diseño de ATM tenía como objetivo una interfaz de red de bajo jitter. Sin embargo, se introdujeron «celdas» en el diseño para proporcionar retrasos cortos en las colas mientras se seguía soportando el tráfico de datagramas. ATM dividió todos los paquetes, datos y flujos de voz en trozos de 48 bytes, añadiendo una cabecera de enrutamiento de 5 bytes a cada uno de ellos para que pudieran ser reensamblados posteriormente. La elección de 48 bytes fue más política que técnica. Cuando el CCITT (ahora UIT-T) estaba estandarizando ATM, las partes de Estados Unidos querían una carga útil de 64 bytes porque se consideraba que era un buen compromiso entre cargas útiles más grandes optimizadas para la transmisión de datos y cargas útiles más cortas optimizadas para aplicaciones en tiempo real como la voz; las partes de Europa querían cargas útiles de 32 bytes porque el tamaño pequeño (y por tanto los tiempos de transmisión cortos) simplifican las aplicaciones de voz con respecto a la cancelación del eco. La mayoría de las partes europeas acabaron aceptando los argumentos de los estadounidenses, pero Francia y algunas otras se mantuvieron firmes en su deseo de una longitud de celda más corta. Con 32 bytes, Francia habría podido implantar una red de voz basada en ATM con llamadas de un extremo a otro de Francia que no requirieran cancelación de eco. Se optó por 48 bytes (más 5 bytes de cabecera = 53) como compromiso entre ambas partes. Se eligieron cabeceras de 5 bytes porque se pensó que el 10% de la carga útil era el precio máximo a pagar por la información de enrutamiento. ATM multiplexó estas celdas de 53 bytes en lugar de paquetes, lo que redujo el jitter de contención de celdas en el peor de los casos por un factor de casi 30, reduciendo la necesidad de canceladores de eco.

Estructura de la celdaEditar

Una celda ATM consiste en una cabecera de 5 bytes y una carga útil de 48 bytes. El tamaño de la carga útil de 48 bytes se eligió como se describió anteriormente.

ATM define dos formatos de celda diferentes: interfaz usuario-red (UNI) e interfaz red-red (NNI). La mayoría de los enlaces ATM utilizan el formato de celda UNI.

Diagrama de una célula ATM UNI

7 4 3 0
GFC VPI
VPI VCI
VCI
VCI PT CLP
HEC

Carga útil y relleno si es necesario (48 bytes)

Diagrama de una célula NNI ATM

7 4 3 . 0
VPI
VPI VCI
VCI
VCI PT CLP
HEC

Carga útil y relleno si es necesario (48 bytes)

GFC = El campo de control de flujo genérico (GFC) es un campo de 4bits que se añadió originalmente para admitir la conexión de redes ATM a redes de acceso compartido, como un anillo de bus dual de cola distribuida (DQDB). El campo GFC se diseñó para dar a la interfaz usuario-red (UNI) 4 bits con los que negociar la multiplexación y el control de flujo entre las celdas de varias conexiones ATM. Sin embargo, el uso y los valores exactos del campo GFC no se han estandarizado, y el campo siempre se establece en 0000. VPI = Identificador de camino virtual (8 bits UNI, o 12 bits NNI) VCI = Identificador de canal virtual (16 bits) PT = Tipo de carga útil (3 bits) PT bit 3 (msbit): Celda de gestión de red. Si es 0, célula de datos de usuario y se aplica lo siguiente: PT bit 2: Indicación explícita de congestión de avance (EFCI); 1 = congestión de red experimentada PT bit 1 (lsbit): Bit ATM de usuario a usuario (AAU). Utilizado por AAL5 para indicar los límites de los paquetes. CLP = prioridad de pérdida de celda (1 bit) HEC = control de errores de cabecera (CRC de 8 bits, polinomio = X8 + X2 + X + 1)

ATM utiliza el campo PT para designar varios tipos especiales de celdas con fines de operación, administración y gestión (OAM), y para delinear los límites de los paquetes en algunas capas de adaptación ATM (AAL). Si el bit más significativo (MSB) del campo PT es 0, se trata de una celda de datos de usuario, y los otros dos bits se utilizan para indicar la congestión de la red y como bit de cabecera de propósito general disponible para las capas de adaptación ATM. Si el MSB es 1, se trata de una celda de gestión, y los otros dos bits indican el tipo. (Segmento de gestión de red, gestión de red de extremo a extremo, gestión de recursos y reservado para uso futuro.)

Varios protocolos de enlace ATM utilizan el campo HEC para impulsar un algoritmo de encuadre basado en CRC, que permite localizar las celdas ATM sin ninguna sobrecarga más allá de la necesaria para la protección de la cabecera. El CRC de 8 bits se utiliza para corregir errores de cabecera de un solo bit y detectar errores de cabecera de varios bits. Cuando se detectan errores de cabecera de varios bits, la celda actual y las subsiguientes se descartan hasta que se encuentra una celda sin errores de cabecera.

Una celda UNI reserva el campo GFC para un sistema local de control de flujo/submultiplexación entre usuarios. Su finalidad es permitir que varios terminales compartan una única conexión de red, del mismo modo que dos teléfonos de la Red Digital de Servicios Integrados (RDSI) pueden compartir una única conexión RDSI de velocidad básica. Los cuatro bits GFC deben ser cero por defecto.

El formato de celda NNI replica el formato UNI casi exactamente, excepto que el campo GFC de 4 bits se reasigna al campo VPI, ampliando el VPI a 12 bits. Así, una sola interconexión NNI ATM es capaz de direccionar casi 212 VPs de hasta casi 216 VCs cada uno (en la práctica algunos de los números de VP y VC están reservados).

Tipos de servicioEditar

ATM soporta diferentes tipos de servicios a través de AALs. Las AAL estandarizadas incluyen AAL1, AAL2 y AAL5, y las poco utilizadas AAL3 y AAL4. La AAL1 se utiliza para servicios de velocidad de bits constante (CBR) y emulación de circuitos. La sincronización también se mantiene en AAL1. Las AAL2 a AAL4 se utilizan para servicios de velocidad de bits variable (VBR), y la AAL5 para datos. La AAL que se utiliza para una célula determinada no está codificada en la célula. En su lugar, se negocia o se configura en los puntos finales sobre una base de conexión virtual.

Después del diseño inicial de ATM, las redes se han vuelto mucho más rápidas. Una trama Ethernet de tamaño completo de 1.500 bytes (12.000 bits) tarda sólo 1,2 µs en transmitirse en una red de 10 Gbit/s, lo que reduce la necesidad de células pequeñas para reducir el jitter debido a la contención. Algunos consideran que esto justifica la sustitución de ATM por Ethernet en la red troncal. El aumento de la velocidad de los enlaces no alivia por sí mismo la inestabilidad debida a las colas. Además, el hardware para implementar la adaptación del servicio para los paquetes IP es caro a velocidades muy altas. En concreto, a velocidades de OC-3 y superiores, el coste del hardware de segmentación y reensamblaje (SAR) hace que ATM sea menos competitivo para IP que Packet Over SONET (POS); debido a su carga útil de celda fija de 48 bytes, ATM no es adecuado como capa de enlace de datos directamente subyacente a IP (sin necesidad de SAR a nivel de enlace de datos), ya que la capa OSI en la que opera IP debe proporcionar una unidad de transmisión máxima (MTU) de al menos 576 bytes. Los límites de rendimiento de SAR significan que las interfaces ATM de router IP más rápidas son STM16 – STM64 que en realidad se comparan, mientras que a partir de 2004 POS puede operar a OC-192 (STM64) con velocidades más altas previstas en el futuro, límites basados en la segmentación y el reensamblaje (SAR).

En enlaces más lentos o congestionados (622 Mbit/s e inferiores), ATM sí tiene sentido, y por esta razón la mayoría de los sistemas de línea de abonado digital asimétrica (ADSL) utilizan ATM como capa intermedia entre la capa de enlace físico y un protocolo de capa 2 como PPP o Ethernet.

A estas velocidades más bajas, ATM proporciona una capacidad útil para transportar múltiples circuitos lógicos en un único medio físico o virtual, aunque existen otras técnicas, como el PPP multienlace y las VLAN de Ethernet, que son opcionales en las implementaciones de VDSL. DSL puede utilizarse como método de acceso para una red ATM, lo que permite que un punto de terminación DSL en una oficina central telefónica se conecte a muchos proveedores de servicios de Internet a través de una red ATM de área amplia. En Estados Unidos, al menos, esto ha permitido a los proveedores de DSL proporcionar acceso a los clientes de muchos proveedores de servicios de Internet. Dado que un punto de terminación de DSL puede dar soporte a múltiples ISP, la viabilidad económica de DSL mejora sustancialmente.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.