Se um sinal de voz é reduzido a pacotes, e é forçado a compartilhar um link com tráfego de dados estourado (tráfego com alguns pacotes de dados grandes), então não importa quão pequenos os pacotes de voz poderiam ser feitos, eles sempre encontrariam pacotes de dados em tamanho real. Sob condições normais de fila de espera, as células podem sofrer atrasos máximos na fila. Para evitar esse problema, todos os pacotes ATM, ou “células”, são do mesmo tamanho pequeno. Além disso, a estrutura de células fixas significa que o ATM pode ser prontamente trocado por hardware sem os atrasos inerentes introduzidos pelos quadros trocados e roteados por software.

Assim, os projetistas do ATM utilizaram pequenas células de dados para reduzir o jitter (variação de atraso, neste caso) na multiplexação dos fluxos de dados. A redução do jitter (e também dos atrasos de ida e volta de ponta a ponta) é particularmente importante ao transportar tráfego de voz, porque a conversão da voz digitalizada em um sinal de áudio analógico é um processo inerentemente em tempo real, e para fazer um bom trabalho, o decodificador (codec) que faz isso precisa de um fluxo de dados uniformemente espaçado (no tempo). Se o próximo item de dados não estiver disponível quando for necessário, o codec não tem outra escolha senão produzir silêncio ou adivinhar – e se os dados estiverem atrasados, são inúteis, porque o período de tempo em que deveriam ter sido convertidos para um sinal já passou.

No momento do projeto do ATM, a hierarquia digital síncrona (SDH) de 155 Mbit/s com carga útil de 135 Mbit/s era considerada um link de rede óptica rápida, e muitos links plesiochronous digital hierarchy (PDH) na rede digital eram consideravelmente mais lentos, variando de 1.544 a 45 Mbit/s nos EUA, e 2 a 34 Mbit/s na Europa.

A 155 Mbit/s, um pacote de dados típico de 1.500 bytes (12.000 bits), suficiente para conter um pacote IP de tamanho máximo para Ethernet, levaria 77,42 µs para transmitir. Em um link de menor velocidade, como uma linha T1 de 1,544 Mbit/s, o mesmo pacote levaria até 7,8 milissegundos.

Um atraso na fila induzido por vários desses pacotes de dados poderia exceder o valor de 7,8 ms várias vezes, além de qualquer atraso na geração de pacotes no pacote de voz mais curto. Isso foi considerado inaceitável para o tráfego de voz, que precisa ter baixo jitter no fluxo de dados sendo alimentado no codec para produzir um som de boa qualidade. Um sistema de pacotes de voz pode produzir esse baixo jitter de várias maneiras:

  • Usando um buffer de reprodução entre a rede e o codec, um buffer grande o suficiente para martelar o codec sobre quase todo o jitter nos dados. Isto permite suavizar o jitter, mas o atraso introduzido pela passagem através do buffer exige canceladores de eco mesmo em redes locais; isto foi considerado demasiado caro na altura. Além disso, ele aumentou o atraso através do canal, e dificultou a conversa em canais de alto atraso.
  • Utilizar um sistema que fornece inerentemente jitter baixo (e atraso geral mínimo) para o tráfego que precisa dele.
  • Operar em uma base de usuário 1:1 (ou seja, um pipe dedicado).

O projeto do ATM visava uma interface de rede de baixo jitter. No entanto, “células” foram introduzidas no projeto para fornecer pequenos atrasos na fila de espera enquanto continua a suportar o tráfego de datagramas. O ATM dividiu todos os pacotes, dados e fluxos de voz em blocos de 48 bytes, adicionando um cabeçalho de roteamento de 5 bytes a cada um deles para que pudessem ser remontados mais tarde. A escolha dos 48 bytes foi mais política do que técnica. Quando o CCITT (agora ITU-T) estava padronizando o ATM, os partidos dos Estados Unidos queriam uma carga útil de 64 bytes porque isso era considerado um bom compromisso em cargas úteis maiores otimizadas para transmissão de dados e cargas úteis mais curtas otimizadas para aplicações em tempo real como voz; os partidos da Europa queriam cargas úteis de 32 bytes porque o tamanho pequeno (e, portanto, os tempos de transmissão curtos) simplificavam as aplicações de voz com relação ao cancelamento de eco. A maioria dos partidos europeus acabou por se render aos argumentos apresentados pelos americanos, mas a França e alguns outros resistiram por um comprimento de célula mais curto. Com 32 bytes, a França teria sido capaz de implementar uma rede de voz baseada em ATM com chamadas de um extremo a outro da França, sem necessidade de cancelamento de eco. 48 bytes (mais 5 bytes de cabeçalho = 53) foi escolhido como um compromisso entre os dois lados. Os cabeçalhos de 5 bytes foram escolhidos porque se pensava que 10% da carga útil era o preço máximo a pagar pela informação de encaminhamento. ATM multiplexou essas células de 53 bytes ao invés de pacotes, o que reduziu o jitter de contenção de células no pior caso por um fator de quase 30, reduzindo a necessidade de canceladores de eco.

Estrutura da célulaEdit

Uma célula ATM consiste de um cabeçalho de 5 bytes e uma carga útil de 48 bytes. O tamanho da carga útil de 48 bytes foi escolhido como descrito acima.

ATM define dois formatos diferentes de célula: interface usuário-rede (UNI) e interface rede-rede (NNI). A maioria dos links ATM usa o formato de célula UNI.

Diagrama de uma célula ATM UNI

>7 >4 3 0
GFC VPI
VPI VCI
VCI
VCI PT CLP
HEC

Payload and padding if necessary (48 bytes)

Diagrama de uma célula ATM NNI

7 >4 3 >0
VPI
VPI VCI
VCI
VCI PT CLP
HEC

Payload and padding se necessário (48 bytes)

GFC = O campo genérico de controle de fluxo (GFC) é um 4-campo de bits que foi originalmente adicionado para suportar a conexão de redes ATM a redes de acesso compartilhado, como um anel de duplo barramento de fila distribuída (DQDB). O campo GFC foi projetado para dar à Interface User-Network (UNI) 4 bits para negociar multiplexação e controle de fluxo entre as células de várias conexões ATM. Entretanto, o uso e os valores exatos do campo GFC não foram padronizados, e o campo é sempre definido como 0000. VPI = Identificador de caminho virtual (8 bits UNI, ou 12 bits NNI) VCI = Identificador de canal virtual (16 bits) PT = Tipo de carga útil (3 bits) PT bit 3 (msbit): Célula de gestão de rede. Se 0, aplica-se a célula de dados do usuário e o seguinte: PT bit 2: Indicação explícita de congestionamento de avanço (EFCI); 1 = congestionamento de rede experimentado PT bit 1 (lsbit): Bit de utilizador-a-utilizador (AAU) do ATM. Usado pelo AAL5 para indicar os limites do pacote. CLP = Cell loss priority (1-bit) HEC = Controle de erros de cabeçalho (8-bit CRC, polinomial = X8 + X2 + X + 1)

ATM usa o campo PT para designar vários tipos especiais de células para fins de operações, administração e gerenciamento (OAM), e para delinear limites de pacotes em algumas camadas de adaptação de ATM (AAL). Se o bit mais significativo (MSB) do campo PT for 0, este é uma célula de dados do usuário, e os outros dois bits são usados para indicar o congestionamento da rede e como bit de cabeçalho de propósito geral disponível para as camadas de adaptação do ATM. Se a MSB for 1, esta é uma célula de gestão, e os outros dois bits indicam o tipo. (Segmento de gerenciamento de rede, gerenciamento de rede de ponta a ponta, gerenciamento de recursos e reservado para uso futuro.)

Protocolos de link de ATM usam o campo HEC para conduzir um algoritmo de enquadramento baseado em CRC, que permite localizar as células ATM sem sobrecarga além do que é necessário para a proteção do cabeçalho. O CRC de 8 bits é usado para corrigir erros de cabeçalho de um bit e detectar erros de cabeçalho de vários bits. Quando erros de cabeçalho de multi-bits são detectados, as células atuais e subseqüentes são descartadas até que uma célula sem erros de cabeçalho seja encontrada.

Uma célula UNI reserva o campo GFC para um sistema local de controle/submultiplexação de fluxo entre usuários. Isto foi feito para permitir que vários terminais possam compartilhar uma única conexão de rede, da mesma forma que dois telefones de Rede Digital com Serviços Integrados (RDSI) podem compartilhar uma única conexão RDSI de taxa básica. Todos os quatro bits GFC devem ser zero por padrão.

O formato da célula NNI replica o formato UNI quase exatamente, exceto que o campo GFC de 4 bits é realocado para o campo VPI, estendendo o VPI para 12 bits. Assim, uma única interconexão ATM NNI é capaz de endereçar quase 212 VPs de até quase 216 VCs cada (na prática alguns dos números VP e VC são reservados).

Tipos de serviçoEdit

ATM suporta diferentes tipos de serviços via AALs. Os AALs padronizados incluem AAL1, AAL2 e AAL5, e os raramente usados AAL3 e AAL4. O AAL1 é usado para serviços de taxa de bits constante (CBR) e emulação de circuitos. A sincronização também é mantida em AAL1. AAL2 até AAL4 são usados para serviços de taxa de bits variável (VBR), e AAL5 para dados. Qual AAL está em uso para uma determinada célula não é codificado na célula. Ao invés disso, ele é negociado ou configurado nos pontos finais em uma base de conexão per-virtual.

Ao seguir o projeto inicial do ATM, as redes se tornaram muito mais rápidas. Um quadro Ethernet de 1500 bytes (12000 bits) de tamanho completo leva apenas 1,2 µs para transmitir em uma rede de 10 Gbit/s, reduzindo a necessidade de pequenas células reduzirem o jitter devido à contenção. Alguns consideram que isso justifica a substituição do ATM por Ethernet no backbone da rede. O aumento da velocidade do link por si só não alivia o jitter devido ao enfileiramento. Além disso, o hardware para implementar a adaptação do serviço para pacotes IP é caro em velocidades muito altas. Especificamente, em velocidades de OC-3 e superiores, o custo do hardware de segmentação e remontagem (SAR) torna o ATM menos competitivo para IP do que o Packet Over SONET (POS); devido à sua carga útil fixa de células de 48 bytes, o ATM não é adequado como uma camada de link de dados diretamente subjacente ao IP (sem a necessidade de SAR no nível do link de dados), uma vez que a camada OSI na qual o IP opera deve fornecer uma unidade de transmissão máxima (MTU) de pelo menos 576 bytes. Os limites de desempenho do SAR significam que as interfaces ATM de roteador IP mais rápidas são STM16 – STM64, que realmente compara, enquanto a partir de 2004 os POS podem operar em OC-192 (STM64) com velocidades mais altas esperadas no futuro, limites baseados na segmentação e remontagem (SAR).

Em links mais lentos ou congestionados (622 Mbit/s e abaixo), o ATM faz sentido, e por esta razão a maioria dos sistemas de linha de assinante digital assimétrica (ADSL) usa o ATM como uma camada intermediária entre a camada de link físico e um protocolo de Camada 2 como PPP ou Ethernet.

A estas velocidades mais baixas, o ATM fornece uma habilidade útil para carregar múltiplos circuitos lógicos em um único meio físico ou virtual, embora existam outras técnicas, tais como PPP Multi-link e VLANs Ethernet, que são opcionais em implementações VDSL. A DSL pode ser usada como um método de acesso para uma rede ATM, permitindo que um ponto de terminação DSL em uma central telefônica se conecte a muitos provedores de serviços de Internet em uma rede ATM de área ampla. Nos Estados Unidos, pelo menos, isso permitiu aos provedores de DSL fornecer acesso DSL aos clientes de muitos provedores de serviços de Internet. Como um ponto de terminação DSL pode suportar vários provedores, a viabilidade econômica da DSL é substancialmente melhorada.

Deixe uma resposta

O seu endereço de email não será publicado.