Si un signal vocal est réduit en paquets, et qu’il est forcé de partager une liaison avec un trafic de données en rafale (trafic avec quelques gros paquets de données), alors quelle que soit la taille des paquets vocaux que l’on pourrait rendre, ils rencontreraient toujours des paquets de données de taille normale. Dans des conditions normales de mise en file d’attente, les cellules peuvent subir des retards maximaux de mise en file d’attente. Pour éviter ce problème, tous les paquets ATM, ou « cellules », ont la même taille réduite. En outre, la structure fixe des cellules signifie que l’ATM peut être facilement commuté par le matériel sans les retards inhérents introduits par les trames commutées et acheminées par logiciel.

Ainsi, les concepteurs de l’ATM ont utilisé de petites cellules de données pour réduire la gigue (variance du délai, dans ce cas) dans le multiplexage des flux de données. La réduction de la gigue (et également des délais aller-retour de bout en bout) est particulièrement importante lors du transport du trafic vocal, car la conversion de la voix numérisée en un signal audio analogique est un processus intrinsèquement en temps réel, et pour faire un bon travail, le décodeur (codec) qui s’en charge a besoin d’un flux d’éléments de données régulièrement espacés (dans le temps). Si la donnée suivante n’est pas disponible au moment où elle est nécessaire, le codec n’a pas d’autre choix que de produire un silence ou de deviner – et si la donnée est en retard, elle est inutile, car la période où elle aurait dû être convertie en signal est déjà passée.

Au moment de la conception de l’ATM, la hiérarchie numérique synchrone (SDH) de 155 Mbit/s avec une charge utile de 135 Mbit/s était considérée comme une liaison de réseau optique rapide, et de nombreuses liaisons de hiérarchie numérique plésiochrone (PDH) du réseau numérique étaient considérablement plus lentes, allant de 1.544 à 45 Mbit/s aux États-Unis, et de 2 à 34 Mbit/s en Europe.

À 155 Mbit/s, un paquet de données typique de pleine longueur de 1 500 octets (12 000 bits), suffisant pour contenir un paquet IP de taille maximale pour Ethernet, prendrait 77,42 µs à transmettre. Sur une liaison à plus faible vitesse, telle qu’une ligne T1 à 1,544 Mbit/s, le même paquet prendrait jusqu’à 7,8 millisecondes.

Un délai de mise en file d’attente induit par plusieurs de ces paquets de données pourrait dépasser plusieurs fois le chiffre de 7,8 ms, en plus de tout délai de génération de paquet dans le paquet de parole plus court. Cette situation a été jugée inacceptable pour le trafic vocal, qui a besoin d’une faible gigue dans le flux de données introduit dans le codec pour produire un son de bonne qualité. Un système de voix par paquets peut produire cette faible gigue de plusieurs façons :

  • Utilisation d’un tampon de lecture entre le réseau et le codec, un tampon suffisamment grand pour faire basculer le codec sur presque toute la gigue des données. Cela permet de lisser la gigue, mais le retard introduit par le passage dans le tampon nécessite des annuleurs d’écho même dans les réseaux locaux ; cela était considéré comme trop coûteux à l’époque. De plus, cela augmentait le retard sur le canal et rendait la conversation difficile sur les canaux à fort retard.
  • Utiliser un système qui fournit intrinsèquement une faible gigue (et un retard global minimal) au trafic qui en a besoin.
  • Opérer sur une base d’utilisateur 1:1 (c’est-à-dire un tuyau dédié).

La conception de l’ATM visait une interface réseau à faible gigue. Cependant, des « cellules » ont été introduites dans la conception pour fournir des délais de mise en file d’attente courts tout en continuant à supporter le trafic de datagrammes. ATM a décomposé tous les paquets, les données et les flux vocaux en morceaux de 48 octets, ajoutant à chacun un en-tête de routage de 5 octets afin qu’ils puissent être réassemblés ultérieurement. Le choix de 48 octets était plus politique que technique. Lorsque le CCITT (aujourd’hui l’UIT-T) normalisait l’ATM, les parties américaines souhaitaient une charge utile de 64 octets car elles estimaient qu’il s’agissait d’un bon compromis entre des charges utiles plus importantes optimisées pour la transmission de données et des charges utiles plus courtes optimisées pour les applications en temps réel comme la voix ; les parties européennes souhaitaient des charges utiles de 32 octets car la petite taille (et donc les temps de transmission courts) simplifie les applications vocales en ce qui concerne l’annulation de l’écho. La plupart des parties européennes se sont finalement ralliées aux arguments des Américains, mais la France et quelques autres ont continué à réclamer une longueur de cellule plus courte. Avec 32 octets, la France aurait pu mettre en œuvre un réseau vocal basé sur l’ATM, les appels d’un bout à l’autre de la France ne nécessitant aucune annulation d’écho. 48 octets (plus 5 octets d’en-tête = 53) ont été choisis comme compromis entre les deux parties. Les en-têtes de 5 octets ont été choisis parce que l’on pensait que 10% de la charge utile était le prix maximum à payer pour les informations de routage. ATM a multiplexé ces cellules de 53 octets au lieu de paquets, ce qui a réduit la gigue de contention des cellules dans le pire des cas par un facteur de près de 30, réduisant ainsi le besoin d’annuleurs d’écho.

Structure de la celluleEdit

Une cellule ATM se compose d’un en-tête de 5 octets et d’une charge utile de 48 octets. La taille de la charge utile de 48 octets a été choisie comme décrit ci-dessus.

L’ATM définit deux formats de cellules différents : interface utilisateur-réseau (UNI) et interface réseau-réseau (NNI). La plupart des liaisons ATM utilisent le format de cellule UNI.

Diagramme d’une cellule ATM UNI

.

7 4 3 0
GFC VPI
VPI VCI
VCI
VCI PT CLP
HEC

Payload et padding si nécessaire (48 octets)

.

Diagramme d’une cellule ATM NNI

7 4 3 . 0
VPI
VPI VCI
VCI
VCI PT CLP
HEC

Payload et padding si nécessaire (48 octets)

GFC = Le champ de contrôle de flux générique (GFC) est un champ de 4 bits qui a été ajouté à l’origine pour prendre en charge le contrôle des flux de données.bit qui a été ajouté à l’origine pour prendre en charge la connexion de réseaux ATM à des réseaux d’accès partagés tels qu’un anneau à double bus à file d’attente distribuée (DQDB). Le champ GFC a été conçu pour donner à l’interface utilisateur-réseau (UNI) 4 bits pour négocier le multiplexage et le contrôle de flux entre les cellules de diverses connexions ATM. Cependant, l’utilisation et les valeurs exactes du champ GFC n’ont pas été normalisées, et le champ est toujours réglé sur 0000. VPI = Identificateur de chemin virtuel (8 bits UNI, ou 12 bits NNI) VCI = Identificateur de canal virtuel (16 bits) PT = Type de charge utile (3 bits) PT bit 3 (msbit) : Cellule de gestion de réseau. Si 0, cellule de données utilisateur et les éléments suivants s’appliquent : PT bit 2 : indication explicite de congestion vers l’avant (EFCI) ; 1 = congestion du réseau PT bit 1 (lsbit) : Bit ATM d’utilisateur à utilisateur (AAU). Utilisé par AAL5 pour indiquer les limites des paquets. CLP = Priorité de perte de cellule (1 bit) HEC = Contrôle d’erreur d’en-tête (CRC 8 bits, polynôme = X8 + X2 + X + 1)

L’ATM utilise le champ PT pour désigner divers types spéciaux de cellules à des fins d’exploitation, d’administration et de gestion (OAM), et pour délimiter les frontières des paquets dans certaines couches d’adaptation ATM (AAL). Si le bit le plus significatif (MSB) du champ PT est 0, il s’agit d’une cellule de données d’utilisateur, et les deux autres bits sont utilisés pour indiquer la congestion du réseau et comme bit d’en-tête à usage général disponible pour les couches d’adaptation ATM. Si le MSB est 1, il s’agit d’une cellule de gestion, et les deux autres bits indiquent le type. (Segment de gestion de réseau, gestion de réseau de bout en bout, gestion des ressources, et réservé pour une utilisation future.)

Plusieurs protocoles de liaison ATM utilisent le champ HEC pour piloter un algorithme de cadrage basé sur le CRC, qui permet de localiser les cellules ATM sans surcharge au-delà de ce qui est autrement nécessaire pour la protection de l’en-tête. Le CRC de 8 bits est utilisé pour corriger les erreurs d’en-tête d’un seul bit et détecter les erreurs d’en-tête de plusieurs bits. Lorsque des erreurs d’en-tête multi-bits sont détectées, les cellules actuelles et suivantes sont abandonnées jusqu’à ce qu’une cellule sans erreur d’en-tête soit trouvée.

Une cellule UNI réserve le champ GFC pour un système de contrôle de flux/sous-multiplexage local entre utilisateurs. Cela avait pour but de permettre à plusieurs terminaux de partager une seule connexion réseau, de la même manière que deux téléphones du réseau numérique à intégration de services (RNIS) peuvent partager une seule connexion RNIS à débit de base. Les quatre bits GFC doivent être à zéro par défaut.

Le format de cellule NNI reproduit presque exactement le format UNI, sauf que le champ GFC de 4 bits est réaffecté au champ VPI, ce qui étend le VPI à 12 bits. Ainsi, une seule interconnexion ATM NNI est capable d’adresser près de 212 VP jusqu’à près de 216 VC chacun (en pratique, certains des numéros de VP et de VC sont réservés).

Types de servicesModifié

L’ATM supporte différents types de services via les AAL. Les AAL normalisés comprennent AAL1, AAL2 et AAL5, ainsi que les AAL3 et AAL4, rarement utilisés. AAL1 est utilisé pour les services à débit binaire constant (CBR) et l’émulation de circuit. La synchronisation est également maintenue à AAL1. AAL2 à AAL4 sont utilisés pour les services à débit variable (VBR), et AAL5 pour les données. L’AAL qui est utilisé pour une cellule donnée n’est pas codé dans la cellule. Au lieu de cela, il est négocié par ou configuré au niveau des points d’extrémité sur une base de connexion virtuelle.

Après la conception initiale de l’ATM, les réseaux sont devenus beaucoup plus rapides. Une trame Ethernet pleine grandeur de 1500 octets (12000 bits) ne prend que 1,2 µs pour être transmise sur un réseau de 10 Gbit/s, ce qui réduit le besoin de petites cellules pour réduire la gigue due à la contention. Certains considèrent que cela justifie le remplacement de l’ATM par l’Ethernet dans l’épine dorsale du réseau. L’augmentation de la vitesse des liaisons ne permet pas à elle seule de réduire la gigue due à la mise en file d’attente. En outre, le matériel nécessaire à la mise en œuvre de l’adaptation des services pour les paquets IP est coûteux à des vitesses très élevées. Plus précisément, à des vitesses égales ou supérieures à OC-3, le coût du matériel de segmentation et de réassemblage (SAR) rend l’ATM moins compétitif pour l’IP que le Packet Over SONET (POS) ; en raison de sa charge utile fixe de 48 octets, l’ATM ne convient pas comme couche de liaison de données directement sous-jacente à l’IP (sans nécessité de SAR au niveau de la liaison de données) puisque la couche OSI sur laquelle fonctionne l’IP doit fournir une unité de transmission maximale (MTU) d’au moins 576 octets. Les limites de performance SAR signifient que les interfaces ATM de routeur IP les plus rapides sont STM16 – STM64 qui se comparent en fait, alors qu’à partir de 2004 le POS peut fonctionner à OC-192 (STM64) avec des vitesses plus élevées attendues dans le futur, des limites basées sur la segmentation et le réassemblage (SAR).

Sur les liaisons plus lentes ou encombrées (622 Mbit/s et moins), l’ATM a du sens, et c’est pour cette raison que la plupart des systèmes de ligne d’abonné numérique asymétrique (ADSL) utilisent l’ATM comme couche intermédiaire entre la couche de liaison physique et un protocole de couche 2 comme PPP ou Ethernet.

À ces vitesses inférieures, l’ATM offre une capacité utile pour transporter plusieurs circuits logiques sur un seul support physique ou virtuel, bien que d’autres techniques existent, comme le PPP multi-link et les VLAN Ethernet, qui sont optionnels dans les implémentations VDSL. Le DSL peut être utilisé comme méthode d’accès à un réseau ATM, ce qui permet à un point de terminaison DSL dans un central téléphonique de se connecter à de nombreux fournisseurs de services Internet sur un réseau ATM étendu. Aux États-Unis, du moins, cela a permis aux fournisseurs DSL de fournir un accès DSL aux clients de nombreux fournisseurs de services Internet. Comme un point de terminaison DSL peut prendre en charge plusieurs fournisseurs d’accès à Internet, la faisabilité économique du DSL est considérablement améliorée.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.