Jeżeli sygnał mowy jest zredukowany do pakietów i jest zmuszony do dzielenia łącza z ruchem danych typu bursty (ruch z kilkoma dużymi pakietami danych) to bez względu na to jak małe pakiety mowy mogłyby być wykonane, zawsze napotkałyby pełnowymiarowe pakiety danych. W normalnych warunkach kolejkowania komórki mogą doświadczyć maksymalnych opóźnień w kolejce. Aby uniknąć tego problemu, wszystkie pakiety ATM, lub „komórki”, mają taki sam mały rozmiar. Ponadto, stała struktura komórek oznacza, że ATM może być łatwo przełączane przez sprzęt bez nieodłącznych opóźnień wprowadzonych przez oprogramowanie przełączane i routowane ramki.

Tak więc, projektanci ATM wykorzystali małe komórki danych w celu zmniejszenia jitter (wariancja opóźnienia, w tym przypadku) w multipleksacji strumieni danych. Redukcja jittera (a także opóźnień end-to-end round-trip) jest szczególnie ważna przy przenoszeniu ruchu głosowego, ponieważ konwersja zdigitalizowanego głosu na analogowy sygnał audio jest z natury procesem czasu rzeczywistego, i aby dobrze wykonać swoją pracę, dekoder (kodek), który to robi, potrzebuje równomiernie rozmieszczonego (w czasie) strumienia elementów danych. Jeśli następny element danych nie jest dostępny kiedy jest potrzebny, kodek nie ma innego wyboru jak produkować ciszę lub zgadywać – a jeśli dane są spóźnione, są bezużyteczne, ponieważ okres czasu, w którym powinny być przekształcone w sygnał już minął.

W czasie projektowania ATM, synchroniczna hierarchia cyfrowa 155 Mbit/s (SDH) z ładunkiem 135 Mbit/s była uważana za szybkie łącze sieci optycznej, a wiele łączy plezjochronicznej hierarchii cyfrowej (PDH) w sieci cyfrowej było znacznie wolniejszych, w zakresie od 1.544 do 45 Mbit/s w USA, i 2 do 34 Mbit/s w Europie.

Przy 155 Mbit/s, typowy pełnowymiarowy pakiet danych o długości 1500 bajtów (12 000 bitów), wystarczający do zawarcia maksymalnej wielkości pakietu IP dla Ethernetu, potrzebowałby 77,42 µs do transmisji. W łączu o mniejszej szybkości, takim jak linia T1 o szybkości 1,544 Mbit/s, ten sam pakiet zająłby do 7,8 milisekundy.

Opóźnienie kolejki wywołane przez kilka takich pakietów danych mogłoby kilkakrotnie przekroczyć wartość 7,8 ms, w dodatku do opóźnienia generowania pakietów w krótszym pakiecie mowy. Uznano to za niedopuszczalne dla ruchu mowy, który musi mieć niski jitter w strumieniu danych podawanych do kodeka, jeśli ma produkować dźwięk dobrej jakości. Pakietowy system głosowy może wytworzyć ten niski jitter na kilka sposobów:

  • Użycie bufora odtwarzania pomiędzy siecią a kodekiem, jednego wystarczająco dużego, aby przepuścić przez kodek prawie cały jitter w danych. Pozwala to na wygładzenie jittera, ale opóźnienie wprowadzone przez przejście przez bufor wymaga tłumików echa nawet w sieciach lokalnych; było to uważane za zbyt kosztowne w tamtym czasie. Ponadto zwiększało to opóźnienie w całym kanale i utrudniało konwersację na kanałach o dużym opóźnieniu.
  • Używanie systemu, który z natury zapewnia niski jitter (i minimalne ogólne opóźnienie) dla ruchu, który tego wymaga.
  • Operacja na zasadzie 1:1 użytkownika (tj. dedykowana rura).

Projekt ATM miał na celu interfejs sieciowy o niskim jitterze. Jednakże, „komórki” zostały wprowadzone do projektu, aby zapewnić krótkie opóźnienia w kolejkach przy jednoczesnym kontynuowaniu obsługi ruchu datagramów. ATM rozbił wszystkie pakiety, dane i strumienie głosowe na 48-bajtowe kawałki, dodając 5-bajtowy nagłówek routingu do każdego z nich, tak aby mogły być one później ponownie złożone. Wybór 48 bajtów miał raczej podłoże polityczne niż techniczne. Kiedy CCITT (obecnie ITU-T) standaryzował ATM, partie ze Stanów Zjednoczonych chciały 64-bajtowego payloadu, ponieważ uważano, że jest to dobry kompromis między większym payloadem zoptymalizowanym do transmisji danych a krótszym payloadem zoptymalizowanym dla aplikacji czasu rzeczywistego, takich jak głos; partie z Europy chciały 32-bajtowego payloadu, ponieważ mały rozmiar (a zatem krótki czas transmisji) upraszcza aplikacje głosowe w odniesieniu do usuwania echa. Większość stron europejskich w końcu przyjęła argumenty Amerykanów, ale Francja i kilka innych opowiadało się za krótszą długością komórki. Przy 32 bajtach Francja byłaby w stanie wdrożyć sieć głosową opartą na ATM, w której połączenia z jednego końca Francji na drugi nie wymagałyby usuwania echa. 48 bajtów (plus 5 bajtów nagłówka = 53) zostało wybrane jako kompromis pomiędzy dwoma stronami. Wybrano 5-bajtowe nagłówki, ponieważ uznano, że 10% ładunku użytecznego to maksymalna cena za informacje o routingu. ATM multipleksował te 53-bajtowe komórki zamiast pakietów, co zmniejszyło jitter w najgorszym przypadku rywalizacji komórek o współczynnik prawie 30, redukując potrzebę stosowania tłumików echa.

Struktura komórkiEdit

Komórka ATM składa się z 5-bajtowego nagłówka i 48-bajtowego ładunku użytecznego. Rozmiar ładunku 48 bajtów został wybrany w sposób opisany powyżej.

ATM definiuje dwa różne formaty komórek: user-network interface (UNI) i network-network interface (NNI). Większość łączy ATM używa formatu komórek UNI.

Diagram komórki UNI ATM

.

.

7 4 4 4 3 0
GFC VPI
VPI VCI
VCI
VCI PT CLP
HEC

Payload i padding w razie potrzeby (48 bajtów)

.

Diagram komórki NNI ATM

.

7 4 3 . 0
VPI
VPI VCI
VCI
VCI
VCI PT CLP
HEC

Załadunek i wypełnienie w razie potrzeby (48 bajtów)

GFC = Ogólne pole sterowania przepływem (GFC) jest 4-bitowym polembitowym polem, które zostało pierwotnie dodane w celu wsparcia połączenia sieci ATM ze współdzielonymi sieciami dostępu, takimi jak pierścień rozproszonej kolejki z podwójną magistralą (DQDB). Pole GFC zostało zaprojektowane, aby dać interfejsowi użytkownika-sieci (UNI) 4 bity, w których można negocjować multipleksowanie i kontrolę przepływu między komórkami różnych połączeń ATM. Jednakże użycie i dokładne wartości pola GFC nie zostały znormalizowane, a pole to jest zawsze ustawione na 0000. VPI = identyfikator ścieżki wirtualnej (8 bitów UNI, lub 12 bitów NNI) VCI = identyfikator kanału wirtualnego (16 bitów) PT = typ payload (3 bity) PT bit 3 (msbit): Komórka zarządzania siecią. Jeśli 0, to komórka danych użytkownika i obowiązują następujące zasady: PT bit 2: Explicit forward congestion indication (EFCI); 1 = network congestion experienced PT bit 1 (lsbit): Bit ATM user-to-user (AAU). Używany przez AAL5 do wskazywania granic pakietów. CLP = Cell loss priority (1-bit) HEC = Header error control (8-bit CRC, wielomian = X8 + X2 + X + 1)

ATM używa pola PT do oznaczania różnych specjalnych rodzajów komórek dla celów operacyjnych, administracyjnych i zarządzania (OAM) oraz do wyznaczania granic pakietów w niektórych warstwach adaptacyjnych ATM (AAL). Jeśli najbardziej znaczący bit (MSB) pola PT wynosi 0, jest to komórka danych użytkownika, a pozostałe dwa bity są używane do wskazywania przeciążenia sieci oraz jako bit nagłówka ogólnego przeznaczenia dostępny dla warstw adaptacyjnych ATM. Jeżeli MSB wynosi 1, jest to komórka zarządzania, a pozostałe dwa bity wskazują jej typ. (Network management segment, network management end-to-end, resource management, and reserved for future use.)

Several ATM link protocols use the HEC field to drive a CRC-based framing algorithm, which allows locating the ATM cells with no overhead beyond what is otherwise needed for header protection. 8-bitowy CRC jest używany do korygowania jednobitowych błędów nagłówka i wykrywania wielobitowych błędów nagłówka. Gdy wykryte zostaną wielobitowe błędy nagłówka, bieżąca i kolejne komórki są porzucane, aż do znalezienia komórki bez błędów nagłówka.

Komórka UNI rezerwuje pole GFC dla lokalnego systemu sterowania przepływem/submultipleksacji między użytkownikami. Miało to na celu umożliwienie kilku terminalom współdzielenie pojedynczego połączenia sieciowego, w taki sam sposób, w jaki dwa telefony Integrated Services Digital Network (ISDN) mogą współdzielić pojedyncze połączenie ISDN o podstawowej szybkości. Wszystkie cztery bity GFC muszą być domyślnie zerowe.

Format komórki NNI replikuje format UNI prawie dokładnie, z wyjątkiem tego, że 4-bitowe pole GFC jest ponownie przydzielone do pola VPI, rozszerzając VPI do 12 bitów. W ten sposób pojedyncze połączenie NNI ATM jest w stanie zaadresować prawie 212 VP do prawie 216 VC każdy (w praktyce niektóre numery VP i VC są zarezerwowane).

Typy usługEdit

ATM obsługuje różne typy usług poprzez AALs. Standardowe AAL obejmują AAL1, AAL2, i AAL5, oraz rzadko używane AAL3 i AAL4. AAL1 jest używany dla usług o stałej przepływności (CBR) i emulacji obwodu. Synchronizacja jest również utrzymywana w AAL1. AAL2 do AAL4 są używane dla usług o zmiennej przepływności (VBR), a AAL5 dla danych. To, która AAL jest używana w danej komórce, nie jest w niej zakodowane. Zamiast tego jest on negocjowany przez lub konfigurowany w punktach końcowych na zasadzie połączenia wirtualnego.

Po początkowym zaprojektowaniu ATM, sieci stały się znacznie szybsze. Pełnowymiarowa ramka Ethernet o długości 1500 bajtów (12000 bitów) potrzebuje tylko 1,2 µs na transmisję w sieci 10 Gbit/s, co zmniejsza potrzebę stosowania małych komórek w celu zmniejszenia jittera spowodowanego kontestacją. Niektórzy uważają, że jest to argument za zastąpieniem ATM przez Ethernet w szkielecie sieci. Zwiększona prędkość łącza sama w sobie nie łagodzi jitteru spowodowanego kolejkowaniem. Dodatkowo, sprzęt do wdrażania adaptacji usług dla pakietów IP jest kosztowne przy bardzo dużych prędkościach. W szczególności, przy prędkościach OC-3 i wyższych, koszt sprzętu do segmentacji i ponownego składania (SAR) sprawia, że ATM jest mniej konkurencyjny dla IP niż Packet Over SONET (POS); ze względu na stałe 48-bajtowe obciążenie komórki, ATM nie jest odpowiedni jako warstwa łącza danych bezpośrednio leżąca u podstaw IP (bez potrzeby SAR na poziomie łącza danych), ponieważ warstwa OSI, na której działa IP, musi zapewniać maksymalną jednostkę transmisji (MTU) wynoszącą co najmniej 576 bajtów. Limity wydajności SAR oznaczają, że najszybsze interfejsy ATM routera IP są STM16 – STM64, które faktycznie porównuje, podczas gdy od 2004 POS może działać na OC-192 (STM64) z wyższych prędkości spodziewanych w przyszłości, limity oparte na segmentacji i reasemblacji (SAR).

Na wolniejszych lub zatłoczonych łączach (622 Mbit/s i poniżej), ATM ma sens, i z tego powodu większość systemów asymetrycznych cyfrowych linii abonenckich (ADSL) używa ATM jako warstwy pośredniej między warstwą fizyczną łącza a protokołem warstwy 2 jak PPP lub Ethernet.

Na tych niższych prędkościach, ATM zapewnia użyteczną zdolność do przenoszenia wielu obwodów logicznych na jednym fizycznym lub wirtualnym medium, chociaż istnieją inne techniki, takie jak Multi-link PPP i Ethernet VLANs, które są opcjonalne w implementacjach VDSL. DSL może być stosowany jako metoda dostępu do sieci ATM, umożliwiając punkt końcowy DSL w centrali telefonicznej do połączenia z wieloma dostawcami usług internetowych w rozległej sieci ATM. W Stanach Zjednoczonych, przynajmniej, to pozwoliło dostawców DSL do zapewnienia dostępu DSL do klientów wielu dostawców usług internetowych. Ponieważ jeden punkt końcowy DSL może obsługiwać wielu dostawców usług internetowych, ekonomiczna wykonalność DSL jest znacznie poprawiona.

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.