QoS: un meccanismo indispensabile nelle reti

L’adozione di adeguate politiche di qualità di servizio é necessaria nelle LAN di domani. Publlicato sul numero 3 maggio 2000

L’adozione di adeguate politiche di qualità di servizio è necessaria nelle LAN di domani. Più le reti d’impresa si estendono e più i servizi tendono a diversificarsi. In effetti, la coabitazione senza problemi dei molteplici flussi applicativi diviene sempre più difficile, a causa del maggiore consumo della banda passante. In tale situazione, i fornitori si sforzano di agire sulla qualità dei servizi di rete e ciascuno offre il proprio modello di gestione dei flussi. Qualcuno non esita a privilegiare l’impiego di un determinato router o switch, mentre altri vantano i meriti di un server dedicato alle regole. Peraltro, non tutti i componenti necessari a questo tipo di supervisione, denominata Policy based management, sono al momento disponibili.



I ritardi non sono più tollerabili



Ad esempio, CiscoAssure, un’iniziativa comune tra Microsoft e Cisco Systems, è basata sull’indirizzario Active directory di Windows 2000, che è disponibile solo ora. Queste scelte tecnologiche non debbono, però, nascondere i requisiti fondamentali richiesti. L’obiettivo della qualità di servizio (QoS) e di offrire la possibilità di attivazione dei flussi, nel rispetto delle necessità di ciascuna applicazione, a fronte di un budget stabilito preventivamente. La misura di questa qualità di servizio interviene fortemente su tutti i livelli del modello OSI e, come in ogni catena, presenta alcuni anelli deboli. Tuttavia, restano possibili economie sostanziali, a condizione di padroneggiare i meccanismi standard della gestione della qualità di servizio. Ciascuna rete dispone delle proprie caratteristiche, in termini di flussi, di ritardi di trasmissione, di costi e di protocolli, oltre che di una strategia distintiva in materia di qualità di servizio. Sulle reti IP, il protocollo RSVP (Resource Reservation Protocol) è una sovrapposizione al livello 4. RSVP è concepito per i flussi di dati multimediali, più vincolanti rispetto ai pacchetti di dati ordinari. Infatti, per trasmettere un messaggio audio o video, il ritardo di restituzione delle informazioni deve mantenere il sincronismo con il ritmo della fonte di emissione, ovvero l’isocronismo. Ora, su Internet, ogni trasmissione di pacchetti implica una durata di trasporto variabile, dovuta al carico dei router intermedi. Gli effetti negativi secondari sono conosciuti: fenomeni di latenza o di ondulazione (jitter), quest’ultima distorsione è particolarmente fastidiosa perché provoca ritardi di trasmissione a tutti i pacchetti di un medesimo flusso. Nel caso della voce, l’orecchio percepisce uno scostamento del suono, al di sopra dei 200 ms di ritardo. A 400 ms, la conversione diviene impossibile. Quanto all’ondulazione, deve imperativamente essere inferiore ai 100 ms perché la conversazione risulti intelligibile. Le reti IP, contrariamente alle infrastrutture a circuito commutato, che si appropriano di un canale permanente, funzionano sul principio del minimo sforzo (best effort), con le risorse ripartite equamente tra tutti i richiedenti. RSVP gestisce il canale in modo di riservarlo ai flussi prioritari, secondo una suddivisione proporzionale ragionevole.



RSVP riserva le risorse necessarie sui dispositivi di rete



Nel caso della ritrasmissione della sequenza video di un avvenimento sportivo, i router compatibili RSVP prenotano le risorse interne, per approssimazioni successive, tenendo conto delle capacità di restituzione di ogni apparecchiatura terminale abbonata al flusso video. Nella misura con cui viene rilanciato periodicamente questo meccanismo di prenotazione, i terminali hanno la possibilità di abbonarsi o di abbandonare la trasmissione in ogni momento, poiché questa è diffusa tramite i router RSVP. Ma questo protocollo, troppo goloso di risorse, infligge un pesante sovraccarico ai router, già troppo sollecitati. Per tale motivo, alcuni preferiscono DiffServ a RSVP, perché risulta più adatto ad essere attivato su di una rete di operatori. Inoltre, si rivela più conciliabile con le reti private virtuali (VPN, Virtual Private Networks). I ritardi d’implementazione del protocollo RSVP non sarebbero pregiudizievoli al controllo approfondito dei servizi multimedia, mentre RSVP potrebbe restare limitato alle estremità della WAN oltre che nel nucleo delle reti locali.



Intervenire a livello 3 per migliorare il servizio



Per gestire nel migliore dei modi il canale, l’IETF propone due protocolli: IntServ (Integrated Services) e DiffServ. Entrambi intervengono al livello 3. IntServ si basa sul protocollo RSVP e definisce tre classi. La modalità Best effort, un classico delle trasmissioni Ip, costituisce il livello standard. Una classe superiore (Guaranted service) garantisce sia il ritardo d’instradamento che la disponibilità del canale. Infine, quando il ritardo di latenza diviene fondamentale, viene proposta una modalità di controllo del carico (Controled load). Il protocollo IntServ, che riserva una parte del canale ai flussi prioritari, conviene soprattutto alle piccole reti IP, mentre, sulle reti a lunga distanza, risultano privilegiati i servizi DiffServ. Questo approccio è adottato da numerosi fornitori di apparecchiature di rete e dai principali editori di software, congiuntamente con le modalità di amministrazione dei flussi mediante regole. DiffServ offre un quadro operativo per classi di servizi IP evolutivi. Infatti, i servizi DiffServ identificano i flussi mediante una propria marcatura, tramite il campo ToS (Type of Service) dei pacchetti IP. DiffServ propone un insieme di comportamenti d’instradamento dei pacchetti IP, denominato PHB. La trasmissione per default DE (Default Forwarding), equivalente alla modalità Best effort, corrisponde ai trasferimenti usuali su Internet. Una trasmissione definita AF (Assured Forwarding), comprende quattro classi distinte che garantiscono la trasmissione dei dati, senza però tenere conto del ritardo. Questo risulta conveniente per le transazioni di commercio elettronico. Infine, una classe di servizio di fascia alta, EP (Expedited Forwarding) assicura il ritardo del traffico in tempo reale. Si tratta di un livello di priorità massima conveniente per la voce su IP, oltre che per le videoconferenze. DiffServ, mediante le sue tecniche di marcatura e di codifica dei pacchetti IP, definisce profili di traffico distinti. I router, per assicurare l’attivazione dei servizi DiffServ, debbono riconoscere la marcatura DSCP. Quando i pacchetti entrano sulle WAN, attraversano un nodo DiffServ e, se un pacchetto non è stato ancora classificato, gli viene associato un PBH per default, secondo gli accordi di interfaccia stabiliti tra il dominio DiffServ, da cui proviene e il dominio pubblico su cui arriva. Il nodo d’ingresso sulla rete misura l’impegno di ogni flusso e, se il traffico supera il massimo prestabilito, può abbassare il livello del DiffServ code. In altri termini, può ritardare un traffico per farlo rientrare nel profilo previsto (shaping) o, ancora, può arrivare a definire alcuni pacchetti (policing) in una situazione d’impegno immediato.



Un protocollo destinato ai router



Sulle reti geografiche, MPLS specifica la modalità d’instradamento dei protocolli di livello 3, come IP, gestiti da DiffServ, su infrastruttura a commutazione di circuito virtuali come ATM o Frame Relay, oltre che su canali SDH (Synchronous Digital Hierarachy). MPLS, aggregando il traffico, apporta una gestione del canale tramite il controllo del routing dei pacchetti di dati. Infine, MPLS e DiffServ risultano notevolmente complementari. Infatti, la marcatura dei servizi DiffServ (DSCP) è riutilizzata nelle label MPLS. Le apparecchiature di estremità di una rete MPLS possono essere, quindi, accoppiate a classi di servizio ATM di una rete commutata di operatore. Questo consente di assicurare la continuità di un livello di servizio, indipendentemente dalla natura dei segmenti WAN attraversati. MPLS, agendo all’interno del nucleo dei router, consente trasmissioni di pacchetti più rapide e più aperte all’evoluzione. È indipendente dal protocollo di rete e funziona soprattutto con pacchetti IP o IPX. L’etichetta MPLS trasforma l’intestazione IP per determinare il salto (o elaborazione diretta), da effettuare successivamente sui pacchetti. In questo modo, il router può attribuire un instradamento preciso a ogni pacchetto, in funzione delle diverse classi di traffico gestite. La label MPLS (su 20 bit) separa la logica d’instradamento dei pacchetti IP dalle funzioni di routing propriamente dette. Inoltre, solleva i router da una fastidiosa analisi dei pacchetti, per cui queste apparecchiature possono agire come semplici commutatori. MPLS elimina la necessità di un routing tradizionale, realizzato per salti multipli. Per accordare tra di loro le apparecchiature di interconnessione, con riferimento al significato delle label MPLS, l’algoritmo intrinseco di distribuzione delle label può essere indirizzato, al bisogno, a beneficio dei protocolli BGP o RSVP.



Politiche preventive per una rete più flessibile



I responsabili delle telecomunicazioni sanno orientare, da tempo, i flussi operativi in funzione delle necessità dell’impresa, verso sottoreti con caratteristiche distinte. I protocolli di qualità di servizio allargano questa pratica a tutti i collegamenti accessibili (locali e remoti) e a tutte le applicazioni, a prescindere dalle tecnologie WAN utilizzate. Una volta stabilito questo concetto, il seguito della qualità di servizio si delinea in due modi, sia integralmente, ovvero di volta in volta, che mediante l’applicazione preventiva delle classi di servizi di rete. Queste ultime costituiscono un approccio indipendente delle modalità di trasporto delle informazioni. Aiutano a realizzare una rete più flessibile, le cui prestazioni possano essere prestabilite e prevedibili. Il controllo di ogni tipo di traffico è affidato alle apparecchiature della rete. Questo metodo migliora la crescita dell’impegno della rete, perché tiene conto di un numero di livelli limitato, oltre che della suddivisione dei flussi per gruppi di utenti e per applicazioni. In questo, differisce da un’analisi individuale di ciascuna sessione, tipica del controllo di volta in volta. In quest’ultimo caso, una parte del controllo del flusso è affidata ai server e alle stazioni di lavoro, creando, come corollario inevitabile, un incremento della complessità del sistema. La diversità dei traffici e l’evoluzione della rete d’impresa moltiplicano gli scenari possibili di qualità di servizio. Grazie al protocollo di segnalazione SBM, gli switch della rete locale (se risultano conformi allo standard 802.1p) si accordano con i protocolli di qualità di servizio che agiscono sul livello 3 e oltre (DiffServ e MPLS). Se un’impresa media è ripartita su più siti, esistono forti probabilità che vengano mobilitati protocolli multipli nell’interconnessione delle sue diverse locazioni. In questo caso, le applicazioni di gestione transazionali richiederanno servizi multiplessati, tramite una rete Frame Relay privata o pubblica. Inoltre, il groupware e la posta elettronica sotto IP imporranno un collegamento all’infrastruttura Internet di un ISP. Infine, un servizio di videoconferenza ad alto flusso avrà necessità di nuovi collegamenti molto rapidi, via una locazione di servizio ATM presso un operatore. Tra ATM, IP e Frame Relay, ciascuno ha la possibilità di giocare il proprio ruolo.



ATM e Frame Relay, una coabitazione naturale



ATM può essere presente senza essere visibile, quando opera nel nucleo della rete degli operatori. Se, quindi, l’impresa richiede un servizio Frame Relay, il raccordo con la dorsale ATM suppone meccanismi di corrispondenza tra le due tecnologie. Il servizio nrt-VRB (non real time-Variable Bit Rate) di ATM conviene per il trasporto dei flussi Frame Relay. In questo caso, ogni circuito ATM è caratterizzato da parametri precisi, regolati dall’operatore: flusso massimo in cellule PCR (Peak Cell Rate), flusso permanente SCR (Sustainable Cell Rate) e dimensione massima di una raffica di cellule MBS (Maximum Burst Size). Questi parametri entrano in corrispondenza con gli elementi del circuito Frame relay così trasportati: CIR (Committed information rate), Cb (Committed bits), Eb (Excess bits) e T. Un parametro di qualità di servizio è associato al circuito ATM per seguire il tasso di perdita di cellule CLR (Cell Loss Ratio), che deve risultare minimo. Altri due parametri di qualità di servizio sorvegliano la variazione sul ritardo di trasmissione. CDV (Cell delay variation) e il ritardo massimo di trasmissione maxCTD (Maximum Cell Transfer Delay).



Coordinare i circuiti virtuali ATM con il byte DSCP



L’interconnessione tra ATM e Frame Relay è definita con maggiore precisione dalle raccomandazioni FRF.8 del Frame Relay forum (consultabili sul sito www.frforum.com). I flussi IP, da parte loro, possono essere instradati su collegamenti definiti in UBR (Unspecified Bit Rate) ai quali non è associato alcun parametro di qualità di servizio. Quando il PRC è fissato in relazione alla capacità della linea, l’UBR corrisponde quasi a un servizio Frame Relay con un CIR uguale a zero. Inoltre, può essere utilizzato il parametro ABR (Available Bit Rate) per il mapping dei servizi DiffServ. In questo caso, intervengono quattro parametri che descrivono il flusso delle cellule: il flusso di punta, il flusso minimo, il tasso di crescita e il tasso di decremento dei flussi. MPLS è stato sviluppato per trattare della qualità di servizio, integrando i livelli 2 e 3. DiffServ, da parte sua, tratta la qualità di servizio unicamente al livello 3. È comunque possibile un coordinamento tra i circuiti virtuali della rete estesa ATM e il byte DSCP del servizio DiffServ. Mappature di questo tipo consentono di accordare tra loro apparecchiature che non distinguerebbero il medesimo numero di classi di servizio. Per assicurare queste funzioni, la commutazione di circuiti virtuali, Atm e Frame Relay, la commutazione di pacchetti e TCP-IP mettono in opera meccanismi diversi. Il caso dei servizi Frame Relay merita una riflessione. Infatti, il documento FRF.13 prevede tutti gli elementi di misura dei servizi Frame Relay, con particolare riferimento ai parametri di ritardo, al tasso di pacchetti consegnati, al tasso di consegna delle informazioni e alla disponibilità del servizio. Il ritardo, ad esempio, è il tempo richiesto per trasportare un insieme di 128 byte attraverso la rete. Sono misurabili non meno di tre tipi di ritardo: di volta in volta, tra estremità della rete dell’operatore o, ancora, tra l’ingresso nella rete dell’operatore e l’arrivo nell’apparecchiatura di uscita dalla rete di quest’ultimo. In termini pratici, un ritardo potrà essere la media di tutti i ritardi misurati durante trenta giorni, su tutti i collegamenti noleggiati dall’impresa, oppure, per sito, si tratterà della media dei ritardi misurati tra le ore 9 e le ore 19. Sono tutti dettagli che bisogna farsi precisare dall’operatore, se si vogliono avere idee chiare sugli impegni da richiedergli.



Gli standard DEN e Cops alla caccia dei flussi IP



Cisco Systems, Microsoft e Novell sono all’origine dell’iniziativa DEN (Directory Enabled Network), che raggruppa le informazioni degli indici (Active Directory, NDS, LDAP, Lightweight directory access protocol e così via), utili per seguire la qualità di servizio. Le regole di condotta relative a un indice compatibile DEN offrono un unico referenziale a reti etrogenee. Il protocollo Cops (Common open policy service) fornisce le regole di priorità alle apparecchiature d’interconnessione. Cops consente a un router o a uno switch di ottenere i diritti di accesso degli utenti con riferimento a un server delle regole, oppure a un indice esterno. Cops, fault tolerant, sicuro nelle transazioni attraverso il protocollo IPSec (IP Security), è basato sul protocollo di prenotazione delle risorse RSVP. Richiede una pila RSVP su ciascuna apparecchiatura intermedia. Cops e DEN sono complementari per gestire la qualità di servizio su una rete estesa che colleghi LAN distinte.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome