Progettare una rete con più testa e meno ferro

Il bombardamento di novità a cui è sottoposto il network manager può essere causa di confusione. Per disegnare una rete è necessario filtrare tutte le informazioni. Vediamo come è possibile farlo. pubblicata sul numero 2 aprile 2000

Il mondo del networking soffre, come quello dell’informatica, di un grave problema che potremmo chiamare, con un brutto neologismo, “iperstimolazione”. In pratica, le continue innovazioni tecniche dei costruttori, oltre a lasciare disorientato il manager di rete, lo obbligano a un continuo aggiornamento delle strutture di cui è responsabile. Se da un lato ciò migliora le prestazioni della rete, dall’altro provoca spesso una sua crescita incontrollata e un conseguente sbilanciamento tra i diversi apparati.
Senza ovviamente mettere in discussione lo sviluppo tecnologico, è necessario tuttavia sottoporre a un attento “filtraggio” la grande massa di informazioni che perviene dai costruttori per rendere il più possibile armonica la crescita della nostra rete aziendale. In poche parole: di gran lunga più importante dell’ultimo modello di switch è la perfetta conoscenza di cosa esso sia in grado di fare e soprattutto della sua reale importanza in quel particolare punto del sistema. Logica conseguenza di ciò è il ruolo essenziale della progettazione, detta in inglese “network design”; scopo di queste righe è illustrarne alcuni principi base, al fine di rendere più agevole la gestione e lo sviluppo della rete a mano a mano che crescono le necessità degli utenti.



Da ciò che c’é a ciò che si vuole



La progettazione di una rete non deve “andare al contrario”. Può sembrare fin troppo ovvio, ma tale principio è disatteso proprio da chi pone a base del network design il raggiungimento di certe prestazioni, quando invece la radice di tutto è sempre una sola: la situazione attuale della rete. Ma non basta: quand’anche si ponessero le performance al termine del processo di costruzione, si otterrebbe spesso un risultato incompleto, poiché non sempre un grezzo aumento di banda risolve i problemi degli utenti.
Il percorso è quindi chiaro: da ciò che c’è a ciò che si vuole, in termini di funzionalità, efficienza e robustezza della rete (e non unicamente di banda). Tra questi due punti esiste un certo cammino che passerà molto spesso, ma non necessariamente, attraverso il potenziamento degli apparati in termini di velocità; nello stesso tempo si dovrà sottostare al (molto comprensibile) limite di spesa. Trovare il giusto equilibrio è per l’appunto il nodo essenziale del network design, e in quest’ottica la ricerca spasmodica del massimo (per tecnologie, potenza o complicazione) è spesso inutile, se non controproducente.
Inoltre, tale approccio rappresenta un buon parametro per la valutazione di fornitori e integratori a cui si affida la ristrutturazione della propria rete: quanto più sarà offerta banda “grezza”, senza un’attenta valutazione di ciò che già c’è e che si desidera, tanto più si rimarrà vittime di tecnologie troppo costose e inutili.
Una parola a parte merita la questione degli standard. Certamente l’installazione di apparecchiature che supportino protocolli o funzionalità basate su norme internazionali semplifica la vita ai tecnici, in quanto permette la coesistenza di apparati di vendor diversi senza compromettere troppo le funzioni supportate (come recita la massima “lo standard libera il cliente dal giogo del produttore”); tuttavia è oggi impensabile riuscire a costruire una rete eterogenea che abbia le stesse caratteristiche tecniche di una omogenea, a causa del gran numero di protocolli proprietari e della diversa interpretazione data dai produttori ai “gusti” (flavour) degli standard più complessi. La migliore soluzione, come spiegheremo meglio tra poco, consiste in un’elevata strutturazione della rete, affinché apparati della stessa lingua possano liberamente parlare tra di loro, mentre apparati meno compatibili siano relegati in posizioni più lontane e svolgano funzioni meno essenziali.



L’importanza dell’analisi preliminare



Il primo punto, ossia la definizione della situazione attuale, deve basarsi su una serie di passi non fondati esclusivamente sull’inventario degli apparati di rete già installati. Il migliore approccio è una vera e propria “network analisys” che effettui in tempi ben definiti e non sospetti (ossia in diverse ore di lavoro) la misurazione del traffico sui diversi collegamenti, destrutturando i risultati secondo i protocolli, gli indirizzi di sorgente o destinazione, le porte e, se possibile, gli stessi applicativi.
Lo studio di tutti questi dati va affidato a tecnici competenti, i quali saranno in grado di disegnare un’immagine logica della rete su cui si potrà costruire il modello fisico. Quando infatti è noto il percorso statistico dei pacchetti da e verso le singole stazioni, è assai facile definire il modello più corretto di rete che va applicato per la migliore efficienza del sistema, e che non sempre rientra in certi modelli standard troppo frettolosamente pubblicizzati sul mercato.
Come esempio possiamo citare il modello 80/20 (80% del traffico all’interno della LAN di workgroup e 20% verso l’esterno) spesso ribaltato in un semplicistico 20/80: in realtà, benché sia innegabile un cospicuo aumento dei flussi verso server e reti geografiche, l’esatta percentuale è ignota a priori e va definita caso per caso.
Altro spunto di riflessione viene dall’esatta collocazione dei server: grazie alla network analisys sarà possibile capire se la loro collocazione all’interno di farm specializzate esaurisca totalmente il problema, o sia invece necessario mantenere all’interno dei workgroup alcune macchine dedicate che forniscano i servizi più necessari alle macchine di piano o d’ufficio. Infatti, l’applicazione pedissequa di un modello centralizzato può spesso sovraccaricare gli switch di centro stella in quanto ogni client si trova a dover accedere ai server per ogni minima consultazione. Sulla base dell’analisi dei pacchetti è più facile trovare l’esatto equilibrio tra la centralizzazione (sinonimo di affidabilità e gestibilità) e la decentralizzazione, che non appesantisce la rete e fornisce più libertà agli utenti.



Migrare, non sempre ma volentieri



Se il primo passo è condotto con sufficiente cura la rete “si progetta da sola”, in quanto vengono definiti con esattezza sia le esigenze da soddisfare (il famoso obiettivo cui tende il network design) sia il suo modello logico, a cui ci si ispirerà per la progettazione dell’infrastruttura fisica. A questo proposito vale la pena di ricordare i modelli di rete più noti che sono utilizzati oggi sulla base alle tecnologie dominanti.
Pur rischiando di affermare banalità, va ribadito con chiarezza che Ethernet rappresenta il punto di riferimento da cui non si può prescindere per il livello 2 del network. La precisazione è tanto più necessaria, quanto più si pensa che spesso ci si trova a dover effettuare un aggiornamento di realtà aziendali in cui Token Ring, storico avversario della prima tecnologia, ha ancora una forte presenza. Tuttavia, benché le possibilità di mantenere il preinstallato siano disponibili sul mercato (si pensi ai bridge translazionali, switch multistandard, router modulari, e così via), la valutazione dei pro e dei contro è, in fondo, esclusivamente di carattere economico. In questo caso un buon approccio è effettuare un’attenta analisi dei costi che la completa migrazione Token Ring-Ethernet comporterebbe, ponendosi una serie di domande:
Quanto viene a costare lo smantellamento della vecchia struttura Token Ring?
Qual è il costo degli apparati Ethernet (incluse le schede NIC) che sono sufficienti a fornire le stesse funzionalità?
Quali servizi sarò in grado di fornire se unifico la tecnologia di livello 2?
Come sarebbe possibile, al contrario, ottenere gli stessi risultati mantenendo una situazione ibrida?
Quale sarebbe il sovraccarico di elaborazione a livello protocollare (3) e applicativo?
Se decido per la migrazione, sono certo che il cablaggio esistente supporterà un futuro upgrade da Ethernet a Fast Ethernet, probabilmente necessario e facilmente ottenibile grazie alle porte 10/100 autosensing disponibili già oggi su quasi tutti gli apparati?

L’importanza del multilivello

Il vantaggio più sensibile di una rete omogenea a livello 2 è certo la facilità con cui si può realizzare una struttura multilivello ridondata, che rappresenta un ottimo compromesso tra scalabilità, affidabilità e potenza, pur con un non indifferente svantaggio dal punto di vista dei costi. Questo modello, abbandonando del tutto la segmentazione della rete Ethernet, prescrive che alla periferia di una rete siano collocati una serie di switch di potenza limitata, ma ben forniti di porte con le quali provvedere alla connettività sui piani; al di sotto di tale “strato” si collocano switch con porte tipicamente Fast Ethernet, il cui backplane è in grado di commutare con la necessaria efficienza il traffico tra lo strato superiore e quello inferiore, formato da apparati sempre più accentranti. Collegati a questi ultimi, in posizione speculare alle workstation, troviamo infine i server aziendali, quasi sempre forniti di più link Fast Ethernet aggregati o, se necessario, di porte Gigabit. Su tale schema base è molto facile apportare alcune modifiche, sulla base delle necessità dell’azienda utente.
Ma attenzione: tali necessità possiedono molto spesso un certo grado di inconciliabilità che va accettato e, soprattutto, reso noto a chi ha commissionato la progettazione. Troppo spesso, infatti, ci si lascia ingannare da messaggi di marketing che promettono su certi apparati “grande scalabilità, ottima ridondanza, alta sicurezza ed elevata potenza”. Si tenga presente che se si desidera una rete facilmente modificabile in futuro (cioè scalabile) risulterà più complesso garantire un livello altrettanto elevato di robustezza, poiché l’espandibilità sarà sempre moltiplicata per due, con grande effetto sui costi.
Quanto alla sicurezza, essa è proporzionale al numero di apparati attraversati e soprattutto ai punti di ingresso in rete: chi la desidera deve quindi (se non vuole far salire alle stelle il prezzo finale) accettare una certa “rigidità” delle strutture che ne semplifichi il controllo.
Il modello multilivello è quasi sempre reso affidabile da un raddoppio dei nodi più interni, grazie a una struttura in “dual homing” con il quale ogni switch ha sempre la possibilità di instradare il traffico su un percorso alternativo. La rete può essere ulteriormente potenziata attraverso l’uso di switch layer 3 al suo centro, con i quali la suddivisione in sottoreti IP risulta più semplice e, soprattutto, gestita a livello hardware (senza la necessità di router lenti e costosi).



Swich di livello 3: solo dove serve



È da molto tempo che lo stato dell’arte dello switching prevede la gestione dei pacchetti a livello “network” e veleggia ormai verso i lontano (o vicini) lidi del 4° strato protocollare. Uno dei maggiori rischi che può correre un designer di rete è tuttavia dare per scontato che un apparato di commutazione non possa essere altro che un potente “layer 3”, quando in realtà l’uso di tali macchine deve essere fatto con grande oculatezza. Se torniamo al modello multilivello appena descritto ci accorgiamo infatti che il supporto delle funzioni di routing è necessario solo nello strato più interno della rete, e solo quando la scomposizione in sottoreti raggiunge una certa complessità.
Un punto a favore dei “layer 3” è, secondo molti, il contenimento dei broadcast, in maniera analoga a quanto fa un router tradizionale. Non bisogna però abbracciare tale teoria con troppa enfasi, in quanto esistono altri metodi per evitare “l’allagamento” della rete da parte di pacchetti broadcast alla ricerca di altre stazioni.
Primo fra tutti una corretta configurazione dei gruppi di lavoro in reti locali virtuali (VLAN), con le quali si ergono veri e propri “muri” tra pc allocati su switch diversi, come se esse appartenessero a un singolo segmento fisico. Molto si è detto sull’efficacia delle VLAN in reti complesse, ma spesso i pareri negativi che ne hanno limitato l’uso derivano da una loro cattiva implementazione: in realtà una loro corretta definizione, basata ancora una volta su una precedente analisi dei traffici, limita in maniera sostanziale il traffico broadcast senza alterare i flussi di lavoro tra client e server. Basta non dimenticare alcuni principi essenziali, come la possibilità di inserire un server in più VLAN, di seguire il principio della corrispondenza 1 VLAN = 1 subnet e, se possibile, di quella 1 VLAN = 1 switch fisico.
Se inoltre si curerà in modo particolare l’utilizzo della banda sui collegamenti condivisi tra più reti virtuali, ad esempio grazie all’aggregazione di più porte fisiche in una sola porta logica, si riuscirà a fare uso dei costosi switch di livello 3 solo dove serve: ad esempio nel core della rete, a diretto contatto della server farm o del router di interfaccia verso il geografico.



La tecnica a servizio del progetto



I principi del network design vanno distinti in due categorie: quelli basati sui risultati che si vogliono ottenere, da considerare quali leggi assolute, e quelli che prendono forma dal continuo sviluppo della tecnologia, molto meno stringenti. La validità di un progettista potrà essere giudicata sulla base di quanto saprà privilegiare i primi a scapito dei secondi, sempre nel rispetto del cliente e del budget che egli ha a disposizione.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome