Home Digitale Traffico di rete: cosa ha significato il caso Fortnite

Traffico di rete: cosa ha significato il caso Fortnite

Alle 15 di martedì 15 ottobre, sui desktop del MIX, dai commerciali ai tecnici, il sempre presente cruscotto del traffico ha mostrato una crescita repentina e continua, insolita rispetto ai valori tipici di un pomeriggio lavorativo (di solito intorno ai 600 Giga bit/sec).

A raccontarlo è il presidente del MIX, Joy Marino, che spiega quanto facesse un certo effetto vedere la barra del traffico salire minuto dopo minuto, crescendo di 350 Giga bit/sec in 30 minuti, fermandosi appena una tacca prima di arrivare a 1 Tera bit/sec, nuovo record per il MIX.

Dopo un rapido giro di telefonate al MIX hanno risolto l’arcano: dopo qualche giorno di blackout Fortnite aveva aperto le porte e e gli utenti si sono accalcati a fare download.

Per avere un termine di paragone, spiega Marino, «la prima partita del Campionato di Serie A ha cubato circa 250 Giga bit/sec sopra il traffico medio per 90 minuti di durata».

Abbiamo quindi chiesto a Joy Marino come può un semplice gioco impegnare il traffico di rete in questo modo.

Joy Marino

È possibile che un game provochi effetti come questo?

Certo che è possibile: ormai le industrie dell’entertainment sono tutte mescolate, soprattutto per quanto riguarda le modalità di distribuzione e di fruizione: si tratta di dispositivi connessi a Internet che devono ricevere flussi di dati digitali considerevoli. E possiamo solo ringraziare che, almeno in questo caso, non era necessario che fossero live.

Se è legittimo che un videogioco metta alla prova la capacità dell’intera Internet senza preavviso? Ormai è considerato accettabile, e direi che in altri paesi europei non è quasi stato notato. Ne farei piuttosto una questione di “galateo”: se sai che fai una festa in casa tua che sarà particolarmente rumorosa, è buona norma avvisare i vicini. In questo caso Epic Games ha un po’ fatto la figura del parvenu. Aziende come Microsoft o Apple che sanno bene che effetti provoca alla Rete ogni nuovo upgrade di software, hanno imparato a frazionare gli aggiornamenti nell’arco di più giorni e di diverse fasce orarie.

Esiste un effetto sorpresa anche per il MIX o era già tutto previsto?

Grazie per la fiducia nelle nostre capacità di preveggenza, ma non è proprio così.

Non ho difficoltà ad ammettere che non era previsto affatto, ma è nella natura del nostro mestiere essere in grado di “tenere botta” alla maggior parte degli avvenimenti che non si possono prevedere. Questo vale sempre per quanto riguarda i guasti: nulla è lasciato al caso, nessun componente della filiera dei servizi che passano attraverso MIX è privo di ridondanza. In gergo: non ci sono single point of failure. Per quanto riguarda la gestione dei flussi di traffico, la questione è più sfumata e merita di spendere qualche parola in più.

C’è una parte di infrastruttura di rete che è sotto la nostra diretta gestione, e questa è dimensionata in modo da poter reggere picchi di carico che sono ordini di grandezza maggiori di quelli che abbiamo mediamente: non deve mai succedere che MIX sia un collo di bottiglia per qualunque flusso di traffico.

Onestamente il nostro mestiere è relativamente facile: la richiesta di aumento della velocità delle porte affittate dai nostri clienti è nota mesi prima di essere implementata, i nostri apparati sono switch di ultimissima generazione che possono commutare svariati flussi da 100 G bit/sec senza perdere un bit, i nostri POP sono connessi in fibre ottiche ridondate con capacità che è multipla dei flussi scambiati normalmente. Il nostro atteggiamento mentale è, da sempre, che la banda trasmissiva disponibile deve essere infinita. Questo richiede investimenti progressivamente crescenti, ma alla lunga paga, come reputazione e come soddisfazione dei clienti.

Per gli operatori afferenti a MIX è molto più complicato e oneroso. Per un operatore TCL il “capacity planning” è uno dei mestieri strategici, l’ottimizzazione delle risorse è richiesta dai budget che devono essere rispettati e direi, a spanne, che potenziare le linee di trasmissione dati e gli apparati trasmissivi del backbone geografico di un operatore di accesso richiede investimenti almeno un paio di ordini di grandezza i nostri. Potenziare oltre misura può essere molto costoso; non c’è niente che renda più di cattivo umore un ingegnere di rete che dover dimensionare una rete geografica sul picco di traffico che si verifica solo una volta alla settimana per un paio d’ore (sarà forse per questo che non ci sono molti tifosi di calcio tra loro…).

Nonostante queste limitazioni, posso assicurare che lo snodo Internet di MIX, considerando anche tutti gli operatori afferenti, è in grado di reggere un picco di carico di anche 5 volte quello che si è verificato. Magari qualche operatore di accesso zoppicherà, ma sono sicuro che Fortnite Chapter 3 non metterà in ginocchio l’Internet italiana.

Quali cautele, per non dire contromisure, devono essere adottate in previsione di casi come questo?

Parlerei più di contromisure che sono nella disponibilità dei gestori delle reti degli operatori, piuttosto che di cautele che dovrebbe seguire l’utente finale, anche perché le aspettative che tutti hanno quando si parla di Internet sono per il “tutto e subito”, senza mediazioni o cautele.

Gli ingegneri delle reti hanno svariati strumenti a disposizione: alcuni, pochi, in sede preventiva (“quando ci sarà il derby Inter-Milan?”, “che giorno verrà annunciata una major release del sistema operativo del iPhone?”): si possono anticipare installazioni di upgrade delle linee geografiche, oppure negoziare con l’operatore che li collega alla “big Internet” un temporaneo allargamento della banda erogata. Gli strumenti utili ex-post, quando ormai l’asticella del traffico inizia a salire sono soprattutto di contenimento del danno, soprattutto allo scopo di evitare fenomeni di ingorgo che possono portare allo stallo l’intera rete dell’operatore. Si tratterà quindi di intervenire sul management dei router più critici, introducendo ritardi allo scopo di condizionare tutti i flussi di traffico nel loro insieme a non superare le soglie del “minimo confort per tutti”.

In questi casi mi piace ricordare che gli ingegneri di TLC della AT&T, a cui fu inizialmente proposto il progetto della prima ARPAnet, dissero subito che “una rete fatta così non avrebbe mai potuto funzionare” e non avevano tutti i torti: una rete come Internet non rispetta nessuno dei criteri tipici delle telecomunicazioni. Però funziona quasi sempre (con un ‘quasi’ sempre più piccolo).

Un po’ come il calabrone che vola perché non capisce nulla di fisica, altrimenti gli ingegneri aeronautici gli spiegherebbero che, per come è fatto, non può proprio volare.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php