L’affidabilità di una rete dati è una tema troppo spesso dato per assodato quando si sceglie un Cloud Service Provider. Le differenze, invece, possono essere significative e il loro impatto sul business importante.

La richiesta di un time-to-market sempre più pressante e la necessità di fornire risposte rapide alle esigenze dei clienti porta le aziende a rivedere i propri modelli di business. In questo percorso, il cloud offre una risposta efficace poiché consente, in tempi rapidi e in modo dinamico, di scalare la capacità di elaborazione e archiviazione e di rivedere le infrastrutture mantenendole costantemente aggiornate dal punto di vista tecnologico.

Spostare i propri dati e applicazioni nel cloud significa, però, trasferire i requisiti di affidabilità e prestazioni della rete dati dalla propria infrastruttura a quella del Cloud Service Provider.

 

Rete dati, disponibilità sempre e comunque

 

Scegliere un provider in grado di garantire un elevato livello di affidabilità della rete dati è un passaggio essenziale, che assume un’importanza ancora maggiore nel caso un’azienda decida di spostare nel cloud applicazioni di tipo business critical.

Va poi osservato come il tema dell’affidabilità di rete, soprattutto nel cloud, sia strettamente correlato a quello della scalabilità e delle prestazioni, con un impatto diretto sui costi.

Il primo presupposto nella valutazione di un’infrastruttura di rete è che questa sia sempre attiva. Ciononostante, spesso, la disponibilità della rete è sottovalutata da chi acquista un servizio cloud.

La ragione è perché la disponibilità viene considerato un requisito fondamentale di ogni fornitore e, di conseguenza, non un elemento importante di differenziazione per la scelta, ponendo magari più attenzione ad aspetti quali l’agilità o la capacità di orchestrazione.

Il “risveglio” avviene, solitamente, in modo brusco dopo aver sperimentato un’interruzione di servizio.

Anche solo pochi minuti di downtime generano, infatti, perdite di clienti e possono arrecare danni molto elevati soprattutto nel caso di business quali piattaforme di streaming, di transazioni finanziarie o di e-commerce.

Già nel 2014 Gartner stimava il costo medio del network downtime in 5600 dollari al minuto (Gartner blog: The Cost of Downtime, di Andrew Lerner), ma altri studi arrivano a 10mila dollari, mentre per un colosso come Amazon la cifra sale fino a oltre 220 mila dollari di perdita per minuto di downtime.

Avere una rete ad alte prestazioni non serve se, poi, i dati non sono disponibili. Per questo motivo, nel caso di soluzioni affidate in hosting o in housing a un service provider è importante valutare anche il livello di certificazione del Data Center su cui saranno ospitati i propri dati e applicazioni in relazione a standard di tipo internazionale. Per esempio, i Data Center cosiddetti Tier IV, sono certificati per essere autenticamente fault tolerant e con una disponibilità superiore al 99,99%.

 

Prestazioni sempre al top, anche nel caso di picchi improvvisi

 

Non solo tutte le reti dati sono differenti per livello di affidabilità, ma anche per prestazioni. Innumerevoli fattori condizionano le performance di una rete come latenza, throughput, perdita di pacchetti e ritrasmissione.

Un’opportuna gestione del network permette di affrontare questi problemi. Per esempio, l’utilizzo di tecnologie di Network Performance Management (NPM) fornisce una serie di tecniche di controllo sul traffico di una rete dati finalizzate a garantire le migliori prestazioni di trasmissione e prevenire i colli di bottiglia sfruttando al meglio la banda disponibile.

Le tecniche di NPM sono basate su meccanismi automatici che ottimizzano le prestazioni in funzione delle differenti caratteristiche applicative e della loro criticità senza, peraltro, impattare sul corretto funzionamento delle applicazioni meno rilevanti per il business.

Fondamentale in questo contesto è la capacità di un cloud service provider di garantire il medesimo livello prestazionale della rete indipendentemente dalla scalabilità delle risorse di elaborazione e archiviazione.

I fornitori di servizi cloud più evoluti, che dispongono di molteplici Data Center distribuiti geograficamente, affrontano questa esigenza interconnettendo tra loro i Data Center in modo da creare un unico Virtual Data Center.

Questo tipo di infrastruttura è in grado di garantire un percorso di rete sempre attivo e sicuro, massima continuità del servizio e di consentire una scalabilità dinamica delle risorse (anche su intervalli di tempo limitati) senza degrado della rete ovvero mantenendo le prestazioni applicative e il livello di accesso ai dati sempre al massimo livello.

infografica Housing vs Hosting

Potrebbe interessarti anche:

29/10/2019
ARTICOLO

Strategia Multicloud