Tecnologia

Data Center: un futuro sempre più cloud e Hyperscale

Al contrario di molte previsioni, il ruolo dei Data center è più centrale che mai nell’IT moderno. Tutto quello che c’è da sapere sulle tendenze tecnologiche che ne stanno plasmando il cambiamento

Pubblicato il 17 Ott 2017

Gianluigi Torchiani

Data Center

Il mondo dell’Information Technology sta cambiando a velocità incredibili e mai viste in passato. Dunque non può essere immune da questa trasformazione la struttura che è alla base di buona parte delle operazioni informatiche, vale a dire il Data Center. Che molti hanno dato per morto in passato e che invece oggi appare più vivo che mai, come testimoniano le recenti inaugurazioni di nuove strutture che si susseguono in tutte le parti del mondo. Come però ci ha raccontato Massimo Ficagna, Senior Advisor dell’Osservatorio Enterprise Application Governance della School of Management del Politecnico di Milano, ci sono indubbiamente una serie di trend tecnologici e non che stanno plasmando la natura stessa del Data center. Anche se non in maniera tale da cambiare la tradizionale definizione di Data Center: «si tratta infatti sempre di una struttura, intesa come facility, destinata a ospitare un insieme di risorse di calcolo, storage e di rete ed è dotata di tutta quei servizi di supporto che ne permettono di garantire il funzionamento (condizionamento, alimentazione elettrica, ecc, antincendio, sicurezza). Secondo Ficagna i trend, anzi le determinanti del cambiamento che sta interessando i data center, sono piuttosto chiare ed evidenti: innanzitutto si assiste a una grande crescita del volume dei dati e, di conseguenza, il carico elaborativo e di rete per elaborare questi dati aumenta in maniera esponenziale.

Risorse da comporre in tempi rapidi

Il secondo fenomeno ha a che fare con il fattore temporale: in passato si potevano prendere tempi lunghi per aumentare le dimensioni dell’infrastruttura ed espandere il Data center. Prima potevano servire mesi anche soltanto per acquistare un po’ di storage e server in più, mentre oggi il tema della digital transformation invece impone di fare tutto questo in ore o addirittura minuti. C’è la necessità dunque di un’estrema elasticità, per far scalare le infrastrutture verso l’alto o verso il basso a seconda del successo del proprio progetto o applicazione: il caso emblematico è quello di Pokemon Go, che ha avuto un picco enorme in occasione del suo lancio e nei mesi successivi ha avuto un crollo, con un conseguente minore necessità di infrastruttura informatica alle spalle. Il terzo fenomeno è la progressiva esternalizzazione dei data center aziendali: un tempo i Data center erano tenuti nelle vicinanze dell’azienda, oggi invece – prima con l’outsourcing e poi con il cloud (pubblico e privato) – la tendenza è quella di portarli sempre più verso l’esterno, in delle strutture che vanno a gestire l’infrastruttura IT aziendale. È un percorso ancora in atto ma che sta cambiando il panorama, abilitato anche dall’evoluzioni delle reti di telecomunicazioni, che sono sempre più performanti, eliminando la necessità di una vicinanza “fisica”. Infine, c’è il fenomeno della glocality: da una parte c’è la concentrazione dei data center in strutture sempre più grandi, per sfruttare economie di scala (personale, acquisto di risorse hardware e software).

I Data Center Hyperscale

D’altra parte, però, anche i grandi player del cloud stanno iniziando a realizzare delle strutture a livello locale, ad esempio anche in Italia, perché una certa prossimità con il cliente può avere una sua ragion d’essere, anche per la semplicità di gestione di alcuni aspetti normativi. Accanto a questi quattro trend ce n’è un quinto che può essere dato ormai per assodato, ovvero il fattore green. «I costruttori di centri di elaborazione dati prestano ormai una costante attenzione al tema del risparmio energetico, non soltanto per amore della sostenibilità ambientale in sé, ma anche per la necessità di ottenere dei risparmi consistenti da un punto di vista economico, dal momento che la quota energetica è importante sul totale dei costi. Un’altra tendenza collaterale rispetto alle quattro principali è la spinta alla realizzazione di Data Center di dimensioni sempre maggiori, i cosiddetti Hyperscale Data Center.

La logica che c’è dietro è chiara: in linea di massima le strutture più grandi riescono a fare economie di scala maggiori, soprattutto per quanto riguarda i servizi standardizzati. Una scelta che, non a caso, è stata sposato dai grandi operatori cloud o dai protagonisti dei servizi web, come Facebook o Google. Anche In Italia stanno nascendo alcuni data center importanti, a testimonianza che qualcosa si sta muovendo. Anche se certo rimangono delle complessità legate al percorso normativo e autorizzativo. Oltre a essere più grandi, più performanti e più grandi, gli attuali Data Center sono sempre più software definend.

L’ottica Software Defined

Sempre nell’ottica di assicurare una maggiore elasticità ai clienti finali. «Software defined data center significa sostanzialmente avere virtualizzato tutto: sia la parte di computing, che quella di storage che il networking. In questo modo è possibile attivare in modo più veloce le risorse che occorrono per un determinato progetto. In passato per costruire una nuova applicazione si aveva bisogno di un po’ di server, un po’ di storage e di rete: questo significava in passato acquistare risorse hardware fisiche, configurarle e collegarle. Grazie alla virtualizzazione è possibile fare tutto ciò con pochi click, utilizzando delle interfaccie programmabili semplificate e unitarie dei tre mondi. Inoltre c’è molta automazione nella gestione. Il maggiore beneficio sta quindi nella semplificazione, con vantaggi anche da un punto di vista di personale impiegato nella gestione, evidenzia Ficagna.

L’evoluzione futura dei Data Center

Ma quale sarà l’evoluzione del Data Center del futuro? «Quello che vediamo anche dai trend attuali, è che il Data center sarà sempre più ibrido. In parte on premise in parte in cloud, con uno spostamento di questo mix progressivo verso la nuvola. Forse soltanto le aziende che sposano l’industria 4.0 avranno bisogno ancora dell’on premise perché qui esiste necessità di tempi di risposta davvero stretti. In generale ci sarà sempre più bisogno di efficienza, con un’automazione sempre più spinta dei data center, favorita anche da logiche come quella del machine learning, conclude l’esperto del Politecnico di Milano.

L’alternativa dei Micro Data Center

Per tutti quei settori in cui sia necessario condividere e analizzare quantità crescenti di dati, come la vendita al dettaglio, la produzione e le telecomunicazioni, con una latenza ridotta al minimo, una possibilità è quella dei micro Data Center. Da un punto di vista tecnologico, si tratta essenzialmente di un data center “plug and play”, che lo rende ideale per cloud privati e sistemi IT convergenti. In questo articolo pubblicato sul sito IoTEdge.it è possibile scoprire nei dettagli il funzionamento del modello Micro data Center.  

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati