Così, quando si pensava di aver finalmente sotto controllo infrastrutture convergenti, piattaforme convergenti e iper-convergenti, improvvisamente si inizia a parlare di infrastrutture componibili. Mentre molti di noi avevano appena finito di capire come inserirsi nelle conversazioni più rilevanti su questo tipo di infrastrutture e i relativi campi di applicazione, Cisco e altri lanciavano le proprie architetture componibili. Il ritmo del cambiamento nel nostro settore non è mai stato così veloce, così credo sia opportuno provare a fare un po’ di chiarezza con una panoramica generale sulle infrastrutture componibili e perché sono importanti.
Penso che la maggior parte di noi abbiano familiarità con l’infrastruttura convergente: in sostanza, si riferisce a uno stack integrato di elaborazione, storage e networking con un layer di gestione unificata. Gli esempi includono soluzioni di alcuni dei nostri vendor distribuiti in Emea come Cisco FlexPod, HPE Converged Systems, NetApp, VCE Vblock e molti altri. Possono essere integrate direttamente dal produttore o assemblate dal VAR o distributore (vedi Avnet) prima della distribuzione. È molto più di un semplice esercizio di ‘confezionamento’, perché i sistemi convergenti accelerano e semplificano la progettazione, l’approvvigionamento, la distribuzione e la gestione delle infrastrutture dei data center. Stiamo parlando naturalmente di grandi sistemi: server blade, fabric switch e storage array.
Questi sono progettati per fornire la potenza e la scalabilità necessari per eseguire qualsiasi carico di lavoro, virtualizzato o fisico che sia. Successivamente, circa 2 anni fa, abbiamo visto emergere i sistemi iper-convergenti: sono sistemi a nodo singolo che possono essere raggruppati insieme per creare pool di calcolo e di storage. Si tratta di sistemi software defined per combinare processori e dischi all’interno di ogni nodo nei cluster di calcolo e di storage. Sono progettati per ottenere velocità e semplicità di utilizzo, per essere implementati e ampliati in pochi minuti, semplicemente aggiungendo un altro nodo al cluster. Essendo hypervisor-dipendente, sono infrastrutture che sopportano solo i carichi di lavoro che possono essere virtualizzati.
Ora, cos’è l’infrastruttura componibile? L’infrastruttura componibile rappresenta l’innovazione più significativa che abbiamo visto nello spazio convergente, certamente da quando sono entrate in scena le iper-convergenti, e rappresenta la più grande innovazione fino ad oggi. Si potrebbe dire che l’infrastruttura componibile rappresenta un’architettura di data center con la velocità e la semplicità di una iper-convergente ma abbastanza flessibile per sostenere qualsiasi carico di lavoro (virtualizzato, fisico, containerizzato). Si tratta di una architettura unificata comprendente pool disaggregati di elaborazione, storage e struttura di rete, tutti controllati da un singolo layer di gestione. Tutte le risorse sono software defined, indipendentemente da dove si trovano gli switch o quale sia lo chassis che ospita le CPU e i dischi, ed è possibile comporre e ricomporre queste risorse in base alle singole esigenze. Si tratta di pool di risorse fluidi, che possono essere forniti in modo indipendente e riallocati a volontà per sostenere qualsiasi carico di lavoro.
Questa modalità viene spesso denominata “infrastructure as code.” Immaginate di poter organizzare l’infrastruttura di data center come se fossero rack di processori, rack di storage, rack di infrastruttura di rete (Ethernet, Fibre Channel, iSCSI, FCoE) che possono essere gestiti in maniera flessibile e utilizzati come pura capacità in base alle esigenze dei carichi di lavoro, a prescindere dal fatto che tali carichi di lavoro siano virtualizzati o fisici.
Qual è dunque il vantaggio e perché ora? L’infrastruttura componibile promette di aumentare notevolmente l’efficienza a l’agilità dei data center. Le organizzazioni IT sono sempre più sotto pressione per consentire la crescita del business, dato che l’IT è sempre più visto come un reale driver di business, piuttosto che un mero centro di costo: il compito che viene loro assegnato è diventare molto più veloci nel fornire capacità on-demand e supportare nuove idee, progetti e applicazioni. Allo stesso tempo, deve mantenere le applicazioni aziendali tradizionali, assicurando prestazioni, disponibilità e sicurezza per le applicazioni di base su cui gira il business.
L’infrastruttura componibile consente di soddisfare entrambe le sfide con la creazione di una singola architettura di data center in grado di supportare i requisiti delle applicazioni aziendali tradizionali, fornendo al contempo la velocità e la flessibilità per supportare le richieste di nuovi progetti e applicazioni in una modalità agile e on-demand. Quindi aspettiamoci nei prossimi mesi molto interesse intorno alle infrastrutture componibili, abbiamo appena iniziato. Alcuni dei player chiave dell’infrastruttura sono già al lavoro sulla prossima fase di innovazione componibile (si pensa di separare il complesso processore/memoria per consentire pool fluidi di memoria che possono essere forniti in modo indipendente dal processore).
* di Andrea Massari, country manager di Avnet TS Italia