HPE con The Machine va alla sfida dei Big Data

La macchina, presentata recentemente dalla casa di Palo alto, promette di rivoluzionare anni d’innovazione nelle architetture server, con una capacità di elaborazione senza precedenti. Kirk Bresniker, Chief Architect Hewlett Packard Labs Systems Research, illustra le prospettive del progetto

Pubblicato il 06 Giu 2017

Giorgio Fusari

1-160-TB-Prototype

A oltre sei mesi dalla dimostrazione di quella che ha definito la prima architettura di computing ‘memory-driven’ del mondo – eseguita attraverso un prototipo mostrato come ‘proof-of-concept’ della capacità dei componenti fondamentali del nuovo computer di funzionare insieme – a metà maggio Hewlett Packard Enterprise (HPE) ha annunciato un nuovo prototipo, come ulteriore tassello nel percorso di evoluzione dell’iniziativa The Machine, avviata nel 2014. Quest’ultima è un progetto di ricerca e sviluppo che punta a rivoluzionare, attraverso il paradigma del ‘memory-driven computing’ (MDC), sessant’anni di innovazioni in campo informatico, ponendo al centro dell’architettura server non più il processore ma, appunto, la memoria.

Con questa architettura, HPE promette di superare i limiti di velocità degli attuali server, eliminando le inefficienze causate dal modo in cui memoria, storage e processori interagiscono oggi nei sistemi tradizionali. Obiettivo analizzare i dati con maggior rapidità ed efficacia, in un’era in cui innovazioni tecnologiche come la Internet of Things (IoT) stanno portando a un enorme incremento delle moli di informazioni da elaborare, e di conseguenza all’esigenza di macchine con prestazioni sempre maggiori. Qui il memory-driven-computing permetterebbe di elaborare i volumi di dati necessari per risolvere problemi complessi, stravolgendo le attuali tempistiche: ore invece di giorni, minuti invece di ore, secondi invece di minuti, in quest’ultimo caso fornendo capacità di intelligence in tempo reale.
Il nuovo prototipo di The Machine è dotato di 160 terabyte (TB) di memoria: una capacità sufficiente, spiega HPE, a lavorare in maniera simultanea con cinque volte i dati contenuti in ogni libro della Biblioteca del Congresso statunitense, che conta circa 160 milioni di volumi. Finora, ha precisato la casa di Palo Alto, non era mai stato possibile memorizzare e manipolare data set di queste dimensioni in un sistema ‘single-memory’. Oltre ai 160 TB di memoria condivisa, distribuita su 40 nodi fisici interconnessi mediante protocollo in fibra ad alte prestazioni, questo prototipo adotta un sistema operativo ottimizzato basato su Linux, che gira su processore ThunderX2 di Cavium, un SoC (System-on-Chip) basato su architettura ARMv8-A e progettato per la gestione di workload nel cloud. Le connessioni ottiche, incluso il modulo fotonico X1, risultano funzionanti e operative, e a tutto ciò si aggiungono gli strumenti di programmazione software, progettati per sfruttare la grande quantità di memoria persistente a disposizione.

Kirk Bresniker, Chief Architect Hewlett Packard Labs Systems Research e HPE Fellow

Roadmap e possibili applicazioni

Per saperne di più dei futuri passi di The Machine, intervistiamo Kirk Bresniker, Chief Architect Hewlett Packard Labs Systems Research e HPE Fellow. Alla domanda su quando, dove e come il nuovo paradigma del memory-driven computing potrà avere implementazioni concrete in prodotti esistenti o nuovi, Bresniker, risponde sì, spiegando che le tecnologie integrate in questo prototitpo potranno avere un utilizzo immediato nella offerte convenzionali della società, dalla memoria persistente, ai sistemi d’interconnessione ottici/fotonici, ed essere applicate in ogni tipo di organizzazione ed ambiente enteprise, dai server convenzionali ai sistemi di networking. “Allo stesso tempo – precisa – riteniamo anche che, messi tutti insieme, questi componenti costituiranno la base per creare una nuova offerta di prodotti”.
Per quanto riguarda quando tali implementazioni saranno disponibili sul mercato, la differenza, aggiunge Bresniker, la farà il timing e la capacità di coordinamento e collaborazione tra i partner dell’ecosistema e i membri del consorzio Gen-Z, che ha la missione di creare i sistemi di interconnessione di prossima generazione, basandosi su principi di apertura e trasparenza tecnologica. “Abbiamo necessità che tutti i nostri fornitori di componenti, microprocessori, dispositivi di memoria, semiconduttori di comunicazione, diventino parte della discussione, assieme alla comunità del software open source e alla Linux community”.
Le tempistiche di rilascio, specie per i prodotti di nuova concezione, dipenderanno dal completamento, da parte del consorzio, del complesso lavoro di definizione e ratifica delle varie specifiche, dopodiché i vendor di componenti potranno produrre le prime implementazioni di semiconduttori ottimizzate per incorporare tutti questi nuovi approcci e specifiche tecnologiche. In aggiunta, sarà anche necessario che la comunità di sviluppo del codice open implementi tutta la componente software dell’architettura hardware. Questo, in ogni caso, precisa, è un processo destinato a svilupparsi nell’arco di diversi anni.
E le applicazioni? “Vedremo applicazioni di queste tecnologie in un ampio insieme di potenziali utilizzazioni: dai sistemi di elaborazione scientifici ad alte prestazioni, alle tecnologie alla base del nostro programma di ricerca e sviluppo Exascale”. Quest’ultimo definisce la prossima generazione di sistemi di computing ad altissime prestazioni, dotati di tutte le capacità dei computer attuali, ma in grado di eseguire le funzioni consumando solo una frazione della loro energia. “Inoltre vedremo svilupparsi applicazioni anche all’interno delle imprese” conclude Bresniker. Applicazioni che saranno guidate dall’esigenza di analisi di big data in tempo reale, oltre che dalla necessità di trovare modi più efficienti per gestire le applicazioni enterprise esistenti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3