Tecnologia

Intelligenza Artificiale: quali infrastrutture servono per abilitarla?

La maggior parte degli algoritmi di intelligenza artificiale necessita di enormi quantità di dati e di potenza di calcolo per funzionare al meglio. Dunque occorre avere delle infrastrutture di supporto adeguate

Pubblicato il 15 Nov 2017

Nicoletta Boldrini

shutterstock_302160902

Sebbene la capacità computazionale disponibile oggi renda ancora complesso emulare il funzionamento del cervello umano (richiede risorse poco sostenibili sia dal punto di vista economico sia dal punto di vista energetico, anche se la ricerca scientifica sta facendo passi da gigante), le infrastrutture che abilitano l’Intelligenza Artificiale si sono evolute tanto da supportare un ventaglio sempre più ampio di attività e processi di business.

(Per scoprire quali sono infrastrutture e le piattaforme che abilitano l’Intelligenza Artificiale, partecipa a questo esclusivo evento con la presenza dei massimi esperti italiani di AI Intelligenza Artificiale, processori. Un workshop interattivo e senza precedenti, qui tutti i dettagli per la registrazione)

L’Intelligenza Artificiale è diventata un driver critico per le soluzioni “best-in-class” di predictive analytics e per il decision making. Secondo le stime di Gartner (Gartner’s Top 10 Strategic Technology Trends for 2017), Artificial Intelligence (AI), Advanced Machine Learning e Data Science saranno le principali tecnologie in grado di supportare i business delle aziende dal 2017 in poi, complici anche la sempre più ampia disponibilità di dati e la maturità delle tecnologie di analisi. Tutti sistemi che necessitano però di uno strato infrastrutturale “potente” e in grado di reggere carichi di lavoro ben più estesi e critici rispetto a quelli visti fino ad oggi.

Cosa serve per far funzionare l’Intelligenza Artificiale

La maggior parte degli algoritmi di Artificial Intelligence necessita di enormi quantità di dati e di potenza di calcolo per funzionare al meglio, motivo per cui diventano indispensabili almeno tre componenti tecnologiche principali:

– l’infrastruttura di rete (e la connettività);

– l’infrastruttura server con elevata capacità di elaborazione;

– lo storage.

Stando infatti alla più recente analisi di McKinsey Global Institute [condotta su oltre 200 realtà aziendali in Usa ed Europa, operative in 15 settori industriali, correlando il “tradizionale” Digital Index di McKinsey – l’indice di utilizzo e sviluppo delle tecnologie digitali – con il più attuale AI index, l’indice sviluppato ad hoc dalla società di analisi e consulenza per monitorare gli investimenti e i livelli di utilizzo dell’Intelligenza Artificiale da parte delle aziende utenti – ndr], l’adozione delle tecnologie e delle soluzioni legate al mondo dell’Intelligenza Artificiale è sistematicamente maggiore e più frequente in quelle realtà dove si sono fatti precedenti investimenti infrastrutturali, in particolare verso cloud-based architecture, infrastrutture iperconvergenti e sistemi ingegnerizzati sviluppati per l’analisi in real-time dei Big Data.

I processori, le architetture e le piattaforme tradizionali spesso richiedono molto tempo (addirittura settimane) per calcolare il ventaglio di opzioni di una rete neurale (Deep Learning algorithm). I più avanzati processori e le GPU – Graphic Processor Units hanno già contribuito a risolvere parzialmente il problema, offrendo capacità di calcolo e velocità superiori ma per supportare soluzioni avanzate di Intelligenza Artificiale ancora non basta. Motivo per cui stanno andando sempre più diffondendosi nuove piattaforme e architetture ottimizzate per l’AI disponibili in cloud.

Intelligenza Artificiale: le sfide infrastrutturali

Come accennato, riuscire ad implementare soluzioni di Intelligenza Artificiale all’interno del data center aziendale apre sfide su tre fronti: network, server e storage.

1) Il network per l’AI

Gli algoritmi di AI incidono in modo critico sulle infrastrutture di rete, in particolare sulla loro scalabilità che è, secondo gli analisti di Gartner, una delle sfide principali da affrontare, insieme all’automazione.

Dal punto di vista della scalabilità, sono gli algoritmi di Machine e Deep Learning a creare le maggiori criticità perché estremamente “communication-intensive”.

Progettare e disegnare una infrastruttura di rete adeguata e ottimizzata per l’Intelligenza Artificiale significa concentrare gli sforzi su tre punti chiave: high-bandwidth, minima latenza del network e architetture di rete innovative. Ma la vera svolta, suggeriscono gli analisti di Gartner, è rappresentata dall’automazione per cui diventa vitale rendere tutta l’architettura di rete “agile” in modo da rendere quanto più fluido e automatizzato l’allocamento dinamico delle risorse a seconda delle necessità.

2) La capacità computazione per l’AI

Dal punto di vista della capacità di calcolo, un ambiente data center basato su CPU potrebbe risultare sufficientemente performante in processi di Intelligenza Artificiale poco complessi, per esempio per sostenere il Machine Learning legato al riconoscimento di pattern o per il clustering, ma quando si devono “reggere” carichi più pesanti come quelli che richiedono gli algoritmi di Deep Learning l’infrastruttura deve evolvere verso le GPU.

L’ideale, suggeriscono gli esperti di Gartner, è modellare delle infrastrutture ibride ed eterogenee dove i processori core si integrano con “acceleratori” ad hoc ottimizzati per i carichi generati dagli algoritmi e dai processi di Intelligenza Artificiale “compute intensive”. Il tutto deve essere configurato in ambienti ad alta densità, tenendo sempre presente che consumo energetico ed eventuali costi di raffreddamento non possono passare in secondo piano.

«Tutti accorgimenti che i più moderni sistemi convergenti ed iperconvergenti sono in grado di indirizzare adeguatamente, anche se in questo momento ad un costo abbastanza alto. La maturità tecnologica, come sempre, consentirà comunque un abbassamento dei prezzi», sono le parole di Christian Perry, Research Manager di 451 Research.

3) Lo storage per l’AI

Deep Learning e applicazioni di AI richiedono ampi volumi di dati per “formare”, testare e validare gli algoritmi delle reti neurali, situazione che per gli amministratori dei data center può sollevare qualche criticità dal punto di vista dello storage.

«Se gli algoritmi di Machine Learning sono prevalentemente basati su processi “di regressione” (test di regressione per verificarne l’efficacia), allora potrebbero bastare set di dati limitati. Tuttavia, per reti neurali sofisticate e algoritmi avanzati si presenta un problema di scalabilità (dei dati e delle infrastrutture che li devono supportare)», è l’analisi di Chirag Dekate, Research Director di Gartner. «Le tradizionali architetture NAS – Network Attached Storage offrono risultati immediati in termini di deployment semplificato ed efficienza out-of-the-box ma problemi di scalabilità dell’I/O e di latenza si presentano comunque».

Alcune startup stanno esplorando tecnologie di “high-bandwidth parallel file systems” per aumentare la velocità di throughput (cioè la trasmissione dei dati) nonché la scalabilità dei sistemi per rendere effettivamente disponibili i dati alle applicazioni di Intelligenza Artificiale che, come abbiamo visto, oltre a richiedere grandi capacità di network e di CPU/GPU sono anche “data intensive”. Secondo l’opinione dell’analista di Gartner si tratta però di sistemi complessi e non ancora maturi.

Quello dello storage a supporto dell’Intelligenza Artificiale è forse l’ambito più critico dove vedremo le tecnologie maturare di pari passo con l’AI stessa, un po’ come è avvenuto per le infrastrutture a sostegno dei Big Data e sta avvenendo per l’IoT.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3