Opinioni

Le tre tendenze per il mercato delle reti

Convergenza, Software Defined Networking e architetture distribuite sono le direttrici principali che stanno dando forma al settore

Pubblicato il 20 Mar 2013

Redazione TechCompany360

reti-imprese-181940-120906155112

In un periodo in cui i budget rimangono invariati, le organizzazioni IT devono far fronte a cambiamenti in ambito networking che non possono essere ignorati.

Trovare il modo di stare al passo con l’innovazione è sicuramente una sfida, ma anche per coloro che non dispongono di budget illimitati non è per forza di cose insormontabile.

I dipartimenti IT devono essere pragmatici e considerare attentamente le scelte, proteggendo gli investimenti esistenti attraverso l’utilizzo di tecnologie aperte e valutando i progetti più urgenti in linea con le priorità aziendali.


I trend in ambito networking
In generale sono tre i trend in ambito networking che stanno danno forma al mercato: convergenza, reti distribuite e software defined network.

Questi argomenti non sono del tutto nuovi, ma stanno iniziando a diventare realtà in termini di maturità della tecnologia e focus da parte delle aziende.

Ciò che caratterizza e differenzia il networking nella sua capacità di rispondere a questi trend è che, diversamente dal settore dei server, i prezzi non sono calati per via di un’architettura standard economica come la piattaforma x86, che ha aperto e diversificato il mercato.

Nuove tecnologie aperte stanno emergendo e con esse maggiore libertà di scelta. Ora che i CIO stanno valutando di sviluppare una strategia di rete che possa trarre vantaggio da approcci innovativi, nuove opzioni più economiche alle architetture tradizionali stanno iniziando a cambiare le regole del gioco.


Convergenza
La convergenza non è una questione strettamente legata al networking, ma il suo impatto sul modo in cui le reti vengono gestite e su chi le gestisce non deve essere sottovalutato.

In precedenza l’IT operava in silos, con personale dedicato a server, storage e network che agiva in maniera pressoché indipendente. Quando era necessario abilitare una nuova risorsa, collaborare tra silos per ottenerla poteva essere un’esperienza difficoltosa.

La virtualizzazione ha in parte risolto questa problematica attraverso la sua capacità di attraversare i domini e infrangere questi silos.

Tuttavia, questo passaggio ha dato vita a un nuovo ruolo – il responsabile della virtualizzazione – con il compito di gestire una pletora di tecnologie differenti di vendor diversi.

Questi manager hanno realizzato un’infrastruttura adottando un approccio tradizionale basato sulla selezione di piattaforme individuali best-of-breed e gestendola con strumenti di system management ottimizzati per le singole piattaforme e gli ambienti fisici.

Negli ultimi anni, un nuovo paradigma per l’infrastruttura x86 – denominato converged infrastructure – ha iniziato a prendere piede.

Un’infrastruttura convergente ideale dispone di un sistema integrato di elaborazione, storage e networking, gestito in modo olistico da un unico tool software, e offre pool di risorse virtuali che possono essere utilizzate per amministrare applicazioni, ambienti virtual desktop e private Cloud.

Non c’è accordo su chi sia il “proprietario” di tale infrastruttura. La maggior parte dei vendor vorrebbe lasciare il controllo ai responsabili della rete.

In realtà una soluzione davvero convergente dovrebbe offrire due opzioni: i responsabili dei server possono gestire la rete e i professionisti della rete accedere all’infrastruttura dei server. Strumenti flessibili a livello di switching layer possono offrire questa possibilità e garantire al business la flessibilità di cui necessita.


Software Defined Networking
Nonostante la tecnologia sia ancora agli albori, si prevede che il Software Defined Networking (SDN) possa rivoluzionare le infrastrutture di rete così come la virtualizzazione ha fatto nel mercato dei server.

Il networking tradizionale non è stato in grado di offrire la flessibilità oggi richiesta – non c’è la possibilità per gli sviluppatori di modificare o trasformare i dispositivi di rete per fornire l’integrazione tra applicazioni e l’infrastruttura.

Gli switch indirizzano i dati utilizzando le CPU dell’hardware, il che significa che il personale IT ha un controllo relativo sul flusso dei dati in rete.

L’emergenza del SDN ha fornito agli IT administrator un controller disaccoppiato dallo switch attraverso il quale gestire i flussi di traffico senza dover configurare manualmente i singoli elementi hardware.

Da questo punto di controllo centrale è possibile gestire intere reti di switch offrendo un’architettura di rete virtuale e flessibile.

Questo risulta essere un approccio molto più pragmatico al network management, che elimina ore di lavoro manuale legato al routing e alla gestione delle policy, fornendo al contempo la capacità di rispondere velocemente alle esigenze del business.

SDN è un concetto relativamente nuovo, ma i vantaggi sono ben noti: un ridotto affidamento a costosi switch e router proprietari dato che le SDN possono essere configurate su hardware più economico.


Da architetture tradizionali a distribuite
Diversi sviluppi hanno reso la tradizionale rete centralizzata basata su chassis monolitici inadeguata per le esigenze odierne.

Innanzitutto, la forza lavoro è divenuta estremamente dislocata e mobile.

In secondo luogo, virtualizzazione e Cloud Computing hanno generato un flusso di traffico server-to-server più elevato che mai.

Infine, le aziende oggi devono elaborare, archiviare e analizzare volumi di dati molto più estesi di prima.

Le reti monolitiche non sono state architettate per gestire in modo efficace questa tipologia di traffico “orizzontale”, bensì flussi lineari “nord-sud” in ingresso e uscita dal data centre. Far evolvere queste reti è un processo costoso e difficile.

Approcci distribuiti alternativi, più facili da far scalare, stanno arrivando sul mercato. Rispetto ai progetti tradizionali, le architetture core distribuite possono essere modificate con switch Ethernet low-cost , mentre l’architettura migliora l’affidabilità eliminando il singolo point of failure e fornendo migliori prestazioni per flussi di traffico any-to-any.

Tuttavia, non tutte le reti distribuite sono eguali e molti vendor hanno adottato approcci proprietari allo sviluppo di dispositivi di rete distribuiti, “blindando” i clienti proprio come avviene con l’approccio monolitico.

Il core può essere distribuito, ma con standard, protocolli e sistemi operativi proprietari, la rete deve essere gestita come entità completa, senza possibilità di interoperabilità.

Un approccio basato su standard aperti ad architetture core distribuite assicura un livello di flessibilità molto maggiore, permettendo alle organizzazioni IT di associare componenti in base alle esigenze e al budget a disposizione.

Open vuol dire successo
Per troppo tempo gli utenti sono stati bloccati da tecnologie o cicli di costi che hanno frenato l’innovazione. La nascita di standard, framework e architetture aperte, stanno favorendo lo sviluppo di nuove soluzioni. Nel nuovo mondo del networking, il futuro è luminoso, il futuro è aperto.

*Enterprise Field Marketing Manager di Dell

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2