Molte aziende hanno un’unica strategia di protezione dei dati, tipicamente basata su una semplice copia di backup giornaliero di tutti I dati. Si tratta di un approccio che può andare bene quando si parla di dati standard, o di dati che variano poco ogni giorno, ma che non è assolutamente sufficiente per gli ambienti mission-critical, o per le basi dati con una elevata variabilità quotidiana. Molto spesso, i dati importanti per la produzione hanno necessità di essere protetti in modo completamente diverso: occorre definire una strategia ed adottare tecnologie che permettano di avere una protezione dei dati realmente continua, ad intervalli di pochissime ore o addirittura di minuti. In questo modo, si ha la certezza di non perdere informazioni critiche per il business.
Quasi sempre, gli ambienti mission-critical sono dotati di infrastrutture e soluzioni che garantiscono alta affidabilità e replica del dato, magari anche su più siti. Questo permette di mantenere il servizio sempre attivo e di far fronte ad eventuali problematiche hardware o legate all’applicativo stesso. Di certo questo tipo di architettura non permette di rimediare ad eventuali errori logici o applicativi, in quanto un eventuale errore logico si propagherebbe all’intera infrastruttura di front end. Inoltre, un semplice backup fatto su base giornaliera non è sufficiente per poter permettere un ripristino dei dati importanti, ed espone a potenziali perdite di informazioni utili per il business.
Per indirizzare al meglio questa problematica, si possono adottare fondamentalmente strategie di due tipi:
• Continuous Data Protection.
Si tratta di un approccio che presenta l’indiscusso vantaggio di replicare tutti i dati direttamente su un’infrastruttura parallela, mettendo così al riparo dalla propagazione dell’errore poichè i dati vengono storicizzati. Purtroppo però, questa replica in modalità continua non permette di avere facilmente punti di consistenza, cosa questa che potrebbe rendere critico, se non addirittura impossibile, il ripristino del dato stesso
• Utilizzo di tecnologie Snapshot fatte direttamente dallo storage. Questa tecnologia molto diffusa si basa su una funzionalità oggi disponibile in gran parte degli storage di classe enterprise. In pratica, i sottosistemi storage possono fare immagini della base dati sovrastante in tempi rapidissimi, con bassissimo impatto sulla produzione ed un consumo di storage ridotto. Molti clienti hanno questa componente nei propri datacenter, ma riescono difficilmente ad utilizzarla appieno a causa della complessità di integrazione con gli applicativi e della relativa consistenza. Fare snapshot non integrate con l’applicativo porta, nella gran parte dei casi, ad avere una base dati inutilizzabile in quanto non riconducibile ad alcun momento temporale specifico.
Superata la difficoltà di integrazione con gli applicativi, le snapshot si prestano ad essere la migliore soluzione per poter disporre del giusto livello di protezione delle informazioni critiche. In tale senso, esistono innovative tecnologie software che operano esattamente in tale ambito, garantendo la piena integrazione con gli applicativi e la relativa consistenza, ed interfacciandosi con la maggior parte degli storage esistenti che dispongano di funzionalità snapshot. Quindi, una protezione dei dati ottimale deve partire da una segmentazione dei dati stessi in base alla loro importanza e variabilità, e quindi predisporre strategie di protezione adeguate e differenziate che partano dal semplice backup giornaliero, per arrivare alla piena integrazione delle snapshot con gli applicativi mission critical. Solo in questo modo, si potranno ridurre i costi di infrastruttura, incrementare notevolmente il livello di protezione ed essere in linea con le necessità di business.
*Vincenzo Costantino, Technical Services Manager, Commvault Italy