Quando virtualizzazione e cloud computing complicano la Disaster Recovery

Difficoltà nella gestione di differenti risorse virtuali, fisiche e cloud, nella protezione e nel recupero di dati e applicazioni mission critical: ecco le nuove sfide poste alle aziende ed evidenziate dal Symantec Disaster Recovery Study 2010

La maggior parte degli organismi aziendali, soprattutto se di piccole o medie dimensioni, conosce un’esistenza fatta di continuo fermento: al modificarsi di particolari variabili ambientali, sociali e tecniche, si modificano, di conseguenza, le strutture organizzative interne e i meccanismi di coordinamento e decentramento, variano le risorse umane e i mezzi strumentali, aumenta il know-how di base richiesto, si differenziano e specificano, infine, gli obiettivi. In un contesto come quello odierno, fondato sulla migrazione massiva al digitale, una simile considerazione non può che essere, allora, confermata e rafforzata, portando con sé una serie di difficoltà, legate, oltre che alle competenze individuali e collettive, anche alle risorse necessarie all’implementazione del cambiamento e, in particolare, alla loro gestione e protezione.

A toglierci qualsiasi illusione sull’ipotesi di un brillante e rapido superamento di tale prova, arriva uno studio a carattere globale commissionato da Symantec Corp. per evidenziare i trend e comprendere gli aspetti più complessi in materia di pianificazione e preparazione della Disaster Recovery. Giunto alla sua sesta edizione, il Symantec Disaster Recovery Study 2010 è stato realizzato nel corso dello scorso mese di ottobre dall’agenzia di ricerca indipendente Applied Research West, arrivando a coinvolgere oltre 1.700 IT Manager delle più grandi aziende presenti in 18 Paesi di Stati Uniti, Canada, Europa, Medio Oriente, Asia, Pacifico e Sud America.

Volendo dare una veste definitoria al fenomeno, potremmo dire che, con Disaster Recovery (DR), si intende una “strategia che viene studiata (e generalmente formalizzata in una apposita procedura) in previsione di un qualsiasi evento tecnico o di altra natura (es: guasto o danneggiamento di server o dischi rigidi, perdita o manomissione di dati, ma anche incendi, ecc..) in grado di mettere in crisi un sistema informatico compromettendone il corretto funzionamento e che ha come obiettivo il più rapido e completo possibile ripristino delle funzioni e dei dati presenti nel sistema stesso”. Ciò che emerge dallo studio su tale fenomeno sono, allora, innanzitutto, la difficoltà delle imprese nel riuscire a gestire efficacemente differenti risorse virtuali, fisiche e cloud, la complessità nel riuscire a proteggere e recuperare i dati e le applicazioni mission critical e l’inadeguatezza della protezione presente nei sistemi virtuali.

Per quanti non la conoscessero, Symantec è l’azienda statunitense nata nel 1982 “da un gruppo di scienziati informatici lungimiranti”, con sede a Cupertino (California) e con una posizione di leader globale nella creazione di soluzioni per la sicurezza, lo storage e la gestione di sistemi che aiutino aziende e consumatori a proteggere e gestire dati e informazioni. Nota prevalentemente per la produzione di software capaci di rendere i computer indenni da attacchi informatici (come il famoso Norton Antivirus), essa ha negli anni diversificato notevolmente la propria offerta, rivolgendosi specificatamente a consumatori singoli o ad utenti aziendali e operando in altri nuovi settori: partizionamento degli hard disk, ottimizzazione delle prestazioni dei PC, e-mail archiving, storage management, backup di dati e sistemi che assicurino disponibilità, sicurezza ed integrità dei dati, anche in caso di malfunzionamenti o eventi dannosi.

In seguito alla pubblicazione dei risultati dello studio, Dan Lamorena, direttore responsabile di Symantec in materia di Storage and Availability Management, ha rilevato che «se da una parte le aziende stanno adottando nuove tecnologie, quali la virtualizzazione e il cloud computing, per ridurre i costi e potenziare il disaster recovery, dall’altra stanno anche aumentando la complessità del proprio ambiente e lasciano le applicazioni mission critical e i dati senza alcuna protezione».

Pare, infatti, che siano proprio i fenomeni di virtualizzazione e di utilizzo delle tecnologie cloud a rendere più complessa la DR, obbligando i responsabili dei data center ad avere a che fare con molteplici strumenti per gestire e proteggere applicazioni e dati. Scendendo più nel dettaglio, quasi sei intervistati su dieci (il 58%) hanno dichiarato che, l’aver riscontrato problemi nella protezioni di applicazioni mission-critical, in ambienti fisici e virtuali, rappresenta una grande sfida per la propria azienda; con riferimento, invece, al cloud computing, essi hanno sottolineato come circa il 50% delle applicazioni mission-critical della propria azienda si trovi sulla nuvola, e la causa principale di preoccupazione (66%, circa due terzi dei rispondenti) per tale consapevolezza deriva dalle problematiche legate alla sicurezza. La sfida più grande posta da cloud computing e storage è, per il 55%, la capacità di controllare i failover e di rendere le risorse altamente disponibili.

Sarebbe in tal senso necessario che le aziende improntassero i propri piani di DR con la previsione di gestire i dati e le applicazioni mission critical in modo quanto più omogeneo nei diversi ambienti utilizzati (virtuale, cloud e fisico). Esse dovrebbero, inoltre, utilizzare un minor numero di strumenti per gestire tutti questi ambienti e puntare, piuttosto, su una loro integrazione, al fine di ottimizzare i tempi, i costi di formazione e favorire l’automatizzazione dei processi.

Lo studio evidenzia, poi, come quasi la metà (il 44%) dei dati presenti sui sistemi virtuali non sia sottoposto a regolare backup e come solo un intervistato su cinque usi tecnologie di replication e failover per proteggere gli ambienti virtuali. Stando sempre ai risultati rilevati, il 60% dei server virtuali non risulta incluso nell’attuale piano di DR degli intervistati: un incremento significativo rispetto al 45% dello stesso studio condotto nel 2009. L’82% dei backup viene eseguito solo una volta a settimana, se non meno frequentemente. A frenare in questo modo lo sviluppo degli ambienti virtuali e la protezione dei dati sarebbero, allora, la scarsità di risorse, intese come capacità, budget e spazio (secondo il 59% degli intervistati), la mancanza di backup (per il 57%), la carenza di capacità storage (60%) e un utilizzo insufficiente di metodi avanzati ed efficienti di protezione (50%).

La soluzione a tali problemi passa attraverso la capacità delle aziende di semplificare i processi di protezione dei dati, utilizzando metodi di backup a basso impatto e la deduplica, per garantire il backup dei dati mission critical in ambienti virtuali ed una efficiente replica dei dati fuori dal datacenter.

Un ulteriore aspetto indagato dallo studio in esame riguarda lo scarto tra il tempo presunto dagli intervistati come necessario per eseguire una recovery dopo un’interruzione di servizio e il tempo realmente utile affinché ciò avvenga: essi si aspettavano che i downtime durassero due ore, trascorse le quali fosse possibile riprendere le normali attività (in miglioramento rispetto al 2009, quando l’aspettativa era di quattro ore); invece i downtime reali negli ultimi dodici mesi sono stati, in media, di cinque ore, quindi più del doppio rispetto alle aspettative. Inoltre, sempre negli ultimi dodici mesi, le aziende hanno mediamente subito quattro incidenti con conseguenti interruzioni di servizio. Agli intervistati è stato chiesto pure di ricordare le cause delle interruzioni di servizio che hanno, negli ultimi cinque anni, portato a downtime: nel 72% dei casi è stato l’upgrade di sistema, causando una perdita di tempo pari a 50,9 ore; nel 70% un’interruzioni di corrente o un guasto, con una perdita di tempo pari a 11,3 ore (ciononostante, solo il 26% delle aziende intervistate ha condotto delle valutazioni sull’impatto di una eventuale interruzione di corrente e di un guasto); nel 63% un cyber attacco, con perdita di tempo pari a 52,7 ore.

Per ridurre i downtime, sarebbe, allora, sicuramente utile cercare, innanzitutto, di pianificare e utilizzare strumenti che automatizzino e migliorino le performance dei processi, minimizzando così i tempi morti durante gli upgrade. Sarebbe, poi, molto importante individuare in anticipo le possibili problematiche, implementando delle soluzioni capaci di ridurre i tempi di downtime e renderli congrui alle aspettative.

Lo stesso Dan Lamorena, traendo un po’ le somme di quanto emerso dallo studio, propone delle soluzioni alle aziende: «ci aspettiamo di assistere ad un maggiore utilizzo di questi strumenti (le nuove tecnologie, virtuali e cloud) da parte delle aziende per offrire una soluzione olistica con un set di policy conforme su tutti gli ambienti. I responsabili dei data center dovrebbero semplificare e standardizzare, in modo da potersi concentrare su quelle procedure fondamentali che permettono di ridurre i downtime».

Nessuna scorciatoia, quindi, ma una seria politica di pianificazione e automatizzazione degli interventi che possa permettere di salvare i dati, e quindi l’attività stessa, dell’azienda, nel momento in cui dovessero verificarsi interruzioni di servizio. È in questo modo che si superano le continue difficoltà che le variabili ambientali, sociali e tecniche, cui facevamo riferimento all’inizio, impongono.

Pubblicato su: pmi-dome

Annunci
Lascia un commento

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: