Quando virtualizzazione e cloud computing complicano la Disaster Recovery

Difficoltà nella gestione di differenti risorse virtuali, fisiche e cloud, nella protezione e nel recupero di dati e applicazioni mission critical: ecco le nuove sfide poste alle aziende ed evidenziate dal Symantec Disaster Recovery Study 2010

La maggior parte degli organismi aziendali, soprattutto se di piccole o medie dimensioni, conosce un’esistenza fatta di continuo fermento: al modificarsi di particolari variabili ambientali, sociali e tecniche, si modificano, di conseguenza, le strutture organizzative interne e i meccanismi di coordinamento e decentramento, variano le risorse umane e i mezzi strumentali, aumenta il know-how di base richiesto, si differenziano e specificano, infine, gli obiettivi. In un contesto come quello odierno, fondato sulla migrazione massiva al digitale, una simile considerazione non può che essere, allora, confermata e rafforzata, portando con sé una serie di difficoltà, legate, oltre che alle competenze individuali e collettive, anche alle risorse necessarie all’implementazione del cambiamento e, in particolare, alla loro gestione e protezione.

A toglierci qualsiasi illusione sull’ipotesi di un brillante e rapido superamento di tale prova, arriva uno studio a carattere globale commissionato da Symantec Corp. per evidenziare i trend e comprendere gli aspetti più complessi in materia di pianificazione e preparazione della Disaster Recovery. Giunto alla sua sesta edizione, il Symantec Disaster Recovery Study 2010 è stato realizzato nel corso dello scorso mese di ottobre dall’agenzia di ricerca indipendente Applied Research West, arrivando a coinvolgere oltre 1.700 IT Manager delle più grandi aziende presenti in 18 Paesi di Stati Uniti, Canada, Europa, Medio Oriente, Asia, Pacifico e Sud America.

Volendo dare una veste definitoria al fenomeno, potremmo dire che, con Disaster Recovery (DR), si intende una “strategia che viene studiata (e generalmente formalizzata in una apposita procedura) in previsione di un qualsiasi evento tecnico o di altra natura (es: guasto o danneggiamento di server o dischi rigidi, perdita o manomissione di dati, ma anche incendi, ecc..) in grado di mettere in crisi un sistema informatico compromettendone il corretto funzionamento e che ha come obiettivo il più rapido e completo possibile ripristino delle funzioni e dei dati presenti nel sistema stesso”. Ciò che emerge dallo studio su tale fenomeno sono, allora, innanzitutto, la difficoltà delle imprese nel riuscire a gestire efficacemente differenti risorse virtuali, fisiche e cloud, la complessità nel riuscire a proteggere e recuperare i dati e le applicazioni mission critical e l’inadeguatezza della protezione presente nei sistemi virtuali.

Per quanti non la conoscessero, Symantec è l’azienda statunitense nata nel 1982 “da un gruppo di scienziati informatici lungimiranti”, con sede a Cupertino (California) e con una posizione di leader globale nella creazione di soluzioni per la sicurezza, lo storage e la gestione di sistemi che aiutino aziende e consumatori a proteggere e gestire dati e informazioni. Nota prevalentemente per la produzione di software capaci di rendere i computer indenni da attacchi informatici (come il famoso Norton Antivirus), essa ha negli anni diversificato notevolmente la propria offerta, rivolgendosi specificatamente a consumatori singoli o ad utenti aziendali e operando in altri nuovi settori: partizionamento degli hard disk, ottimizzazione delle prestazioni dei PC, e-mail archiving, storage management, backup di dati e sistemi che assicurino disponibilità, sicurezza ed integrità dei dati, anche in caso di malfunzionamenti o eventi dannosi.

In seguito alla pubblicazione dei risultati dello studio, Dan Lamorena, direttore responsabile di Symantec in materia di Storage and Availability Management, ha rilevato che «se da una parte le aziende stanno adottando nuove tecnologie, quali la virtualizzazione e il cloud computing, per ridurre i costi e potenziare il disaster recovery, dall’altra stanno anche aumentando la complessità del proprio ambiente e lasciano le applicazioni mission critical e i dati senza alcuna protezione».

Pare, infatti, che siano proprio i fenomeni di virtualizzazione e di utilizzo delle tecnologie cloud a rendere più complessa la DR, obbligando i responsabili dei data center ad avere a che fare con molteplici strumenti per gestire e proteggere applicazioni e dati. Scendendo più nel dettaglio, quasi sei intervistati su dieci (il 58%) hanno dichiarato che, l’aver riscontrato problemi nella protezioni di applicazioni mission-critical, in ambienti fisici e virtuali, rappresenta una grande sfida per la propria azienda; con riferimento, invece, al cloud computing, essi hanno sottolineato come circa il 50% delle applicazioni mission-critical della propria azienda si trovi sulla nuvola, e la causa principale di preoccupazione (66%, circa due terzi dei rispondenti) per tale consapevolezza deriva dalle problematiche legate alla sicurezza. La sfida più grande posta da cloud computing e storage è, per il 55%, la capacità di controllare i failover e di rendere le risorse altamente disponibili.

Sarebbe in tal senso necessario che le aziende improntassero i propri piani di DR con la previsione di gestire i dati e le applicazioni mission critical in modo quanto più omogeneo nei diversi ambienti utilizzati (virtuale, cloud e fisico). Esse dovrebbero, inoltre, utilizzare un minor numero di strumenti per gestire tutti questi ambienti e puntare, piuttosto, su una loro integrazione, al fine di ottimizzare i tempi, i costi di formazione e favorire l’automatizzazione dei processi.

Lo studio evidenzia, poi, come quasi la metà (il 44%) dei dati presenti sui sistemi virtuali non sia sottoposto a regolare backup e come solo un intervistato su cinque usi tecnologie di replication e failover per proteggere gli ambienti virtuali. Stando sempre ai risultati rilevati, il 60% dei server virtuali non risulta incluso nell’attuale piano di DR degli intervistati: un incremento significativo rispetto al 45% dello stesso studio condotto nel 2009. L’82% dei backup viene eseguito solo una volta a settimana, se non meno frequentemente. A frenare in questo modo lo sviluppo degli ambienti virtuali e la protezione dei dati sarebbero, allora, la scarsità di risorse, intese come capacità, budget e spazio (secondo il 59% degli intervistati), la mancanza di backup (per il 57%), la carenza di capacità storage (60%) e un utilizzo insufficiente di metodi avanzati ed efficienti di protezione (50%).

La soluzione a tali problemi passa attraverso la capacità delle aziende di semplificare i processi di protezione dei dati, utilizzando metodi di backup a basso impatto e la deduplica, per garantire il backup dei dati mission critical in ambienti virtuali ed una efficiente replica dei dati fuori dal datacenter.

Un ulteriore aspetto indagato dallo studio in esame riguarda lo scarto tra il tempo presunto dagli intervistati come necessario per eseguire una recovery dopo un’interruzione di servizio e il tempo realmente utile affinché ciò avvenga: essi si aspettavano che i downtime durassero due ore, trascorse le quali fosse possibile riprendere le normali attività (in miglioramento rispetto al 2009, quando l’aspettativa era di quattro ore); invece i downtime reali negli ultimi dodici mesi sono stati, in media, di cinque ore, quindi più del doppio rispetto alle aspettative. Inoltre, sempre negli ultimi dodici mesi, le aziende hanno mediamente subito quattro incidenti con conseguenti interruzioni di servizio. Agli intervistati è stato chiesto pure di ricordare le cause delle interruzioni di servizio che hanno, negli ultimi cinque anni, portato a downtime: nel 72% dei casi è stato l’upgrade di sistema, causando una perdita di tempo pari a 50,9 ore; nel 70% un’interruzioni di corrente o un guasto, con una perdita di tempo pari a 11,3 ore (ciononostante, solo il 26% delle aziende intervistate ha condotto delle valutazioni sull’impatto di una eventuale interruzione di corrente e di un guasto); nel 63% un cyber attacco, con perdita di tempo pari a 52,7 ore.

Per ridurre i downtime, sarebbe, allora, sicuramente utile cercare, innanzitutto, di pianificare e utilizzare strumenti che automatizzino e migliorino le performance dei processi, minimizzando così i tempi morti durante gli upgrade. Sarebbe, poi, molto importante individuare in anticipo le possibili problematiche, implementando delle soluzioni capaci di ridurre i tempi di downtime e renderli congrui alle aspettative.

Lo stesso Dan Lamorena, traendo un po’ le somme di quanto emerso dallo studio, propone delle soluzioni alle aziende: «ci aspettiamo di assistere ad un maggiore utilizzo di questi strumenti (le nuove tecnologie, virtuali e cloud) da parte delle aziende per offrire una soluzione olistica con un set di policy conforme su tutti gli ambienti. I responsabili dei data center dovrebbero semplificare e standardizzare, in modo da potersi concentrare su quelle procedure fondamentali che permettono di ridurre i downtime».

Nessuna scorciatoia, quindi, ma una seria politica di pianificazione e automatizzazione degli interventi che possa permettere di salvare i dati, e quindi l’attività stessa, dell’azienda, nel momento in cui dovessero verificarsi interruzioni di servizio. È in questo modo che si superano le continue difficoltà che le variabili ambientali, sociali e tecniche, cui facevamo riferimento all’inizio, impongono.

Pubblicato su: pmi-dome

Annunci

Cloud computing: le nuvole italiane di Telecom

Presentato a Milano il nuovo progetto di piattaforma cloud computing pensato da Telecom Italia per semplificare l’attività e ridurre i costi di gestione delle imprese e delle amministrazioni pubbliche

L’amministratore delegato di Telecom Italia, Franco Bernabè, è intervenuto ieri al teatro Puccini di Milano per presentare il proprio progetto Nuvola Italiana.

Si tratta di una piattaforma di cloud computing basata su una piena convergenza tra telecomunicazioni ed Information Technology, “un mondo di servizi in grado di semplificare la vita delle imprese pubbliche e private, svincolandole dalla gestione degli aspetti informatici. La Nuvola Italiana comprende infatti l’insieme di infrastrutture e applicazioni che permettono l’utilizzo di risorse hardware e software distribuite in remoto che possono essere utilizzate su richiesta, senza che il cliente debba dotarsene internamente”. Questa la definizione del progetto data nel sito www.nuvolaitaliana.it, ad esso interamente dedicato.

Bernabè ha cercato di evidenziare la portata epocale di quella che lui definisce “una sfida importante“, sottolineando come la propria azienda non possa limitarsi a svolgere il ruolo di semplice “bit carrier-trasportatore di bit”, ma debba “dare servizi, una famiglia di servizi”: “Telecom cambia pelle: non può vivere solo di connettività, ma vuole vendere servizi”.

La soluzione prospettata dovrebbe consentire alle piccole, medie e grandi imprese, ma anche alla pubblica amministrazione, la possibilità di usufruire agevolmente “di infrastrutture e servizi forniti in modalità on demand e pay per use senza dover investire in risorse IT dedicate e in know-how specializzato”. Le aziende potrebbero avere immediata accessibilità a delle risorse che, spostate sulla rete, risulterebbero costantemente aggiornate e ritagliate sulla base delle specifiche esigenze operative, senza necessità di acquistare particolari apparecchi e limitando, quindi, notevolmente (Bernabè parla di una 60-70%) i propri costi di gestione, compresi i costi relativi ai consumi energetici; quest’ultimo aspetto porterebbe anche alla riduzione dell’inquinamento e ad una maggiore sostenibilità ambientale.

Per arrivare a questo è necessario però, stando a Bernabè, modificare lo schema produttivo, abbattendo, prima di tutto, due forti ostacoli presenti nel contesto italiano: la propensione, da un lato, a disporre di un oggetto fisico (un server o un dispositivo di storage) e la scarsa inclinazione, dall’altro lato, a mettere a disposizione di terzi i propri dati aziendali.
Agire in tal senso sulla produttività e sulla competitività italiana sarebbe, secondo Bernabè, un’inevitabile strategia “per uscire dalla crisi congiunturale che stiamo attraversando”, per “colmare il gap che ci divide dalle altre nazioni europee”, causato in gran parte “dalla mancanza di investimenti nel settore ICT”.

La stima è che entro il 2012 il mercato italiano dei servizi “IT managed” erogati in modalità cloud possa generare un giro d’affari di circa 300 milioni di euro, con un tasso di crescita medio annuo 2009-2012 di circa il 20 %. La previsione è di un investimento da parte della Telecom di circa 30 milioni di euro, con l’ obiettivo, piuttosto ottimistico, di raggiungere una quota di mercato del 20-25%.

Come si legge nel comunicato stampa dedicato alla notizia all’interno del sito di Telecom, “con questa nuova iniziativa Telecom Italia conferma ulteriormente il proprio impegno nello sviluppo di servizi e soluzioni ICT innovative in grado di aumentare la competitività di imprese e pubbliche amministrazioni a beneficio dell’intero sistema paese e per una maggiore sostenibilità”.

Al termine della presentazione, una domanda ha costretto Bernabè a tornare sull’accordo tecnico relativo modello infrastrutturale per la rete di nuova generazione, cosiddetto Tavolo Romani, raggiunto tra Telecom e gli operatori di telecomunicazioni alternativi lo scorso venerdì; egli ha affermato che “a prescindere dal comportamento dei provider alternativi, NGN lo realizzeremo noi. Non delegheremo a terzi una responsabilità di infrastruttura che è puramente nostra”.

Pubblicato su: pmi-dome