Sicurezza & PMI: ecco i virus dell’anno

A dominare la classifica i Trojan bancari, mentre Facebook e Twitter sono i network più coinvolti

Si sa, la crisi aguzza l’ingegno. È forse questo il principale motivo per cui il 2010 ha conosciuto un proliferare di virus rinnovati nella forma e nella manifestazione e studiati dai professionisti di Panda Security. Dopo aver ricevuto e analizzato oltre 20 milioni di nuovi esemplari di malware, anche quest’anno l’azienda attiva nel settore della sicurezza informatica ha pubblicato l’almanacco dei viruspiù bizzarri, che non sono stati i più prolifici o pericolosi, ma che semplicemente hanno destato maggiore curiosità”.

Panda Security è “una delle poche multinazionali europee a essere riuscita a posizionarsi tra i protagonisti [mondiali] del mercato della security” grazie alla creazione e allo sviluppo di “soluzioni di sicurezza integrate in grado di combattere efficacemente virus, hacker, trojan, spyware, phishing, spam e tutte le altre minacce provenienti da Internet”, “al più basso costo di gestione possibile”. Fondata nel 1990 a Bilbao (Spagna) da Mikel Urizarbarrena e con milioni di clienti in più di 200 paesi e prodotti disponibili in 23 lingue, l’azienda riassume nello slogan “One step ahead” (Un passo avanti) il proprio vantaggio competitivo, vantaggio fondato sull’“impegno nell’innovazione continua e nel cambiamento”, su “tecnologie di protezione preventiva integrate” “con capacità di rilevamento ed efficienza più elevate rispetto agli altri vendor”, su “un nuovo modello di sicurezza, appositamente progettato per combattere in modo adeguato tutti i nuovi tipi di criminalità informatica”.

Prima di conoscere nel dettaglio la lista dei “premiati” presenti nell’almanacco, non nuoce avere un quadro d’insieme relativo all’attuale stato di infezione virale del web. Stando al report annuale sulla sicurezza stilato dai laboratori della stessa Panda Security, The Cloud Security Company, nel 2010 gli hacker hanno realizzato e diffuso un terzo del totale di tutti i virus esistenti e, in 12 mesi, hanno creato il 34% di tutto il malware apparso finora. L’Intelligenza Collettiva, la nuova generazione di prodotti antivirus usata, che ha studiato e classificato in maniera automatica il 99,4% degli esemplari ricevuti, comprende attualmente 134 milioni di file unici, dei quali 60 milioni sono malware (virus, worm, Trojan e altre minacce). Una buona notizia, tuttavia, pare esserci: dal 2003 i nuovi codici infettivi aumentavano del 100% ogni 12 mesi, mentre nel 2010 sono incrementali del “solo” 50%, quindi la crescita di nuove minacce sarebbe in diminuzione.

A dominare la classifica del malware nel 2010, con una percentuale del 55,91%, sono stati i Trojan bancari, seguiti da virus (22,13%) e worm (10,38%). L’11.6% di tutto il malware raccolto dall’Intelligenza Collettiva è costituito da rogueware (o fake-falsi antivirus), categoria che, pur presente da soli 4 anni, sta creando molti danni agli utenti di tutto il mondo: in sostanza si tratta di un software che, inserendosi nel computer, segnala la presenza di una miriade di virus, in realtà fittizi, e impone l’inserimento del codice d’acquisto di un particolare programma per tornare alla normalità.

A capo, invece, della classifica dei paesi più colpiti vi è la Thailandia, seguita da Cina e Taiwan, con 60-70% di computer infetti, mentre tra le tecniche di attacco più usate troviamo, innanzitutto, quelle rivolte ai social media: Facebook e Twitter sono stati i network più coinvolti, ma si sono verificati attacchi, ad esempio, anche su LinkedIn e Fotolog; gli utenti sono stati ingannati sfruttando il bottone “Mi piace” di Facebook, compiendo furti d’identità per inviare messaggi da fonti fidate, approfittando delle vulnerabilità di Twitter per eseguire codici javascript e diffondendo false applicazioni per deviare la navigazione su siti infetti. Altri metodi usati sono stati gli attacchi BlackHat SEO per l’indicizzazione e il posizionamento di falsi siti web (brillante metafora cinematografica che indica il parallelo tra il classico “cattivo” che nei film western indossava il cappello nero e un posizionatore che non si avvale di tecniche lecite, consentite dalle linee guida dei motori di ricerca, per scalare le serp) e lo sfruttamento di vulnerabilità zero-day (vulnerabilità del “giorno zero”, per le quali, cioè, non è ancora disponibile una patch risolutiva). Mantiene il proprio ruolo da protagonista pure lo spam, nonostante sembri diminuire la percentuale di spam nel traffico mail (nel 2009 era pari al 95%, nel 2010 è scesa all’85%).

Altri metodi, come le presentazioni PowerPoint inviate a catena tra amici, sembrano essere scomparsi, mentre preoccupa il proliferare sul web di kit per sferrare attacchi informatici già confezionati: delle vere e proprie “cassette degli attrezzi” – a disposizione non solo di esperti informatici, ma anche di aspiranti lamer o di criminali comuni con scarsa competenza informatica – la cui relativa semplicità d’accesso e d’utilizzo e la cui efficacia hanno contribuito ad un incremento del loro utilizzo per attività di cyber crime, come rivelano i risultati di un rapporto realizzato da Symantec Corp. e diffusi il 18 gennaio sul sito della stessa azienda statunitense. Stando a tale rapporto, l’uso di questi kit, che permettono di personalizzare le minacce per evitare di essere individuati e per automatizzare il processo di attacco, rappresenterebbe una delle maggiori minacce rivolte alla rete, generando un’economia sommersa di milioni di dollari, e costituirebbe i due terzi di tutti gli attacchi informatici individuati fra giugno 2009 e giugno 2010. “In passato, gli hacker dovevano creare le loro minacce dal nulla. Questo processo più complicato limitava il numero degli attaccanti ad una cerchia ristretta di cyber criminali molto competenti” ha dichiarato Stephen Trilling, senior vice president, Symantec Security Technology and Response. “Al giorno d’oggi i kit di attacco rendono relativamente semplice il lancio di un cyber attacco anche per un principiante. Per questo ci aspettiamo di assistere ad un incremento dell’attività in quest’area e che ci siano maggiori possibilità per l’utente medio di trasformarsi in vittima”.

Il 2010 è stato, inoltre, un anno caratterizzato, oltre che da cyber crimine (malware legato ad un business orientato alla creazione di ritorni economici), anche da due fenomeni completamente nuovi e presumibilmente in costante ascesa: stiamo parlando di “cyber guerra” e “cyber attivismo”. Quest’ultimo movimento è stato reso famoso dai gruppi Anonymous e Operation Payback e ha avuto come obiettivi primari quelli di colpire le organizzazioni che cercano di combattere la pirateria in rete e di supportare Julian Assange, autore di Wikileaks. Malgrado la legislazione mondiale si stia muovendo in direzione di una sempre più severa soppressione di tale forma di protesta, si è pronti a credere che essa sarà, nel prossimo anno, in continuo aumento, proprio per la capacità della rete di assicurare un canale di espressione relativamente anonimo e libero

Tuttavia, nonostante i riflettori degli ultimi mesi del 2010 siano rimasti puntati su Wikileaks e sugli attacchi online condotti dai suoi sostenitori o dai suoi detrattori, “non c’è niente di nuovo nel tipo di attacchi Distributed Denial of Service (DDoS) utilizzati per colpire aziende che si sono dissociate da Wikileaks, come Mastercard, Visa e Paypal”, ha dichiarato Mikko Hypponen, Responsabile dei Laboratori di Ricerca della società di sicurezza informatica finlandese F-Secure. Secondo uno studio della stessa società, la più importante novità nel campo del malware del 2010, e forse dell’intero decennio, è stata, invece, il sofisticatissimo worm Stuxnet, che può arrivare a colpire direttamente i sistemi industriali e a modificare i processi automatizzati, permettendo, così, di provocare danni gravissimi nel mondo reale. “Sfortunatamente – osserva Mikko Hypponen – è probabile che assisteremo ad altri attacchi di questo tipo in futuro”.

Più in particolare, questo worm ha interferito nel 2010 con i processi delle centrali nucleari, colpendo quella di Bushehr, come confermato dalle autorità iraniane. È stato questo l’esito più eclatante di quella che abbiamo definito “cyber guerra”: azioni di guerrilla nelle quali non si riesce a comprendere chi sia l’esecutore e da dove provenga l’attacco, ma dalle quali si riesce a dedurre esclusivamente lo scopo. Altro esempio di tale fenomeno è stato “Here you have”, il worm, diffuso però con metodo classico, creato dall’organizzazione terroristica “Brigades of Tariq ibn Ziyad”, con l’obiettivo di ricordare agli Stati Uniti l’attacco dell’11 settembre e rivendicare il rispetto per la religione islamica, in risposta alla provocazione del pastore Terry di bruciare il Corano.

Sempre secondo lo studio F-Secure menzionato, il 2010 è stato l’anno in cui si è registrato il maggior numero di arresti e condanne per persone ree di aver commesso crimini online: l’Fbi ha arrestato più di 90 persone, sospettate di appartenere a una rete internazionale di criminali informatici e accusate di aver rubato circa 70 milioni di dollari da conti bancari negli Stati Uniti, ottenendo l’accesso ai dati di banking online attraverso messaggi spam infetti. Altri importanti arresti sono stati effettuati nel Regno Unito e in Ucraina.

Oltre agli ulteriori attacchi firmati Stuxnet, un’altra previsione dell’analisi F-Secure pare essere motivo di preoccupazione: “dal punto di vista della sicurezza mobile” – ha affermato Hypponen, “ci aspettiamo di vedere un numero crescente di malware progettato per colpire la piattaforma Android e gli iPhone jailbreak”.

Insomma, da quel gennaio di ben 25 anni fa, in cui nasceva il primo virus della storia dell’informatica, di strada se ne è fatta molta e l’evoluzione è stata notevole. Allora si trattava – è curioso ricordarlo – di un malware piuttosto innocuo, Brain, creato fai fratelli pakistani Basit e Amjad Alvi per punire chi copiava illegalmente i loro software, colpendo direttamente i floppy-disk, unità di archiviazione allora addirittura più utilizzata degli hard disk. I due avevano pure deciso di inserire nello stesso virus i loro contatti, con l’implicita volontà di ottenere guadagno dalle richieste di aiuto degli utenti infetti e con la speranza di venir contattati da qualche big del settore.

Facciamo ora un passo indietro in questa nostra disamina e concentriamo l’attenzione sulle voci presenti nell’almanacco dei virus 2010 pubblicato da Panda Security, elencandole in relazione al riconoscimento ottenuto:

Il dispettoso amante dei Mac.

Titolo vinto da HellRaiser.A, un programma di controllo remoto che colpisce solo i sistemi Mac e, una volta installato sul computer tramite la necessaria autorizzazione dell’utente, prende il controllo del sistema e realizza numerose attività, tra le quali, addirittura, l’apertura del cassettino DVD.

 

Il buon samaritano.

È Bredolab.Y il vincitore (Panda Security ne ha messo a disposizione un’immagine sul proprio profilo flickr), il quale si presenta sotto forma di messaggio da parte di Microsoft Support, richiedendo una nuova patch di sicurezza per Outlook; procedendo con il download, si installerà una falsa soluzione SecurityTool che segnalerà la presenza di codici pericolosi sul sistema e condurrà all’acquisto di una soluzione per eliminarli, soluzione che, inutile dirlo, non giungerà in seguito al versamento del denaro.

 

Il poliglotta dell’anno
Il premio va a MSNWorm.IE, un virus diffuso via Messenger tramite un link che invitava gli utenti a visualizzare un’immagine, in 18 lingue. Al termine della frase troviamo l’emoticon :D, che utilizza, quindi, un codice decisamente universale: date queste premesse, noi avremmo proposto un premio per il forte sentimento di interculturalità.
Oltre ad un’immagine del virus, Panda Security ha pubblicato anche la lista delle diverse manifestazioni dello stesso, che di seguito vi proponiamo:

Español: mira esta fotografia 😀
Inglés: seen this?? 😀
look at this picture 😀
Portugués: olhar para esta foto 😀
Francés: regardez cette photo 😀
Alemán: schau mal das foto an 😀
Holandés: bekijk deze foto 😀
Sueco: titta p? min bild 😀
Danés: ser p? dette billede 😀
Noruego: se p? dette bildet 😀
Finés: katso t?t? kuvaa 😀
Esloveno: poglej to fotografijo 😀
Eslovaco: pozrite sa na tto fotografiu 😀
Checo: pod?vejte se na mou fotku 😀
Polaco: spojrzec na to zdjecie 😀
Rumano: uita-te la aceasta fotografie 😀
Húngaro: n?zd meg a k?pet 😀
Turco: bu resmi bakmak 😀

Il più audace.

Come si deduce da quanto già abbiamo detto, il vincitore è indiscutibilmente Stuxnet.A, virus che, accompagnato metaforicamente dalla nota colonna sonora del film “Mission Impossible” o de “Il Santo”, colpisce i sistemi SCADA (“Supervisory Control And Data Acquisition”, ossia “Controllo di supervisione e acquisizione dati”, per il monitoraggio elettronico di sistemi fisici). Esso sfrutta falle di sicurezza di Microsoft attraverso dispositivi USB per raggiungere il cuore delle centrali nucleari.

 

Il più fastidioso.

Replicando la prassi di quei programmi che, una volta installati, pongono la domanda “Sei sicuro di voler chiudere il programma? Sì – No?”, Oscarbot.YQ mostra di continuo, ogni volta che si cerca di chiudere un programma o di aprire una finestra del browser, la stessa schermata con la ripetizione della domanda, mettendo seriamente alla prova la pazienza degli utenti. Un’immagine è disponibile su flickr.

 

Il worm più sicuro.

A vincere è Clippo.A, con questo nome che ricorda implicitamente “Clippy”, il supporto di Microsoft a forma di graffetta: una volta installato, inserisce una password su tutti i documenti Office, impedendo in qualunque modo agli utenti di aprirli.

Una vittima della crisi.

Vince Ransom.AB, un ransomware (programmi che bloccano il computer e richiedono un riscatto per renderli nuovamente operativi) che, vista la forte competizione e la recessione, “si accontenta” di soli 12 dollari per “liberare” il pc, diversamente da qualche anno fa, quando la richiesta si aggirava attorno ai 300 dollari.

 

Il meno sincero

SecurityEssentials2010 (la falsa versione dell’antivirus, non quella ufficiale Microsoft), sotto la falsa apparenza di adware, avvisa gli utenti di essere stati colpiti da codici pericolosi e conduce loro all’acquisto di un prodotto che fornisca protezione. Il design così convincente, con messaggi e schermate autentici, è stato causa delle 10 infezioni più estese dell’anno. Un’immagine è disponibile su flickr.

A chiusura dell’almanacco 2010, viene citato, infine, l’insetto dell’anno, Mariposa (farfalla in spagnolo), la botnet “estintasi” nel mese di marzo, con l’arresto dei suoi autori, grazie alla collaborazione tra Panda Security, Guardia Civil spagnola, FBI e Defense Intelligence.

Pubblicato su: PMI-dome

Annunci

PMI bocciate sulla sicurezza informatica

Stando ad una ricerca condotta da Applied Research per contro della Symantec, le PMI non sembrano preparate a rispondere efficacemente ad eventuali cyber attacchi, interruzioni di corrente o disastri naturali

Non sono sicuramente incoraggianti i dati diffusi da Symantec risultanti dalla 2011 SMB Disaster Preparedness Survey e riferiti alle politiche di sicurezza informatica adottate dalle piccole e medie imprese: tali dati sembrano confermare l’amara impreparazione delle realtà aziendali di fronte all’eventuale rischio sicurezza. Un rischio che è certo più probabile di quanto si sia portati a credere e che implica, nel caso in cui diventi reale, dei notevoli costi, non solo in termini economici, ma anche in termini di perdita d’affidabilità agli occhi della clientela, con conseguenti diminuzioni nel volume d’affari.

Precisiamo, innanzitutto, che la ricerca è stata condotta tra ottobre e novembre 2010 dall’agenzia di ricerca Applied Research e ha inteso coinvolgere oltre 1.840 professionisti IT responsabili di computer, network e risorse tecnologiche delle piccole e medie imprese presenti in 23 paesi del Nord America, EMEA (Europa, Medio Oriente e Africa), Asia Pacifico e America Latina. Lo scopo è stato quello di misurare il livello di preparazione generale circa la disaster recovery, la consapevolezza e le abitudini ad essa legate.

A commissionare lo studio, è stata, appunto, la Symantec Corp., l’azienda con sede a Cupertino, leader nella creazione di soluzioni per la sicurezza, lo storage e la gestione di sistemi che aiutino aziende e consumatori a proteggere e gestire dati e informazioni. Bernard Laroche, senior director e responsabile SMB product marketing della Symantec ha sottolineato come, stando ai risultati della ricerca, le PMI non abbiano «ancora compreso il grave impatto che potrebbe avere una minaccia informatica sul loro business. Nonostante siano a conoscenza delle minacce possibili, molti pensano ancora che a loro non possa succedere». Lancia poi una sorta di monito: «i disastri capitano e le PMI non possono permettersi di perdere le proprie informazioni o – ancora più importante – le informazioni sensibili dei propri clienti. Una semplice pianificazione consente alle PMI di proteggere le informazioni in caso di attacco e a guadagnarsi la fiducia dei clienti».

Le imprese non sembrano, quindi, comprendere l’importanza di un’adeguata preparazione contro le minacce alla sicurezza, almeno fino a quando il problema non arriva a riguardarle direttamente, a causa di attacchi o perdite di informazioni.
Dati alla mano: la metà degli intervistati non ha ancora attuato un Disaster Recovery Plan (DRP, o piano di disaster recovery), il 41% ha dichiarato di non aver finora considerato necessario predisporne uno e il 40% non ritiene priorità l’essere preparati in caso di minacce alla sicurezza. Tutto questo malgrado il fatto che il 65% degli intervistati viva in zone soggette a disastri naturali e che negli ultimi 12 mesi si siano verificate, in media, sei interruzioni di servizio, causate soprattutto da cyber attacchi, interruzioni di corrente o disastri naturali. Non viene prestata la dovuta attenzione alla protezione dei dati archiviati, nonostante il 44% degli intervistati abbia sottolineato come un attacco porterebbe alla perdita di almeno il 40% di tali dati: meno della metà delle PMI esegue il backup una volta alla settimana (o comunque con elevata frequenza) e solo il 23% lo fa quotidianamente.

La metà delle aziende che hanno messo in atto un DRP lo ha fatto solo dopo aver avuto esperienza diretta di un’interruzione di servizio o di una perdita di dati, il 52% ha predisposto il piano negli ultimi sei mesi e solo il 28% lo ha realmente testato.
Eppure, sottolinea la Symantec, tali carenze possono rivelarsi estremamente negative per l’attività economica delle imprese, anche e soprattutto dal punto di vista finanziario: il costo medio di un downtime per le PMI è di circa 12.500 dollari al giorno, il 54% dei clienti delle PMI partecipanti all’indagine ha detto di aver cambiato fornitore a causa di un servizio di computing inaffidabile (con un tasso di crescita del 12% rispetto allo scorso anno), mentre il 44% di loro ha dichiarato che i propri fornitori hanno chiuso temporaneamente a causa di un attacco. I clienti hanno, inoltre, sottolineato le ripercussioni di tale problematiche nella propria attività, con un costo medio di circa 10.000 dollari al giorno e, oltre a tali costi finanziari diretti, il 29% pare aver perso “alcuni” o “molti” dati rilevanti a causa, appunto, di un disastro che ha colpito il proprio fornitore.

Conclude la Symantec con delle raccomandazioni, che intendono delineare la retta via da seguire per giungere ad una migliore gestione della sicurezza informatica all’interno dell’attività aziendale: “non aspettare fino a quando potrebbe essere troppo tardi”; “proteggere le informazioni in maniera completa”: pensare a delle soluzioni di sicurezza e backup appropriate a file critici, quali i dati dei clienti e le informazioni finanziarie, effettuando salvataggi non solo su dispositivi fisici esterni o sul network aziendale, ma anche in un luogo off-site sicuro; “coinvolgere i dipendenti”, in modo che tutte le risorse umane aziendali siano, in qualunque momento, in grado di recuperare i dati in caso di disastro; “testare frequentemente” i DRP predisposti, “controllare il piano” periodicamente.

Pubblicato su: PMI-dome

Quando virtualizzazione e cloud computing complicano la Disaster Recovery

Difficoltà nella gestione di differenti risorse virtuali, fisiche e cloud, nella protezione e nel recupero di dati e applicazioni mission critical: ecco le nuove sfide poste alle aziende ed evidenziate dal Symantec Disaster Recovery Study 2010

La maggior parte degli organismi aziendali, soprattutto se di piccole o medie dimensioni, conosce un’esistenza fatta di continuo fermento: al modificarsi di particolari variabili ambientali, sociali e tecniche, si modificano, di conseguenza, le strutture organizzative interne e i meccanismi di coordinamento e decentramento, variano le risorse umane e i mezzi strumentali, aumenta il know-how di base richiesto, si differenziano e specificano, infine, gli obiettivi. In un contesto come quello odierno, fondato sulla migrazione massiva al digitale, una simile considerazione non può che essere, allora, confermata e rafforzata, portando con sé una serie di difficoltà, legate, oltre che alle competenze individuali e collettive, anche alle risorse necessarie all’implementazione del cambiamento e, in particolare, alla loro gestione e protezione.

A toglierci qualsiasi illusione sull’ipotesi di un brillante e rapido superamento di tale prova, arriva uno studio a carattere globale commissionato da Symantec Corp. per evidenziare i trend e comprendere gli aspetti più complessi in materia di pianificazione e preparazione della Disaster Recovery. Giunto alla sua sesta edizione, il Symantec Disaster Recovery Study 2010 è stato realizzato nel corso dello scorso mese di ottobre dall’agenzia di ricerca indipendente Applied Research West, arrivando a coinvolgere oltre 1.700 IT Manager delle più grandi aziende presenti in 18 Paesi di Stati Uniti, Canada, Europa, Medio Oriente, Asia, Pacifico e Sud America.

Volendo dare una veste definitoria al fenomeno, potremmo dire che, con Disaster Recovery (DR), si intende una “strategia che viene studiata (e generalmente formalizzata in una apposita procedura) in previsione di un qualsiasi evento tecnico o di altra natura (es: guasto o danneggiamento di server o dischi rigidi, perdita o manomissione di dati, ma anche incendi, ecc..) in grado di mettere in crisi un sistema informatico compromettendone il corretto funzionamento e che ha come obiettivo il più rapido e completo possibile ripristino delle funzioni e dei dati presenti nel sistema stesso”. Ciò che emerge dallo studio su tale fenomeno sono, allora, innanzitutto, la difficoltà delle imprese nel riuscire a gestire efficacemente differenti risorse virtuali, fisiche e cloud, la complessità nel riuscire a proteggere e recuperare i dati e le applicazioni mission critical e l’inadeguatezza della protezione presente nei sistemi virtuali.

Per quanti non la conoscessero, Symantec è l’azienda statunitense nata nel 1982 “da un gruppo di scienziati informatici lungimiranti”, con sede a Cupertino (California) e con una posizione di leader globale nella creazione di soluzioni per la sicurezza, lo storage e la gestione di sistemi che aiutino aziende e consumatori a proteggere e gestire dati e informazioni. Nota prevalentemente per la produzione di software capaci di rendere i computer indenni da attacchi informatici (come il famoso Norton Antivirus), essa ha negli anni diversificato notevolmente la propria offerta, rivolgendosi specificatamente a consumatori singoli o ad utenti aziendali e operando in altri nuovi settori: partizionamento degli hard disk, ottimizzazione delle prestazioni dei PC, e-mail archiving, storage management, backup di dati e sistemi che assicurino disponibilità, sicurezza ed integrità dei dati, anche in caso di malfunzionamenti o eventi dannosi.

In seguito alla pubblicazione dei risultati dello studio, Dan Lamorena, direttore responsabile di Symantec in materia di Storage and Availability Management, ha rilevato che «se da una parte le aziende stanno adottando nuove tecnologie, quali la virtualizzazione e il cloud computing, per ridurre i costi e potenziare il disaster recovery, dall’altra stanno anche aumentando la complessità del proprio ambiente e lasciano le applicazioni mission critical e i dati senza alcuna protezione».

Pare, infatti, che siano proprio i fenomeni di virtualizzazione e di utilizzo delle tecnologie cloud a rendere più complessa la DR, obbligando i responsabili dei data center ad avere a che fare con molteplici strumenti per gestire e proteggere applicazioni e dati. Scendendo più nel dettaglio, quasi sei intervistati su dieci (il 58%) hanno dichiarato che, l’aver riscontrato problemi nella protezioni di applicazioni mission-critical, in ambienti fisici e virtuali, rappresenta una grande sfida per la propria azienda; con riferimento, invece, al cloud computing, essi hanno sottolineato come circa il 50% delle applicazioni mission-critical della propria azienda si trovi sulla nuvola, e la causa principale di preoccupazione (66%, circa due terzi dei rispondenti) per tale consapevolezza deriva dalle problematiche legate alla sicurezza. La sfida più grande posta da cloud computing e storage è, per il 55%, la capacità di controllare i failover e di rendere le risorse altamente disponibili.

Sarebbe in tal senso necessario che le aziende improntassero i propri piani di DR con la previsione di gestire i dati e le applicazioni mission critical in modo quanto più omogeneo nei diversi ambienti utilizzati (virtuale, cloud e fisico). Esse dovrebbero, inoltre, utilizzare un minor numero di strumenti per gestire tutti questi ambienti e puntare, piuttosto, su una loro integrazione, al fine di ottimizzare i tempi, i costi di formazione e favorire l’automatizzazione dei processi.

Lo studio evidenzia, poi, come quasi la metà (il 44%) dei dati presenti sui sistemi virtuali non sia sottoposto a regolare backup e come solo un intervistato su cinque usi tecnologie di replication e failover per proteggere gli ambienti virtuali. Stando sempre ai risultati rilevati, il 60% dei server virtuali non risulta incluso nell’attuale piano di DR degli intervistati: un incremento significativo rispetto al 45% dello stesso studio condotto nel 2009. L’82% dei backup viene eseguito solo una volta a settimana, se non meno frequentemente. A frenare in questo modo lo sviluppo degli ambienti virtuali e la protezione dei dati sarebbero, allora, la scarsità di risorse, intese come capacità, budget e spazio (secondo il 59% degli intervistati), la mancanza di backup (per il 57%), la carenza di capacità storage (60%) e un utilizzo insufficiente di metodi avanzati ed efficienti di protezione (50%).

La soluzione a tali problemi passa attraverso la capacità delle aziende di semplificare i processi di protezione dei dati, utilizzando metodi di backup a basso impatto e la deduplica, per garantire il backup dei dati mission critical in ambienti virtuali ed una efficiente replica dei dati fuori dal datacenter.

Un ulteriore aspetto indagato dallo studio in esame riguarda lo scarto tra il tempo presunto dagli intervistati come necessario per eseguire una recovery dopo un’interruzione di servizio e il tempo realmente utile affinché ciò avvenga: essi si aspettavano che i downtime durassero due ore, trascorse le quali fosse possibile riprendere le normali attività (in miglioramento rispetto al 2009, quando l’aspettativa era di quattro ore); invece i downtime reali negli ultimi dodici mesi sono stati, in media, di cinque ore, quindi più del doppio rispetto alle aspettative. Inoltre, sempre negli ultimi dodici mesi, le aziende hanno mediamente subito quattro incidenti con conseguenti interruzioni di servizio. Agli intervistati è stato chiesto pure di ricordare le cause delle interruzioni di servizio che hanno, negli ultimi cinque anni, portato a downtime: nel 72% dei casi è stato l’upgrade di sistema, causando una perdita di tempo pari a 50,9 ore; nel 70% un’interruzioni di corrente o un guasto, con una perdita di tempo pari a 11,3 ore (ciononostante, solo il 26% delle aziende intervistate ha condotto delle valutazioni sull’impatto di una eventuale interruzione di corrente e di un guasto); nel 63% un cyber attacco, con perdita di tempo pari a 52,7 ore.

Per ridurre i downtime, sarebbe, allora, sicuramente utile cercare, innanzitutto, di pianificare e utilizzare strumenti che automatizzino e migliorino le performance dei processi, minimizzando così i tempi morti durante gli upgrade. Sarebbe, poi, molto importante individuare in anticipo le possibili problematiche, implementando delle soluzioni capaci di ridurre i tempi di downtime e renderli congrui alle aspettative.

Lo stesso Dan Lamorena, traendo un po’ le somme di quanto emerso dallo studio, propone delle soluzioni alle aziende: «ci aspettiamo di assistere ad un maggiore utilizzo di questi strumenti (le nuove tecnologie, virtuali e cloud) da parte delle aziende per offrire una soluzione olistica con un set di policy conforme su tutti gli ambienti. I responsabili dei data center dovrebbero semplificare e standardizzare, in modo da potersi concentrare su quelle procedure fondamentali che permettono di ridurre i downtime».

Nessuna scorciatoia, quindi, ma una seria politica di pianificazione e automatizzazione degli interventi che possa permettere di salvare i dati, e quindi l’attività stessa, dell’azienda, nel momento in cui dovessero verificarsi interruzioni di servizio. È in questo modo che si superano le continue difficoltà che le variabili ambientali, sociali e tecniche, cui facevamo riferimento all’inizio, impongono.

Pubblicato su: pmi-dome