PMI bocciate sulla sicurezza informatica

Stando ad una ricerca condotta da Applied Research per contro della Symantec, le PMI non sembrano preparate a rispondere efficacemente ad eventuali cyber attacchi, interruzioni di corrente o disastri naturali

Non sono sicuramente incoraggianti i dati diffusi da Symantec risultanti dalla 2011 SMB Disaster Preparedness Survey e riferiti alle politiche di sicurezza informatica adottate dalle piccole e medie imprese: tali dati sembrano confermare l’amara impreparazione delle realtà aziendali di fronte all’eventuale rischio sicurezza. Un rischio che è certo più probabile di quanto si sia portati a credere e che implica, nel caso in cui diventi reale, dei notevoli costi, non solo in termini economici, ma anche in termini di perdita d’affidabilità agli occhi della clientela, con conseguenti diminuzioni nel volume d’affari.

Precisiamo, innanzitutto, che la ricerca è stata condotta tra ottobre e novembre 2010 dall’agenzia di ricerca Applied Research e ha inteso coinvolgere oltre 1.840 professionisti IT responsabili di computer, network e risorse tecnologiche delle piccole e medie imprese presenti in 23 paesi del Nord America, EMEA (Europa, Medio Oriente e Africa), Asia Pacifico e America Latina. Lo scopo è stato quello di misurare il livello di preparazione generale circa la disaster recovery, la consapevolezza e le abitudini ad essa legate.

A commissionare lo studio, è stata, appunto, la Symantec Corp., l’azienda con sede a Cupertino, leader nella creazione di soluzioni per la sicurezza, lo storage e la gestione di sistemi che aiutino aziende e consumatori a proteggere e gestire dati e informazioni. Bernard Laroche, senior director e responsabile SMB product marketing della Symantec ha sottolineato come, stando ai risultati della ricerca, le PMI non abbiano «ancora compreso il grave impatto che potrebbe avere una minaccia informatica sul loro business. Nonostante siano a conoscenza delle minacce possibili, molti pensano ancora che a loro non possa succedere». Lancia poi una sorta di monito: «i disastri capitano e le PMI non possono permettersi di perdere le proprie informazioni o – ancora più importante – le informazioni sensibili dei propri clienti. Una semplice pianificazione consente alle PMI di proteggere le informazioni in caso di attacco e a guadagnarsi la fiducia dei clienti».

Le imprese non sembrano, quindi, comprendere l’importanza di un’adeguata preparazione contro le minacce alla sicurezza, almeno fino a quando il problema non arriva a riguardarle direttamente, a causa di attacchi o perdite di informazioni.
Dati alla mano: la metà degli intervistati non ha ancora attuato un Disaster Recovery Plan (DRP, o piano di disaster recovery), il 41% ha dichiarato di non aver finora considerato necessario predisporne uno e il 40% non ritiene priorità l’essere preparati in caso di minacce alla sicurezza. Tutto questo malgrado il fatto che il 65% degli intervistati viva in zone soggette a disastri naturali e che negli ultimi 12 mesi si siano verificate, in media, sei interruzioni di servizio, causate soprattutto da cyber attacchi, interruzioni di corrente o disastri naturali. Non viene prestata la dovuta attenzione alla protezione dei dati archiviati, nonostante il 44% degli intervistati abbia sottolineato come un attacco porterebbe alla perdita di almeno il 40% di tali dati: meno della metà delle PMI esegue il backup una volta alla settimana (o comunque con elevata frequenza) e solo il 23% lo fa quotidianamente.

La metà delle aziende che hanno messo in atto un DRP lo ha fatto solo dopo aver avuto esperienza diretta di un’interruzione di servizio o di una perdita di dati, il 52% ha predisposto il piano negli ultimi sei mesi e solo il 28% lo ha realmente testato.
Eppure, sottolinea la Symantec, tali carenze possono rivelarsi estremamente negative per l’attività economica delle imprese, anche e soprattutto dal punto di vista finanziario: il costo medio di un downtime per le PMI è di circa 12.500 dollari al giorno, il 54% dei clienti delle PMI partecipanti all’indagine ha detto di aver cambiato fornitore a causa di un servizio di computing inaffidabile (con un tasso di crescita del 12% rispetto allo scorso anno), mentre il 44% di loro ha dichiarato che i propri fornitori hanno chiuso temporaneamente a causa di un attacco. I clienti hanno, inoltre, sottolineato le ripercussioni di tale problematiche nella propria attività, con un costo medio di circa 10.000 dollari al giorno e, oltre a tali costi finanziari diretti, il 29% pare aver perso “alcuni” o “molti” dati rilevanti a causa, appunto, di un disastro che ha colpito il proprio fornitore.

Conclude la Symantec con delle raccomandazioni, che intendono delineare la retta via da seguire per giungere ad una migliore gestione della sicurezza informatica all’interno dell’attività aziendale: “non aspettare fino a quando potrebbe essere troppo tardi”; “proteggere le informazioni in maniera completa”: pensare a delle soluzioni di sicurezza e backup appropriate a file critici, quali i dati dei clienti e le informazioni finanziarie, effettuando salvataggi non solo su dispositivi fisici esterni o sul network aziendale, ma anche in un luogo off-site sicuro; “coinvolgere i dipendenti”, in modo che tutte le risorse umane aziendali siano, in qualunque momento, in grado di recuperare i dati in caso di disastro; “testare frequentemente” i DRP predisposti, “controllare il piano” periodicamente.

Pubblicato su: PMI-dome

Annunci

Quando virtualizzazione e cloud computing complicano la Disaster Recovery

Difficoltà nella gestione di differenti risorse virtuali, fisiche e cloud, nella protezione e nel recupero di dati e applicazioni mission critical: ecco le nuove sfide poste alle aziende ed evidenziate dal Symantec Disaster Recovery Study 2010

La maggior parte degli organismi aziendali, soprattutto se di piccole o medie dimensioni, conosce un’esistenza fatta di continuo fermento: al modificarsi di particolari variabili ambientali, sociali e tecniche, si modificano, di conseguenza, le strutture organizzative interne e i meccanismi di coordinamento e decentramento, variano le risorse umane e i mezzi strumentali, aumenta il know-how di base richiesto, si differenziano e specificano, infine, gli obiettivi. In un contesto come quello odierno, fondato sulla migrazione massiva al digitale, una simile considerazione non può che essere, allora, confermata e rafforzata, portando con sé una serie di difficoltà, legate, oltre che alle competenze individuali e collettive, anche alle risorse necessarie all’implementazione del cambiamento e, in particolare, alla loro gestione e protezione.

A toglierci qualsiasi illusione sull’ipotesi di un brillante e rapido superamento di tale prova, arriva uno studio a carattere globale commissionato da Symantec Corp. per evidenziare i trend e comprendere gli aspetti più complessi in materia di pianificazione e preparazione della Disaster Recovery. Giunto alla sua sesta edizione, il Symantec Disaster Recovery Study 2010 è stato realizzato nel corso dello scorso mese di ottobre dall’agenzia di ricerca indipendente Applied Research West, arrivando a coinvolgere oltre 1.700 IT Manager delle più grandi aziende presenti in 18 Paesi di Stati Uniti, Canada, Europa, Medio Oriente, Asia, Pacifico e Sud America.

Volendo dare una veste definitoria al fenomeno, potremmo dire che, con Disaster Recovery (DR), si intende una “strategia che viene studiata (e generalmente formalizzata in una apposita procedura) in previsione di un qualsiasi evento tecnico o di altra natura (es: guasto o danneggiamento di server o dischi rigidi, perdita o manomissione di dati, ma anche incendi, ecc..) in grado di mettere in crisi un sistema informatico compromettendone il corretto funzionamento e che ha come obiettivo il più rapido e completo possibile ripristino delle funzioni e dei dati presenti nel sistema stesso”. Ciò che emerge dallo studio su tale fenomeno sono, allora, innanzitutto, la difficoltà delle imprese nel riuscire a gestire efficacemente differenti risorse virtuali, fisiche e cloud, la complessità nel riuscire a proteggere e recuperare i dati e le applicazioni mission critical e l’inadeguatezza della protezione presente nei sistemi virtuali.

Per quanti non la conoscessero, Symantec è l’azienda statunitense nata nel 1982 “da un gruppo di scienziati informatici lungimiranti”, con sede a Cupertino (California) e con una posizione di leader globale nella creazione di soluzioni per la sicurezza, lo storage e la gestione di sistemi che aiutino aziende e consumatori a proteggere e gestire dati e informazioni. Nota prevalentemente per la produzione di software capaci di rendere i computer indenni da attacchi informatici (come il famoso Norton Antivirus), essa ha negli anni diversificato notevolmente la propria offerta, rivolgendosi specificatamente a consumatori singoli o ad utenti aziendali e operando in altri nuovi settori: partizionamento degli hard disk, ottimizzazione delle prestazioni dei PC, e-mail archiving, storage management, backup di dati e sistemi che assicurino disponibilità, sicurezza ed integrità dei dati, anche in caso di malfunzionamenti o eventi dannosi.

In seguito alla pubblicazione dei risultati dello studio, Dan Lamorena, direttore responsabile di Symantec in materia di Storage and Availability Management, ha rilevato che «se da una parte le aziende stanno adottando nuove tecnologie, quali la virtualizzazione e il cloud computing, per ridurre i costi e potenziare il disaster recovery, dall’altra stanno anche aumentando la complessità del proprio ambiente e lasciano le applicazioni mission critical e i dati senza alcuna protezione».

Pare, infatti, che siano proprio i fenomeni di virtualizzazione e di utilizzo delle tecnologie cloud a rendere più complessa la DR, obbligando i responsabili dei data center ad avere a che fare con molteplici strumenti per gestire e proteggere applicazioni e dati. Scendendo più nel dettaglio, quasi sei intervistati su dieci (il 58%) hanno dichiarato che, l’aver riscontrato problemi nella protezioni di applicazioni mission-critical, in ambienti fisici e virtuali, rappresenta una grande sfida per la propria azienda; con riferimento, invece, al cloud computing, essi hanno sottolineato come circa il 50% delle applicazioni mission-critical della propria azienda si trovi sulla nuvola, e la causa principale di preoccupazione (66%, circa due terzi dei rispondenti) per tale consapevolezza deriva dalle problematiche legate alla sicurezza. La sfida più grande posta da cloud computing e storage è, per il 55%, la capacità di controllare i failover e di rendere le risorse altamente disponibili.

Sarebbe in tal senso necessario che le aziende improntassero i propri piani di DR con la previsione di gestire i dati e le applicazioni mission critical in modo quanto più omogeneo nei diversi ambienti utilizzati (virtuale, cloud e fisico). Esse dovrebbero, inoltre, utilizzare un minor numero di strumenti per gestire tutti questi ambienti e puntare, piuttosto, su una loro integrazione, al fine di ottimizzare i tempi, i costi di formazione e favorire l’automatizzazione dei processi.

Lo studio evidenzia, poi, come quasi la metà (il 44%) dei dati presenti sui sistemi virtuali non sia sottoposto a regolare backup e come solo un intervistato su cinque usi tecnologie di replication e failover per proteggere gli ambienti virtuali. Stando sempre ai risultati rilevati, il 60% dei server virtuali non risulta incluso nell’attuale piano di DR degli intervistati: un incremento significativo rispetto al 45% dello stesso studio condotto nel 2009. L’82% dei backup viene eseguito solo una volta a settimana, se non meno frequentemente. A frenare in questo modo lo sviluppo degli ambienti virtuali e la protezione dei dati sarebbero, allora, la scarsità di risorse, intese come capacità, budget e spazio (secondo il 59% degli intervistati), la mancanza di backup (per il 57%), la carenza di capacità storage (60%) e un utilizzo insufficiente di metodi avanzati ed efficienti di protezione (50%).

La soluzione a tali problemi passa attraverso la capacità delle aziende di semplificare i processi di protezione dei dati, utilizzando metodi di backup a basso impatto e la deduplica, per garantire il backup dei dati mission critical in ambienti virtuali ed una efficiente replica dei dati fuori dal datacenter.

Un ulteriore aspetto indagato dallo studio in esame riguarda lo scarto tra il tempo presunto dagli intervistati come necessario per eseguire una recovery dopo un’interruzione di servizio e il tempo realmente utile affinché ciò avvenga: essi si aspettavano che i downtime durassero due ore, trascorse le quali fosse possibile riprendere le normali attività (in miglioramento rispetto al 2009, quando l’aspettativa era di quattro ore); invece i downtime reali negli ultimi dodici mesi sono stati, in media, di cinque ore, quindi più del doppio rispetto alle aspettative. Inoltre, sempre negli ultimi dodici mesi, le aziende hanno mediamente subito quattro incidenti con conseguenti interruzioni di servizio. Agli intervistati è stato chiesto pure di ricordare le cause delle interruzioni di servizio che hanno, negli ultimi cinque anni, portato a downtime: nel 72% dei casi è stato l’upgrade di sistema, causando una perdita di tempo pari a 50,9 ore; nel 70% un’interruzioni di corrente o un guasto, con una perdita di tempo pari a 11,3 ore (ciononostante, solo il 26% delle aziende intervistate ha condotto delle valutazioni sull’impatto di una eventuale interruzione di corrente e di un guasto); nel 63% un cyber attacco, con perdita di tempo pari a 52,7 ore.

Per ridurre i downtime, sarebbe, allora, sicuramente utile cercare, innanzitutto, di pianificare e utilizzare strumenti che automatizzino e migliorino le performance dei processi, minimizzando così i tempi morti durante gli upgrade. Sarebbe, poi, molto importante individuare in anticipo le possibili problematiche, implementando delle soluzioni capaci di ridurre i tempi di downtime e renderli congrui alle aspettative.

Lo stesso Dan Lamorena, traendo un po’ le somme di quanto emerso dallo studio, propone delle soluzioni alle aziende: «ci aspettiamo di assistere ad un maggiore utilizzo di questi strumenti (le nuove tecnologie, virtuali e cloud) da parte delle aziende per offrire una soluzione olistica con un set di policy conforme su tutti gli ambienti. I responsabili dei data center dovrebbero semplificare e standardizzare, in modo da potersi concentrare su quelle procedure fondamentali che permettono di ridurre i downtime».

Nessuna scorciatoia, quindi, ma una seria politica di pianificazione e automatizzazione degli interventi che possa permettere di salvare i dati, e quindi l’attività stessa, dell’azienda, nel momento in cui dovessero verificarsi interruzioni di servizio. È in questo modo che si superano le continue difficoltà che le variabili ambientali, sociali e tecniche, cui facevamo riferimento all’inizio, impongono.

Pubblicato su: pmi-dome