Predictive Analytics cos’è, a cosa serve e perchè sta rivoluzionando data center e backup, il caso Veritas. Una nuova guida pratica e una nuova preziosa puntata della rubrica multipiattaforma #VeroVeritas costruita da Channelcity in collaborazione con Veritas e Computer Gross per raccontare la rivoluzione dei dati… in due minuti
Predictive Analytics cos’è, a cosa serve e perchè sta rivoluzionando data center e backup, il caso Veritas. Una nuova guida pratica e una nuova preziosa puntata della rubrica multipiattaforma #VeroVeritas costruita da Channelcity in collaborazione con Veritas e Computer Gross per raccontare la rivoluzione dei dati… in due minuti.Un racconto pratico, pragmatico che dopo aver toccato ambiti strategici come ransomware e sistemi di attacco al backup e la rivoluzione multicloud oggi fa tappa in casa della rivoluzione del data center e della capacità di prendere decisioni migliori in meno tempo. Come? Cona la predictive anlytics. Ecco di cosa si tratta e come Veritas la sta affrontando attraverso la sua piattaforma Aptare.
Predictive Analytics cos’è
L'analisi predittiva o Predictive Analytics è una forma di analisi avanzata che utilizza dati sia nuovi che storici per prevedere attività, comportamento e tendenze. Implica l'applicazione di tecniche di analisi statistica, query analitiche e algoritmi di machine learning a set di dati per creare modelli predittivi che pongono un valore numerico - o punteggio - sulla probabilità che si verifichi un evento particolare.
Le applicazioni software di analisi predittiva utilizzano variabili che possono essere misurate e analizzate per prevedere il probabile comportamento di individui, macchinari o altre entità. Ad esempio, è probabile che una compagnia di assicurazioni tenga conto delle potenziali variabili di sicurezza alla guida, come età, sesso, posizione, tipo di veicolo e record di guida, al momento della determinazione del prezzo e dell'emissione di polizze di assicurazione auto.
Più variabili sono combinate in un modello predittivo in grado di valutare le probabilità future con un livello accettabile di affidabilità. Il software si basa fortemente su algoritmi e metodologie avanzati, come modelli di regressione logistica, analisi delle serie storiche e alberi delle decisioni.
L'analisi predittiva è oggi in primo piano accanto all'emergere di sistemi di big data. Man mano che le aziende hanno accumulato pool di dati sempre più ampi sia a livello di storage sia nei cluster Hadoop e in altre piattaforme di big data, hanno creato maggiori opportunità di data mining per ottenere informazioni predittive. Il potenziamento dello sviluppo e la commercializzazione di strumenti di machine learning da parte dei fornitori IT ha poi contribuito a espandere le capacità di analisi predittiva.
Metodologie di analisi predittiva
Il marketing, i servizi finanziari e le compagnie assicurative sono stati tra i primi utilizzatori dell'analisi predittiva, così come i grandi motori di ricerca e i fornitori di servizi online. La predictive analytics viene anche comunemente utilizzata in settori come la sanità, la vendita al dettaglio e la produzione.
Le applicazioni aziendali per l'analisi predittiva includono il targeting di annunci pubblicitari online, l'analisi del comportamento dei clienti per determinare i modelli di acquisto, la segnalazione di transazioni finanziarie potenzialmente fraudolente, l'identificazione dei pazienti a rischio di sviluppare particolari condizioni mediche e il rilevamento di guasti imminenti delle parti nelle apparecchiature industriali prima che si verifichino.
Il processo e le tecniche di analisi predittiva
L'analisi predittiva richiede un elevato livello di competenza con i metodi statistici e la capacità di costruire modelli di dati predittivi. Di conseguenza, è in genere il dominio di data scientist, statistici e altri analisti di dati qualificati. Sono supportati da ingegneri dei dati, che aiutano a raccogliere i dati rilevanti e li preparano per l'analisi, e da sviluppatori software e analisti aziendali, che aiutano nella visualizzazione dei dati, dashboard e report.
I data scientist utilizzano modelli predittivi per cercare correlazioni tra diversi elementi di dati nei dati clickstream del sito Web, cartelle cliniche dei pazienti e altri tipi di set di dati. Una volta avvenuta la raccolta dei dati, viene formulato, formato e modificato un modello statistico secondo necessità per produrre risultati accurati. Il modello viene quindi eseguito in base ai dati selezionati per generare previsioni. I set di dati completi sono analizzati in alcune applicazioni, ma in altri i team di analisi utilizzano il campionamento dei dati per semplificare il processo. La modellazione dei dati viene convalidata o rivista non appena sono disponibili ulteriori informazioni. Il processo di analisi predittiva non è sempre lineare e spesso le correlazioni si presentano dove i data scientist non stanno guardando. Per questo motivo, alcune aziende stanno affidando le posizioni di data scientist a persone con background accademici in fisica e altre discipline in scienze della scienza. In linea con il metodo scientifico, questi lavoratori sono a proprio agio nel dirigere i dati.
Una volta che la modellazione predittiva produce risultati attuabili, il team di analisi può condividerli con i dirigenti aziendali, di solito con l'aiuto di dashboard e report che presentano le informazioni e mettono in evidenza le opportunità commerciali future in base ai risultati. I modelli funzionali possono anche essere integrati in applicazioni operative e prodotti di dati per fornire funzionalità di analisi in tempo reale, come un motore di raccomandazione su un sito Web di vendita al dettaglio online che indirizza i clienti verso determinati prodotti in base all'attività di navigazione e alle scelte di acquisto.
Predictive Analyicts gli ambiti applicativi
Il marketing online è un'area in cui l'analisi predittiva ha avuto un impatto significativo sul business. Rivenditori, fornitori di servizi di marketing e altre organizzazioni utilizzano strumenti di analisi predittiva per identificare le tendenze nella cronologia di navigazione di un visitatore del sito Web per personalizzare gli annunci pubblicitari. I rivenditori utilizzano anche l'analisi dei clienti per guidare decisioni più informate sui tipi di prodotti che il rivenditore dovrebbe immagazzinare.
La manutenzione predittiva sta inoltre emergendo come una preziosa applicazione per i produttori che desiderano monitorare un apparecchio per rilevare eventuali segni di guasto. Con lo sviluppo dell'Internet of Things (IoT), i produttori stanno collegando i sensori ai macchinari della fabbrica e ai prodotti meccatronici, come le automobili. I dati dei sensori vengono utilizzati per prevedere quando eseguire interventi di manutenzione e riparazione per evitare problemi.
L'IoT consente inoltre analoghi usi di analisi predittiva per il monitoraggio di oleodotti e gasdotti, impianti di perforazione, parchi eolici e varie altre installazioni IoT industriali. Le previsioni meteorologiche localizzate per gli agricoltori basate in parte sui dati raccolti dalle stazioni dati meteorologiche dotate di sensori installate nei campi agricoli sono un'altra applicazione di modellazione predittiva basata su IoT.
Predictive Analytics la rivoluzione del Data Center. Il caso Aptare
L’analisi predittiva, come in parte accennato è anche e soprattutto una piattaforma che sta rivoluzionando i Data Center e, con essi, tuti i sistemi di backup, storage e gestione delle informazioni. Una rivoluzione su cui da tempo è al lavoro Veritas Technologies che, non a caso, non più tardi di un anno fa ha acquisito una azienda di eccellenza in questo senso come Aptare.«Il mondo dell’IT è ricco di informazioni che derivano da tutti gli oggetti collegati e costituiscono il Data Center – racconta Fabio Pascali, Country Manager Italy at Veritas Technologies -. Prendere informazioni da questo mondo e restituire il valore al cliente grazie ai metadatie alle correlazioni è proprio il mestiere di Aptare e il senso del concetto di Data Center Analytics. Questa piattaforma insomma è in grado di prendere i dati da qualunque oggetto sia esso server, storage, backup e creare valore dalla loro correlazione, generando informazioni nuove da qualcosa che non esisteva prima. Alcune aziende per esempio lo usano per verificare l’economicità di una applicazione in cloud. Aptare mappa i consumi di un’applicazione in cloud e ne restituisce il livello di economicità per l’azienda».
Più in dettaglio Aptare IT Analytics è l'unico software di analisi IT che offre approfondimenti unificati per tutte le principali infrastrutture di archiviazione, backup e virtuali attraverso un’unica piattaforma in ambienti sia locali che multi-cloud. Le due caratteristiche fondamentali di Aptare sono “agentless” e “vendor agnostic”. Questo vuol dire che la soluzione è non invasiva rispetto all’infrastruttura, facile da installare e manutenere, e che può interagire con componenti IT di Storage e Backup di un numero elevatissimo di vendor, grazie ad una ampia martrice di compatibilità.
Così la Data Center Analytics rivoluziona Backup e Storage
Aptare IT Analytics Backup Manager consente per esempio agli amministratori di visualizzare tutti i tentativi di backup e fornisce approfondimenti per risolvere problemi di backup come:
Rilevamento di dati non protetti: riduce l'esposizione dei dati non protetti identificando automaticamente i client e i set di dati che non sono protetti in base a una politica di backup. Identificazione dei backup sospetti: elimina i "falsi positivi" identificando i backup parziali o non riusciti che riportano come riusciti dal software di backup. Gestisce inoltre in modo efficace le risorse di archiviazione dei dati e utilizza completamente lo spazio di archiviazione disponibile Aptare IT Analytics Storage Management Suite consente inoltre agli amministratori di ottenere informazioni sul consumo effettivo di risorse, in modo da poter recuperare lo spazio di archiviazione inutilizzato, ridurre i consumi, aumentare l'utilizzo delle risorse ed avere sempre uno strumento di capacity planning efficace. La Storage Management Suite è composta da tre prodotti principali:
Capacity Manager: fornisce report sulla capacità di archiviazione end-to-end dagli host agli array di archiviazione, consentendo una maggiore efficienza nell’utilizzo dello storage. Fabric Manager: fornisce previsioni affidabili acquisendo le metriche delle prestazioni chiave e i dettagli delle risorse SAN su tutte le piattaforme. Virtualization Manager: fornisce informazioni preziose sulla gestione delle risorse di archiviazione in un ambiente virtualizzato.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di
ChannelCity.it iscriviti alla nostra
Newsletter gratuita.