Autore: Redazione Channelcity
Il cloud è uno dei temi più rivelanti all’attenzione di CIO e CEO italiani. I vantaggi offerti dai servizi cloud sono sempre più imprescindibili per le aziende sia pubbliche che private di qualsiasi dimensione. Tuttavia, il tipo e la dimensione della singola impresa stanno influenzando notevolmente il tasso di adozione cloud e i tempi di questo passaggio in Italia. L'Osservatorio Cloud Transformation della School of Management del Politecnico di Milano ha calcolato per il 2022 un giro d’affari del settore cloud italiano superiore ai 4,5 miliardi di euro, con una crescita del 18% anno su anno. Crescita che in buona parte (+15%) era organica e che per un sesto (+3%) era da ascrivere al rialzo dei prezzi dei servizi cloud legato ai maggiori costi energetici.
Inoltre, nonostante le difficoltà legate ai costi e alla mancanza di skill, e le problematiche riconducibili alla progettazione e gestione di ambienti complessi - di cui si è ampiamente discusso nella tavola rotonda sulla cloud security - il cloud resta un fenomeno destinato a crescere anche per i benefici che apporta alle tematiche legate alla compliance, alla privacy e alla tutela delle informazioni critiche, che sono e diventeranno sempre più importanti. I servizi cloud, infatti, garantiscono la localizzazione e la sovranità del dato, a prescindere che siano offerti da cloud provider locali, da attori europei o da player globali mediante region locali, componenti di data sovereignty o altro.
Channel City ha tastato il polso della situazione italiana nella terza tavola rotonda del mese del canale dedicata proprio al cloud italiano, a cui hanno partecipato Francesco Vigiani, Sales Account Manager di HiSolution (Managed Service Provider), Stefano Pileri, Executive Vice President Digital Transformation and Innovation di Maticmind (System Integrator) e Alfonso Pirolo, Cloud & Service Provider Manager di Systematika (Distributore e Aggregatore a Valore Aggiunto). Questi tre player di canale riescono insieme a ricostruire un quadro preciso dell’attuale panorama informatico nazionale e delle esigenze delle diverse fasce di mercato in cui operano le aziende pubbliche e private.
Francesco Vigiani, Sales Account Manager di HiSolution
Il tema della sovranità dei servizi e dei dati, anche in funzione delle normative che la UE sta approntando, è stato recepito dalle aziende italiane di qualsiasi settore e dimensione; la vera difficoltà è la loro capacità di mettere operativamente in pratica questa consapevolezza. È questa l’opinione di Francesco Vigiani, che vede quotidianamente sia realtà pubbliche che private spostare determinati servizi verso il cloud, adottando di fatto delle soluzioni di cloud ibrido in cui l’infrastruttura resta on-premise. Il distinguo è che “la grande azienda è già strutturata operativamente per questo passaggio, mentre la piccola azienda si sta ancora guardando attorno per comprendere la strada che potrebbe percorrere”.
Stefano Pileri entra più a fondo della questione sottolineando che, più che il cloud come servizio erogato dai grandi Hyperscaler, alle aziende italiane, e non solo, piace la struttura software che è alla base del cloud. Pileri dà infatti una lettura in chiaroscuro del percorso verso il cloud: i numeri della School of Management del Politecnico di Milano riportati sopra indicano che il mercato cloud progredisce bene; tuttavia, non bisogna trascurare il fatto che nel tempo stanno affiorando alcuni punti critici. “Uno è il fatto che non c’è la conferma della riduzione dei costi dovuta al cloud” e Pileri ne addebita i motivi al fatto che “è talmente facile andare a utilizzare i workload sul cloud degli hyperscaler si tende a utilizzare di più le infrastrutture virtuali e le applicazioni in cloud, senza disporre di un monitoraggio della spesa in tempo reale”. E questa è un po’ una contraddizione, dato che il punto di forza dei servizi cloud dovrebbe essere proprio nel fatto che si paga solo quello che si usa e quindi molto meno che nello scenario privato. Un secondo punto critico risiede nella allocazione dei dati: la Pubblica Amministrazione, con il Polo Strategico Nazionale (PSN) – secondo Pileri - ha adottato una classificazione dei secondo le categorie dati strategici, critici e ordinari, chiarendo dove sia opportuno conservarli per assicurare un livello adeguato di tutela. Questo sta favorendo l’uso di soluzioni ibride.
Differente è il punto di vista di Alfonso Pirolo, che dalla sua posizione di VAD che lavora a stretto contatto con circa 400 cloud service provider percepisce “una consapevolezza da parte del partner sull’importanza della sovranità del dato che è strettamente legata al settore in cui opera e alla dimensione stessa del partner”. Il distinguo è fra le realtà più strutturate, che si sono già attivate per allinearsi alle normative in fase di definizione sul tema della sovranità del dato, e i player più piccoli che invece tendono ad attendere che la legge sia entrata in vigore, senza fare nessun preparativo preventivo.
C’è poi una diversità di approccio importante che riguarda il cliente finale. Pirolo fa notare che le aziende più strutturate si stanno già muovendo per la transazione cloud. Quelle più piccole sono invogliate a tenere i dati in casa perché hanno paura di uscire dal paradigma conosciuto dell’on-premise, ma allo stesso tempo sono attirate dalla facilitazione e dalla semplificazione di usare dei workload già pronti. Inoltre, per queste ultime da una parte “è vero che il cloud potrebbe costare leggermente di più, ma offre anche dei vantaggi, come tutta la parte di gestione e manutenzione del datacenter in termini sia di hardware che di personale, che il cloud non richiede”.
Lavorando con i service provider locali, inoltre, Pirolo fa notare che spesso i partner sul territorio creano un rapporto di fiducia con l’utente finale, che preferisce affidarsi a una realtà locale piuttosto che all’hyperscaler.
La PA ha a disposizione i fondi del PNRR, che possono essere impiegati sia per il cloud come sviluppo innovativo, sia per l’on-premise sotto l’aspetto dell’ammodernamento delle infrastrutture esistenti. Pileri, che ha un quadro preciso dello stato dei lavori nella Pubblica Amministrazione, ricorda che attualmente non tutti i datacenter a cui si appoggia la PA soddisfano i nuovi requisiti normativi, per questo la maggior parte dovrà migrare verso strutture certificate. Non c’è alcun obbligo di fare affidamento solo alle strutture del Polo Strategico Nazionale perché di fatto sono stati individuati una cinquantina di datacenter nazionali che hanno o avranno a breve i requisiti adeguati. Quello che è fuori di discussione è il principio di base secondo cui la PA deve appoggiarsi a un cloud sicuro a 360 gradi.
Il tema è comprendere che cosa si sta migrando in cloud. Vigiani testimonia che le PA di media entità hanno visto il cloud come una risorsa utile per attuare la ridondanza dei servizi (si pensi per esempio al Disaster Recovery). Il motivo di questa scelta è che è facile e veloce da attuare, non richiede la classificazione dei dati per comprendere quali devono restare in casa per motivi di sicurezza e privacy, è un passaggio esente da analisi complesse e non richiede i progetti onerosi necessari per la migrazione di una intera infrastruttura.
Di fatto si sta procedendo con una migrazione a step che sottintende molte questioni, non ultimo quella della cyber security in moltissimi settori, dal pubblico al privato, in realtà di tutte le dimensioni. Per esempio, fa notare Vigiani, le aziende che si occupano di produzione, di marketing, che operano sia nel mercato B2C che B2B sono fra quelle che possono trarre i maggiori benefici a intraprendere un processo di migrazione a step. Ma, aggiunge Pileri, sono da conteggiare anche le infrastrutture strategiche del Paese come le reti energetiche, i trasporti, le telco: in tutti i casi sono richiesti requisiti di sicurezza di accesso e di conservazione del dato che devono obbligatoriamente essere soddisfatti. E che generano un’attenzione importante alla localizzazione.
Stefano Pileri, Executive Vice President Digital Transformation and Innovation di Maticmind
Secondo Pileri. il fatto di poter in qualche modo accedere a dati delocalizzati in maniera non sicura potrebbe rendere più vulnerabili le infrastrutture in cloud. Gli eventi di cronaca di cui si ha notizia ogni giorno testimoniano che il rischio è concreto. In questa visione “la struttura stessa del cloud sta cambiando e il computing locale sta diventando un’opzione utile per proteggere e conservare i dati strategici. Anzi, sta diventando persino un’esigenza in chiave ecologica perché la quantità di dati che viene prodotta si moltiplica, e se questa mole di informazioni viene sistematicamente trasferita in cloud e delocalizzata si svolge un’azione non sostenibile”.
Pirolo, che opera a stretto contatto sia con i vendor sia con i partner locali, ricorda che in questa visione bisogna considerare anche il ruolo importante dei vendor, che stanno cercando di soddisfare l’esigenza della protezione del dato da parte dei clienti. Per esempio, esistono programmi come il Sovereign Program di VMware che vanno in questa direzione e la stessa Microsoft offre un servizio di Disaster Recovery con geolocalizzazione dei backup.
Senza chiamare necessariamente in causa gli hyperscaler, Pileri suggerisce di incoraggiare i piccoli provider locali a implementare tecnologie sicure che mettano a disposizione dei clienti ambienti sicuri. Un’offerta di questo tipo sarebbe un punto di forza importante per attrarre clienti ed è raggiungibile, perché queste tecnologie sono alla portata e non sono esclusivo dominio dei grandi hyperscaler. Ne è certo Pirolo, che testimonia come gli strumenti esistano sia da parte dei vendor che dei service provider, e le realtà più piccole stanno già cercando di prendere certificazioni che confermano la loro capacità di garantire la sicurezza del dato. Il problema, puntualizza Pirolo, non è tanto identificare dove mettere il dato, ma verificare che chi ha in carico il servizio legato al dato sia in grado di assicurare che funzioni.
Ci sono service provider locali che sono in grado di poter erogare servizi senza nessun problema. Ci sono esempi nazionali facili da citare, come per esempio Fastweb e Tim, ma come rimarca Pileri ci sono anche altri operatori di dimensione più piccola che creano poli interessanti. Anzi, secondo Pileri “nei servizi di base del cloud come lo IaaS il cloud nazionale è confrontabile o addirittura migliore degli hyperscaler”. La sfida quindi non si gioca sui servizi di base, ma su quelli accessori: “i grandi leader rilanciano in avanti con offerte quali il database in cloud, il networking in cloud, gli analytics, l’Intelligenza Artificiale, alzando in maniera importante il rischio di lock-in dovuto alla moltiplicazione degli elementi di piattaforma” chiosa Pileri.
Su questo aspetto concorda totalmente Pirolo, puntualizzando che “la sfida del service provider locale è quella di attivare nuovi servizi che possano essere utili e si sovrappongano a quelli dell’hyperscaler. Quest’ultimo può erogare un servizio molto più completo, la sfida per il partner o il solution provider è affiancare l’utente finale con un’attività di consulenza sartoriale, magari supportando la gestione dell’utente finale con una analisi dei costi che possa suggerire dove un determinato workload verrebbe a costare meno fra on-premise, cloud locale, cloud pubblico”.
Questo spunto è interessante per affrontare un altro argomento ostico: conviene sempre andare in cloud? Qualcuno ha fatto marcia indietro dopo la migrazione cloud? Pileri in merito alla prima domanda ha le idee chiare: chi ha un buon datacenter locale di sua proprietà fa bene a conservarvi i workload statici. Se invece l’esigenza è la gestione di workload dinamici, piuttosto che operare continui interventi strutturali è meglio affidarsi al cloud. Sulla logica del tornare indietro, Pileri reputa importante ricordare che anche nelle opzioni on-premise la struttura software è comunque cloud, quindi il concetto di locale è relativo.
È più concreto Vigiani: non ha esperienza di tantissimi casi di inversione di marcia perché la difficoltà che comporta fare un passo indietro dal cloud è notevole; il problema è relativo in quanto la gradualità del passaggio al cloud ha aiutato a prevenirlo. Il tema piuttosto è trovare qualcuno che supporti l’utente finale nel valutare se passare o meno al cloud. In mancanza di questo supporto, molti finora hanno usato il cloud solo per la parte della ridondanza.
Alfonso Pirolo, Cloud & Service Provider Manager di Systematika
Quello che cercano i clienti è quindi, anche, l’attività consulenziale. Vigiani riporta di una continua ricerca della messa in sicurezza del dato, a cui HiSolution risponde con analisi approfondite delle attività del cliente e con la proposta sempre ben recepita di soluzioni di business continuity, disaster recovery, backup immutabile e simili. Hanno meno successo invece i progetti di migrazione totale, che per ovvi motivi comportano un dispendio operativo importante. Maticmind si sta invece focalizzando sulle evoluzioni in cloud della Pubblica Amministrazione, dove si registrano numeri impressionanti in relazione all’adesione al cloud nazionale o equiparati. Anche in questo caso l’indicazione principe è indirizzare i clienti in modo che diano priorità agli aspetti di Business Continuity e di DR piuttosto che verso una migrazione totale. Inoltre, l’analisi consulenziale non deve riguardare solo le tipologie di workload da migrare, ma la gestione successiva, quindi l’aspetto dei consumi di cui si è dibattuto all’inizio. Systematika mette in risalto l’aspetto legale che sta diventando sempre più importante, per questo ha aperto un proprio reparto specializzato su questi temi che soddisfa sia le esigenze interne sia quelle dei partner. È infatti importante ricordare che non solo le normative contano, ma secondo Pirolo spesso indirizzano anche il business. Basti pensare al grande impegno dei partner nelle certificazioni che permettono a un datacenter di dimostrare di essere sicuro e di risultare quindi affidabile agli occhi dei clienti.
Concorda Pileri, che rileva una crescita importante del percorso di adeguamento dei datacenter alle recenti normative non solo per rispettare i termini di legge, ma perché essere compliant rende l’azienda più appetibile al mercato. Tutti i relatori convengono che un datacenter certificato, soprattutto se locale, fa sentire il cliente più sicuro e tutelato. Rispetto all’hyperscaler, che spesso trasmette una sensazione di inaccessibilità, sono in molti a preferire il player locale che risulta logisticamente raggiungibile, tanto che sono molti i clienti che chiedono di visitare la struttura fisica in cui i loro dati sono custoditi. Poco importa che poi operativamente parlando quasi tutte le attività vengano svolte da remoto.
Localmente, poi, si ha accesso a tutta quella filiera utente-partner-distributore-vendor che costituisce di per sé un servizio a valore, e in cui il valore non è il risparmio economico, ma le competenze, le soluzioni, l’accuratezza e la prontezza nelle risposte, che contano più di un prezzo leggermente inferiore.