Le aziende di tutti i settori hanno capito che il cloud è un fattore di accelerazione della trasformazione digitale. Nel cloud è possibile reperire, o comunque organizzare, risorse e servizi che sarebbe più complesso, e lento, abilitare all'interno della propria infrastruttura IT. Molte imprese hanno però anche compreso che
il cloud comporta il rischio di una eccessiva centralizzazione - anche se "il cloud" non è necessariamente un luogo fisico unico - delle risorse. E la centralizzazione rappresenta sempre una vulnerabilità.
Questo rischio diventa un problema inaccettabile per le imprese che hanno di per sé una
organizzazione decentralizzata. Caratteristica che può riguardare qualsiasi ambito. Spesso si pensa a mondi come il manufacturing o l'Oil&Gas, con fabbriche e impianti sparsi per il mondo. Ma il problema tocca anche ambiti meno "estremi",
come il retail. Immaginiamo ad esempio un marchio che abbia store localizzati in molte diverse città. Store che sempre più devono offrire ai clienti servizi digitali, i quali richiedono una IT adeguata.
C'è ormai la consapevolezza che in molti scenari applicativi l'intelligenza - quindi l'IT - deve essere delocalizzata in periferia. Questo ha portato alla nascita delle
soluzioni di edge computing. Più in particolare, ha portato allo sviluppo di veri e propri "
micro data center" che si possono installare in sedi remote. Anche in ambiti che con l'IT sembrano avere poco a che fare, come il classico store di un retailer.
Un
micro data center, e in generale una installazione di edge computing, non può essere semplicemente la trasposizione in piccolo di un centro IT tradizionale. Per un motivo molto semplice: alla periferia, non ci sono le competenze tecniche e il personale per gestire una configurazione complessa. Un ambiente di edge computing deve essere
quasi una versione "plug and play" di un data center. Qualcosa che si installa e che poi, semplicemente, funziona. Senza richiedere interventi diretti sul posto se non in casi particolari. Non tutti i vendor possono ottenere questo risultato. Può farlo chi agisce lungo tre direttrici di sviluppo ben precise.
Edge computing: obiettivo integrazione
Le piattaforme ideali per un sito di edge computing sono quelle che applicano i principi della
convergenza. Quelle cioè in cui le componenti di elaborazione, storage e networking sono integrate in un unico dispositivo. O comunque in una installazione di pochi dispositivi
strettamente integrati fra loro. Tanto da operare, all'atto pratico, come una sola unità.
Il vantaggio dell'integrazione, per l'edge computing, sta nel fatto che un sistema integrato è più semplice da
configurare e installare. Banalmente perché ha pochi componenti, ma soprattutto perché ciò che si trova al suo interno
è pensato per operare in sinergia. Ma anche ciò che si trova "accanto" alle componenti prettamente IT, come i sistemi di sicurezza, alimentazione e condizionamento. Che possono anch'essi trovarsi fisicamente integrate con la parte IT.
Dal punto di vista dell'installazione alla periferia delle reti, queste caratteristiche dell'integrazione e della convergenza sono preziose.
Non ci sono rischi di incompatibilità e i relativi "intoppi" che, nelle configurazioni generiche ed eterogenee, vengono fuori nei momenti meno opportuni. Non c'è la necessità di una gestione e un controllo diretto e continuo da parte dal personale sul posto. Che di solito non è affatto personale IT.
In sintesi, un sistema di edge computing progettato con l'integrazione come obiettivo è
capace di operare il più possibile in autonomia. È un vantaggio ovunque, a maggior ragione nelle installazioni che non prevedono nemmeno la presenza di personale sul posto. Se non raramente. Installazioni che saranno sempre più frequenti con la diffusione delle soluzioni in stile Internet of Things e con l'aumentare della domanda di funzioni di analytics all'edge delle reti.
Edge computing: l'importanza del software
Una soluzione di edge computing ideale parte puntando sull'integrazione hardware, come abbiamo descritto. Ma poi la sua
operatività giorno per giorno dipende in larga parte dalle sue
componenti software. In primis il software di bordo, ma anche le componenti legate alle funzioni di gestione remota.
Il software di bordo è anch'esso progettato per la
massima integrazione e sinergia con la parte hardware. Ne gestisce il funzionamento e può modificarne automaticamente le configurazioni. A seconda di come è stato impostato ma anche per rispondere ad eventi locali imprevisti. Che possono essere davvero molti, e diversi fra loro. È il software "in loco" che deve
adeguare il funzionamento delle varie componenti alle richieste di calcolo e storage in ogni momento. E deve anche reagire a malfunzionamenti, situazioni non programmate e persino guasti complessi. Con l'obiettivo primario di garantire il funzionamento del nodo di edge computing e la salvaguardia delle informazioni.
La parte di
gestione e monitoraggio da remoto è ugualmente essenziale per l'edge computing. I nodi periferici
senza personale IT dedicato non hanno qualcuno che possa modificare una configurazione al volo o far partire un aggiornamento. Se ogni store di una catena retail, oppure ogni fabbrica di una multinazionale, dovesse aspettare un tecnico IT per operazioni del genere e per la manutenzione periodica, addio vantaggi della digitalizzazione.
Per questo motivo un sistema di edge computing deve essere
controllabile da remoto. Usando una piattaforma di system management e monitoring che possa rilevare tutti i parametri di funzionamento necessari e che possa intervenire su tutte le componenti. Questo non riguarda solo la parte strettamente di IT management: dalla gestione delle configurazioni all'applicazione delle patch, dall'ottimizzazione delle risorse allocate in un dato momento al controllo generico del funzionamento.
Riguarda anche la sicurezza fisica, il controllo dei parametri ambientali o la gestione dell'alimentazione. Tutto deve essere monitorabile e gestibile, per quanto è possibile, via software.
Edge computing e availability
Il motivo principale per cui si adotta una soluzione di edge computing come un
micro data center è
garantire l'operatività ottimale dei nodi che sono, appunto, all'edge della rete. Rendendoli del tutto, o quasi, indipendenti da risorse centralizzate. Ma sarebbe inutile scegliere l'edge computing se poi i sistemi periferici fossero, in sé, relativamente poco affidabili. In parte questo aspetto viene affrontato mediante l'uso di sistemi integrati e convergenti. E naturalmente integrando
caratteristiche di availability nella piattaforma di edge computing stessa. Ma la questione è più articolata.
Un ambiente di edge computing deve essere pensato anche in una
ottica di ecosistema. Il vendor che lo propone dovrebbe cioè prevedere una gamma abbastanza ampia di componenti accessori, anche di terze parti, e servizi che permettano di progettare, e poi garantire, l'availability dei propri nodi di edge computing. Il punto chiave è che
nessuno riesce a fare tutto da solo, nemmeno il vendor più trasversale. Ma è cura del vendor capofila fare in modo che le sue soluzioni possano integrarsi con altre in maniera efficace.
Quando si tratta di availability questo aspetto diventa di primo piano perché la disponibilità di un sistema di edge computing
dipende da diverse componenti non IT. Il condizionamento e l'alimentazione sono più ovvie e più note. Ma ce ne sono anche altre, come il controllo della sicurezza fisica o la protezione ambientale (ad esempio da incendi). Aspetti diversi, ma che devono essere
posti sullo stesso piano di availability mediante la visione integrata - ed aperta - del vendor del
micro data center.