▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Edge computing: i tre punti chiave di un ambiente ottimale

Una piattaforma di edge computing garantisce le massime prestazioni se viene progettata puntando su integrazione hardware, elasticità via software e caratteristiche di availability

Mercato
Le aziende di tutti i settori hanno capito che il cloud è un fattore di accelerazione della trasformazione digitale. Nel cloud è possibile reperire, o comunque organizzare, risorse e servizi che sarebbe più complesso, e lento, abilitare all'interno della propria infrastruttura IT. Molte imprese hanno però anche compreso che il cloud comporta il rischio di una eccessiva centralizzazione - anche se "il cloud" non è necessariamente un luogo fisico unico - delle risorse. E la centralizzazione rappresenta sempre una vulnerabilità.

Questo rischio diventa un problema inaccettabile per le imprese che hanno di per sé una organizzazione decentralizzata. Caratteristica che può riguardare qualsiasi ambito. Spesso si pensa a mondi come il manufacturing o l'Oil&Gas, con fabbriche e impianti sparsi per il mondo. Ma il problema tocca anche ambiti meno "estremi", come il retail. Immaginiamo ad esempio un marchio che abbia store localizzati in molte diverse città. Store che sempre più devono offrire ai clienti servizi digitali, i quali richiedono una IT adeguata.

C'è ormai la consapevolezza che in molti scenari applicativi l'intelligenza - quindi l'IT - deve essere delocalizzata in periferia. Questo ha portato alla nascita delle soluzioni di edge computing. Più in particolare, ha portato allo sviluppo di veri e propri "micro data center" che si possono installare in sedi remote. Anche in ambiti che con l'IT sembrano avere poco a che fare, come il classico store di un retailer.

marc olivier jodoin unsplashUn micro data center, e in generale una installazione di edge computing, non può essere semplicemente la trasposizione in piccolo di un centro IT tradizionale. Per un motivo molto semplice: alla periferia, non ci sono le competenze tecniche e il personale per gestire una configurazione complessa. Un ambiente di edge computing deve essere quasi una versione "plug and play" di un data center. Qualcosa che si installa e che poi, semplicemente, funziona. Senza richiedere interventi diretti sul posto se non in casi particolari. Non tutti i vendor possono ottenere questo risultato. Può farlo chi agisce lungo tre direttrici di sviluppo ben precise.

Edge computing: obiettivo integrazione

Le piattaforme ideali per un sito di edge computing sono quelle che applicano i principi della convergenza. Quelle cioè in cui le componenti di elaborazione, storage e networking sono integrate in un unico dispositivo. O comunque in una installazione di pochi dispositivi strettamente integrati fra loro. Tanto da operare, all'atto pratico, come una sola unità.

Il vantaggio dell'integrazione, per l'edge computing, sta nel fatto che un sistema integrato è più semplice da configurare e installare. Banalmente perché ha pochi componenti, ma soprattutto perché ciò che si trova al suo interno è pensato per operare in sinergia. Ma anche ciò che si trova "accanto" alle componenti prettamente IT, come i sistemi di sicurezza, alimentazione e condizionamento. Che possono anch'essi trovarsi fisicamente integrate con la parte IT.

Dal punto di vista dell'installazione alla periferia delle reti, queste caratteristiche dell'integrazione e della convergenza sono preziose. Non ci sono rischi di incompatibilità e i relativi "intoppi" che, nelle configurazioni generiche ed eterogenee, vengono fuori nei momenti meno opportuni. Non c'è la necessità di una gestione e un controllo diretto e continuo da parte dal personale sul posto. Che di solito non è affatto personale IT.

victor xok retail unsplashIn sintesi, un sistema di edge computing progettato con l'integrazione come obiettivo è capace di operare il più possibile in autonomia. È un vantaggio ovunque, a maggior ragione nelle installazioni che non prevedono nemmeno la presenza di personale sul posto. Se non raramente. Installazioni che saranno sempre più frequenti con la diffusione delle soluzioni in stile Internet of Things e con l'aumentare della domanda di funzioni di analytics all'edge delle reti.

Edge computing: l'importanza del software

Una soluzione di edge computing ideale parte puntando sull'integrazione hardware, come abbiamo descritto. Ma poi la sua operatività giorno per giorno dipende in larga parte dalle sue componenti software. In primis il software di bordo, ma anche le componenti legate alle funzioni di gestione remota.

Il software di bordo è anch'esso progettato per la massima integrazione e sinergia con la parte hardware. Ne gestisce il funzionamento e può modificarne automaticamente le configurazioni. A seconda di come è stato impostato ma anche per rispondere ad eventi locali imprevisti. Che possono essere davvero molti, e diversi fra loro. È il software "in loco" che deve adeguare il funzionamento delle varie componenti alle richieste di calcolo e storage in ogni momento. E deve anche reagire a malfunzionamenti, situazioni non programmate e persino guasti complessi. Con l'obiettivo primario di garantire il funzionamento del nodo di edge computing e la salvaguardia delle informazioni.

La parte di gestione e monitoraggio da remoto è ugualmente essenziale per l'edge computing. I nodi periferici senza personale IT dedicato non hanno qualcuno che possa modificare una configurazione al volo o far partire un aggiornamento. Se ogni store di una catena retail, oppure ogni fabbrica di una multinazionale, dovesse aspettare un tecnico IT per operazioni del genere e per la manutenzione periodica, addio vantaggi della digitalizzazione.

Per questo motivo un sistema di edge computing deve essere controllabile da remoto. Usando una piattaforma di system management e monitoring che possa rilevare tutti i parametri di funzionamento necessari e che possa intervenire su tutte le componenti. Questo non riguarda solo la parte strettamente di IT management: dalla gestione delle configurazioni all'applicazione delle patch, dall'ottimizzazione delle risorse allocate in un dato momento al controllo generico del funzionamento. Riguarda anche la sicurezza fisica, il controllo dei parametri ambientali o la gestione dell'alimentazione. Tutto deve essere monitorabile e gestibile, per quanto è possibile, via software.

nasa network unsplash

Edge computing e availability

Il motivo principale per cui si adotta una soluzione di edge computing come un micro data center è garantire l'operatività ottimale dei nodi che sono, appunto, all'edge della rete. Rendendoli del tutto, o quasi, indipendenti da risorse centralizzate. Ma sarebbe inutile scegliere l'edge computing se poi i sistemi periferici fossero, in sé, relativamente poco affidabili. In parte questo aspetto viene affrontato mediante l'uso di sistemi integrati e convergenti. E naturalmente integrando caratteristiche di availability nella piattaforma di edge computing stessa. Ma la questione è più articolata.

Un ambiente di edge computing deve essere pensato anche in una ottica di ecosistema. Il vendor che lo propone dovrebbe cioè prevedere una gamma abbastanza ampia di componenti accessori, anche di terze parti, e servizi che permettano di progettare, e poi garantire, l'availability dei propri nodi di edge computing. Il punto chiave è che nessuno riesce a fare tutto da solo, nemmeno il vendor più trasversale. Ma è cura del vendor capofila fare in modo che le sue soluzioni possano integrarsi con altre in maniera efficace.

Quando si tratta di availability questo aspetto diventa di primo piano perché la disponibilità di un sistema di edge computing dipende da diverse componenti non IT. Il condizionamento e l'alimentazione sono più ovvie e più note. Ma ce ne sono anche altre, come il controllo della sicurezza fisica o la protezione ambientale (ad esempio da incendi). Aspetti diversi, ma che devono essere posti sullo stesso piano di availability mediante la visione integrata - ed aperta - del vendor del micro data center.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ChannelCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Speciale

Il Partner Program guarda al futuro dell’IT

Speciale

Synology Solution Day 2024

Speciale

Speciale Le frontiere innovative del Networking

Speciale

QNAP Partner Conference 2024

Speciale

CATO Partner Day Italia 2024

Calendario Tutto

Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Magazine Tutti i numeri

ChannelCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Mantieniti aggiornato sul mondo del canale ICT

Iscriviti alla newsletter