Autore: e.r.g.
Le aziende sono chiamate ad affrontare sfide cruciali che impattano direttamente sull'efficacia e sulla sicurezza dei propri progetti. L’Intelligenza Artificiale sta prendendo rapidamente piede ed è protagonista indiscussa di questo scenario, tanto che proprio nell’AI generativa le aziende confidano di trovare la soluzione a una lunga lista di problemi e necessità: dall’efficientamento delle risorse allo sviluppo di nuovi fronti di business. Le cose, tuttavia, non sono così semplici.
Per capire quali sono le sfide principali che le aziende sono chiamate ad affrontare in tema di dati e AI, ChannelCity ha chiamato a raccolta quattro esperti: Roberto Grigolato, Business Unit Manager Hybrid Cloud di TD Synnex, che rappresenta il comparto distributivo; Mattia Ballerio, Business Development Presales Manager & Technology Solutions Manager di Elmec, che porta in discussione il punto di vista dei system integrator. Rappresentano invece i vendor Manlio De Benedetto, Senior Director Sales Engineering di Cohesity e Roberto Patano, Sr Manager Solution Engineering di NetApp.
La gestione del dato è al centro di qualsiasi circolo virtuoso tecnologico legato all’Intelligenza Artificiale. Ovviamente si parla di dati su larga scala, perché - come ricorda Roberto Grigolato - per avere un sensato e consistente occorre un volume di dati importante. Il primo ostacolo è che nella stragrande maggioranza dei casi questa mole di dati non è strutturata, quindi il primo passo da compiere è organizzarla e renderla fruibile da parte di una AI. Organizzazione che non è fine a sé stessa, perché “la sfida è comprendere a pieno qual è il risultato che vogliamo ottenere da un progetto di Intelligenza Artificiale, correlarlo al dato e a come questo dato viene utilizzato per poter soddisfare la richiesta del cliente”. L’esempio concreto portato da Grigolato è quello di IBM Storage Ceph, uno storage software-defined che si propone di centralizzare e rendere disponibili i dati indipendentemente dalla loro collocazione, migliorando così l'efficienza operativa.
Mattia Ballerio va oltre e sottolinea che, oltre alla qualità dei dati, a rappresentare un aspetto critico è la loro sicurezza: un tema che passa spesso in secondo piano e di cui è doveroso occuparsi lato system integrator. Controllare l'accesso ai dati, la riservatezza e la loro qualità è essenziale per prevenire risultati imprevedibili e proteggere le informazioni sensibili. Inoltre, strategie come il backup, la resilienza dei server e l'auditing sono imprescindibili per garantire quella gestione sicura dei dati che è fondamentale in contesti di Intelligenza Artificiale. Inoltre, Ballerio porta l'attenzione sul cambiamento culturale e organizzativo richiesto dalle nuove tecnologie: l'integrazione dell'IA nei flussi decisionali strategici delle aziende richiede un approccio ben strutturato al data management, che oltre alla sicurezza, include anche performance e distribuzione dei dati.
Più di tutto, Ballerio fa emergere la necessità di un'approfondita valutazione della prontezza delle aziende all'adozione dell'IA: molte non sono ancora preparate per affrontare tutte le sfide associate all'AI. Pertanto è fondamentale sviluppare strategie di data management che non solo supportino le esigenze tecnologiche, ma anche gli obiettivi aziendali concreti, così da garantire successi misurabili e sostenibili nel tempo.
Manlio De Benedetto enfatizza anche la necessità di verificare la correttezza della mole di dati che vengono passati all’AI sia nell’ottica di prevenire allucinazioni, sia per la prevenzione delle minacce cyber come per esempio i malware. Pressante è inoltre l’argomento compliance: quando si parla di gestione del dato, infatti, è necessario soddisfare non solo i requisiti del PNRR, ma a brevissimo anche quelli NIS2 e Dora.
Roberto Patano di NetApp è sulla stessa linea di pensiero e rimarca che la vera sfida non risiede tanto nella tecnologia dell'IA quanto nella gestione dei dati. È essenziale comprendere dove prendere i dati, come gestirli e quali strumenti utilizzare per proteggere le informazioni sensibili, facendo riferimento a un approccio proattivo cruciale per evitare problemi legali e garantire il corretto utilizzo dei dati per le tecnologie di Intelligenza Artificiale.
Le tecnologie di archiviazione e gestione dei dati stanno evolvendo rapidamente per supportare un ambiente IT sempre più complesso e pervaso dall'Intelligenza Artificiale. L'adozione di soluzioni come flash storage, protocolli a oggetti e il sopraccitato storage software-defined rappresenta un passo cruciale per migliorare le prestazioni, l'affidabilità e l'efficienza operativa, garantendo contemporaneamente una migliore esperienza per il cliente finale. Questi progressi non solo ottimizzano le operazioni aziendali, ma preparano anche il terreno per una innovazione continua e un conseguente potenziale di maggiore competitività.
Grigolato sottolinea come l'esplosione dei dati, inclusi quelli provenienti da dispositivi Edge e IoT, richieda soluzioni di storage flessibili, affidabili e performanti. Il flash storage, con la sua velocità e affidabilità, è ormai fondamentale per supportare l'accesso rapido ai dati e per le applicazioni di Intelligenza Artificiale che dipendono da tempi di risposta rapidi e costanti. Sulla stessa linea di pensiero è Mattia Ballerio, che conferma come una delle soluzioni maggiormente usate da Elmec sia il software-defined storage grid, che permette di integrare e gestire servizi di AI in modo uniforme e scalabile su diverse piattaforme, compresi gli ambienti dei principali hyperscaler. Questo approccio, secondo Ballerio, non solo ottimizza l'erogazione dei servizi ma assicura anche una gestione efficace dei dati, cruciale per affrontare la crescita esponenziale dei volumi di dati.
Inoltre, Elmec sottolinea l'adozione di protocolli a oggetti per semplificare la gestione operativa dei dati, migliorando l'efficienza complessiva e per riflesso la soddisfazione del cliente: “come service provider ci troviamo spesso a gestire i dati non solo nostri ma di tutti i nostri clienti. La facilità di gestione data dai protocolli a oggetti per una realtà come la nostra significa lavorare meglio e di conseguenza far contenti i clienti”. Si tratta di una tecnologia che non solo ottimizza le operazioni interne, ma garantisce anche una maggiore capacità di adattamento alle esigenze del mercato.
Manlio De Benedetto accende invece i riflettori sull'importanza dell'integrazione tra hardware avanzato e software intelligente. Soluzioni come SSD, flash storage e GPU sono fondamentali per supportare applicazioni avanzate come l'Intelligenza Artificiale, mentre software-defined e iperconvergenza consentono una gestione agile e scalabile delle risorse IT. L'obiettivo è garantire la continuità operativa senza interruzioni, indipendentemente dalla localizzazione dei dati o dalla complessità dell'architettura IT adottata.
NetApp, con Roberto Patano, mette in risalto il tema della evoluzione delle infrastrutture IT verso architetture capaci di gestire grandi volumi di dati, come lo storage a oggetti. L'introduzione di GPU capaci di migliorare le prestazioni è solo un esempio del passaggio verso tecnologie più efficienti rispetto agli approcci non più adeguati. “Quello dell’Artificial Intelligence è un mondo in continua evoluzione, che per questo ha bisogno di un'infrastruttura che effettivamente possa adattarsi a tutte le nuove richieste che arriveranno” conclude Patano.
Sulla gestione dei dati in edge, inoltre, Patano evidenzia che esistono sostanzialmente due approcci: spostare all’edge la potenza computazionale, oppure spostare verso il centro (o verso il cloud) solo i dati necessari. Entrambe le opzioni sono corrette, quale scegliere dipende dall’investimento, dalla quantità di dati che vengono generati, dalle soluzioni edge disponibili, eccetera. A prescindere dalla scelta, Patano sottolinea l’esigenza di modernizzare i data center per supportare l'elaborazione avanzata, impiegando soluzioni come virtualizzazione e containerizzazione per ottimizzare le risorse.
Un chiaro elemento che è emerso nel corso del dibattito è che l’attuale complessità nella gestione dei dati non è solo una questione tecnologica, ma anche di competenze. Le aziende stanno gestendo una rapida evoluzione tecnologica contestualmente a normative sempre più stringenti e per questo necessitano di sviluppare competenze specializzate per implementare e gestire soluzioni efficaci.
I relatori che hanno preso parte alla tavola rotonda sottolineano coralmente un cambiamento radicale nel modo in cui le aziende affrontano il data management, spinto dalla necessità di integrare conoscenze approfondite e strumenti tecnologici avanzati per non compromettere la sicurezza o l'efficienza operativa. Mattia Ballerio in particolare pone l’accento sul passaggio del data management da un approccio centralizzato a uno distribuito: aziende multinazionali sono chiamate a massimizzare l'uso dei dati localmente, utilizzando tecnologie come l'Intelligenza Artificiale integrata nei dispositivi edge per migliorare la reattività operativa. Tuttavia, questo approccio solleva nuove sfide di sicurezza e di gestione distribuita del dato che devono essere affrontate e gestite.
Dal punto di vista della distribuzione, Roberto Grigolato evidenzia la carenza di competenze specializzate nel mercato italiano: “conoscere veramente che cosa serve al cliente per sviluppare un determinato progetto è una capacità che oggi in Italia non è ancora ben rappresentata; sono poche le aziende che hanno davvero la capacità di dare al cliente un messaggio concreto su soluzioni tangibili”. Da qui l'importanza della formazione continua per i partner, che è il lasciapassare per poter gestire progetti complessi e soddisfare le aspettative dei clienti. Manlio De Benedetto vede il bicchiere mezzo pieno: la complessità c’è, ma l'integrazione di hardware, software e AI ha contribuito ad abbassare la complessità operativa: “i progetti continuano a diventare sempre più complessi ma l'evoluzione dello storage aiuta quanto meno e di bilanciare”. Detto questo, sono comunque necessarie competenze avanzate per una implementazione efficace.
Va controcorrente Roberto Patano di NetApp, secondo cui non è la tecnologia ad essere diventata più complessa, né le soluzioni, “è come le vogliamo utilizzare [le soluzioni] che è diventato più complesso; mancano le competenze e quindi ci sembra che tutto sia più complesso. Nel momento in cui le persone vengono formate in maniera corretta e hanno a disposizione della tecnologia nuova, non più complessa, che dev’essere utilizzata in maniera diversa rispetto a come è sempre stata utilizzata, allora la tecnologia non diventa più complessa”.
Complessità e competenze conducono inevitabilmente al tema dell’ecosistema, che è fondante in qualsiasi progetto di AI perché sono chiamati in causa test, prodotti, soluzioni, processi, completamente diversi. A tale proposito Roberto Grigolato sottolinea l'evoluzione strategica del distributore nel fornire non solo prodotti, ma anche conoscenza approfondita attraverso corsi formativi e laboratori pratici. Si tratta di strumenti che migliorano le competenze tecniche e commerciali dei partner, ma che facilitano anche la comprensione e l'integrazione delle soluzioni tecnologiche avanzate. Un approccio, quello descritto, che non è solo teorico, ma mira a fornire supporto concreto e personalizzato, con la personalizzazione dei progetti.
Portando l’esempio della propria azienda, Grigolato sottolinea che “come TD Synex abbiamo cambiato in maniera importante negli ultimi anni il nostro approccio al canale. Prima di tutto andando noi stessi ad acquisire quelle competenze che servono poi per avere un dialogo di valore con i nostri partner. E poi aggiungendo quelle componenti che servono al canale per poter lavorare in sicurezza e in sintonia con le richieste del mercato. Prima fra tutte, l'Academy per i corsi di formazione”. Grigolato sottolinea inoltre l’iniziativa strategica di TD SYNNEX che consiste nel lancio del programma IBM watsonx Gold 100, con l’obiettivo di reclutare 100 partner e fornire loro le risorse necessarie per raggiungere lo status di partner Gold di IBM. I partner di livello Gold metteranno a frutto le opportunità offerte da IBM watsonx grazie a una combinazione della tecnologia IBM e le competenze a valore aggiunto di TD SYNNEX.
Mattia Ballerio evidenzia le sfide della consulenza tecnologica, specialmente quella di tradurre gli obiettivi dei clienti in soluzioni operative, che è frutto di un processo tecnico dietro a cui deve necessariamente esserci una profonda comprensione delle dinamiche aziendali. È quindi richiesto il passaggio da un focus esclusivamente tecnologico a un approccio orientato ai processi.
Manlio De Benedetto di Cohesity ribadisce l'importanza delle competenze come leva strategica nel settore tecnologico, alla luce del fatto che possedere competenze non dà solo un vantaggio competitivo, ma costituisce un prerequisito per costruire relazioni di fiducia con i clienti e i partner. Roberto Patano evidenzia infine che per un vendor come NetApp l'ecosistema è sempre stato un modo per operare sul mercato. Il vendor produce una tecnologia, ci deve essere poi qualcun altro che è in grado di capire l'esigenza del cliente.
In quest’ultimo passaggio è sottinteso un approccio ponderato nell'adozione dell'AI, che passa anche per domandarsi se l'implementazione dell’AI sia veramente necessaria per affrontare le sfide del cliente. Un ragionamento critico questo che è fondamentale per dimostrare competenza nell'AI. Il tema è che oggi le competenze tradizionali non sono più sufficienti. È necessario capire il cliente, com’è strutturato internamente, come gestisce, crea, modifica, protegge le informazioni per poter sviluppare un progetto. Ci sono alcuni grandi system integrator che stanno creando le competenze interne per i progetti di AI.
Abbiamo visto dai precedenti interventi come l'innovazione e la capacità di adattamento siano fondamentali per la competitività a lungo termine. Come si ottengono? Roberto Patano invita ad essere curiosi verso le evoluzioni del mercato, cercare di prevedere le tendenze per essere fra i primi a integrare le nuove tecnologie e a rispondere alle esigenze dei clienti.
Il tema della data security è stato affrontato più volte nel corso della discussione. Tutti i relatori convengono che è doverosa l'adozione di best practice in materia di data privacy che combini formazione continua, personalizzazione delle soluzioni, adeguamento normativo e governance efficace. A tale proposito, Roberto Patano sottolinea che le best practice non possono prescindere da una cultura aziendale improntata alla sicurezza informatica e pertanto da una formazione adeguata dei dipendenti affinché riconoscano potenziali minacce e promuovano comportamenti sicuri nell'uso dei dati. Detto questo, Patano ammette che il bilanciamento tra sicurezza e rispetto della privacy dei dipendenti è una sfida delicata che chiama in causa la compliance con il GDPR affinché venga ben gestito il confine tra sorveglianza legittima e intrusione nella sfera privata.
Manlio De Benedetto aggiunge che “le best practice sono la cosa migliore che si possa fare per un cliente, sono un vestito su misura” che dev’essere plasmato sulle esigenze specifiche di ciascun cliente tenendo conto del panorama normativo che varia non solo tra Paesi, ma anche all'interno dello stesso contesto nazionale. È Ballerio che affronta l’aspetto spinoso della questione, ossia che in Italia c’è ancora molto da fare per migliorare la compliance. Fra le sfide più importanti ci sono la mancanza di un controllo efficace sull’applicazione delle normative, ma soprattutto “sarebbe bello che la parte regolamentativa non fosse un ostacolo ma fosse un acceleratore” per l'adozione di soluzioni avanzate di cybersecurity e di tecnologie innovative.
Roberto Grigolato porta infine l'attenzione sul fatto che la governance è necessaria nelle aziende che adottano modelli di Intelligenza Artificiale, per monitorare l'uso dei modelli AI, garantire la conformità normativa interna, facilitare una gestione responsabile delle risorse aziendali.