Hot Chips 2024, Intel presenta nuovi casi di utilizzo dell'AI (dal data center, al cloud, dalla rete, all'edge e al PC)

Intel mostra nuove tecnologie tra cui l’avanzato chiplet optical compute interconnect (OCI), completamente integrato e primo nel settore per l'elaborazione ad alta velocità dei dati AI. L'azienda ha anche annunciato nuovi dettagli del SoC Intel Xeon 6 (nome in codice Granite Rapids-D), il cui lancio è previsto per la prima metà del 2025

Autore: Redazione ChannelCity

in occasione di Hot Chips 2024, Intel ha presentato nuovi casi di utilizzo dell'AI, dal data center, al cloud, dalla rete, all'edge e al PC, mostrando tecnologie quali l’avanzato chiplet optical compute interconnect (OCI), completamente integrato e primo nel settore per l'elaborazione ad alta velocità dei dati AI.

L'azienda ha anche annunciato nuovi dettagli del SoC Intel Xeon 6 (nome in codice Granite Rapids-D), il cui lancio è previsto per la prima metà del 2025. “In tutti i casi di utilizzo dell’AI, sia consumer sia professionali, Intel fornisce le piattaforme, i sistemi e le tecnologie necessarie per ridefinire ciò che è possibile. Via via che i carichi di lavoro AI si intensificano, la nostra esperienza ci consente di comprendere al meglio le esigenze dei nostri utenti in modo da guidare l'innovazione, la creatività e i risultati ideali. Sebbene un silicio più performante e una maggiore ampiezza di banda della piattaforma siano essenziali, Intel sa anche che ogni carico di lavoro rappresenta una sfida a sé: un sistema progettato per il data center non può più essere semplicemente riadattato per l'edge. Con una comprovata competenza nell'architettura dei sistemi lungo l'intero continuum dell’elaborazione dei dati, Intel è ben posizionata per essere all’avanguardia dell’innovazione nel campo dell’AI” sottolinea Pere Monclus, chief technology officer, Network and Edge di Intel.

Che cosa presenta Intel: a Hot Chips 2024, Intel ha presentato quattro documenti tecnici che sottolineano le caratteristiche del SoC Intel Xeon 6, del processore Lunar Lake client, dell’acceleratore AI Intel Gaudi 3 e del chiplet OCI.

Praveen Mosur, Intel Fellow e silicon architect per rete ed edge, ha svelato nuovi dettagli del system-on-chip (SoC) Intel Xeon 6 e su come può gestire casi d'uso specifici dell'edge quali connessioni di rete inaffidabili e spazio e potenza limitati. Sulla base delle conoscenze acquisite da oltre 90.0001 implementazioni edge in tutto il mondo, il SoC è il processore con la migliore ottimizzazione edge oggi disponibile. Grazie alla possibilità di scalare dai dispositivi edge ai nodi edge utilizzando un'architettura a sistema singolo e un'accelerazione AI integrata, consente di gestire in modo più semplice, efficiente e riservato l'intero flusso di lavoro AI, dall'acquisizione dei dati all'inferenza, contribuendo a migliorare il processo decisionale, aumentare l'automazione e offrire valore agli utenti. L'Intel Xeon 6 SoC combina il chiplet di elaborazione dei processori Intel Xeon 6 con un chiplet I/O ottimizzato per l'edge basato sulla tecnologia di processo Intel 4. Ciò consente al SoC di offrire miglioramenti significativi in termini di prestazioni, efficienza energetica e densità di transistor rispetto alle tecnologie precedenti. Le funzionalità aggiuntive includono:

Intel Xeon 6 SoC include anche funzionalità progettate per accrescere le prestazioni e l'efficienza dei carichi di lavoro edge e di rete, tra cui la nuova accelerazione multimediale per migliorare la transcodifica video e l'analisi per OTT live, VOD e media broadcast; Intel Advanced Vector Extensions e Intel Advanced Matrix Extensions per prestazioni di inferenza migliorate; Intel QuickAssist Technology per prestazioni di rete e storage più efficienti; Intel® vRAN Boost per un consumo energetico ridotto per RAN virtualizzato; e supporto per Intel Tiber Edge Platform, che consente agli utenti di creare, distribuire, eseguire, gestire e scalare soluzioni edge e AI su hardware standard con semplicità simile al cloud.

Arik Gihon, lead client CPU SoC architect, ha parlato del processore client Lunar Lake e di come sia progettato per stabilire un nuovo standard di efficienza energetica per l’x86, offrendo al contempo prestazioni al vertice per core, grafica e AI client. I nuovi Performance-core (P-core) ed Efficient-core (E-core) offrono prestazioni eccezionali con un consumo system-on-chip inferiore fino al 40% rispetto alla generazione precedente. La nuova NPU è fino a 4 volte più veloce, consentendo miglioramenti corrispondenti nell'AI generativa (GenAI) rispetto alla generazione precedente. Inoltre, i nuovi core dell'unità di elaborazione grafica Xe2 migliorano le prestazioni di gaming e grafiche di 1,5 volte rispetto alla generazione precedente. Ulteriori dettagli su Lunar Lake saranno condivisi nel Corso dell’evento di lancio di Intel Core Ultra il 3 settembre.

Roman Kaplan, chief architect of AI accelerators, ha parlato della formazione e l'implementazione di modelli di intelligenza artificiale generativa che richiedono una potenza di calcolo elevata. Ciò comporta notevoli sfide in termini di costi e potenza via via che i sistemi si espandono, passando da singoli nodi a vasti cluster con migliaia di nodi. L'acceleratore AI Intel Gaudi 3 affronta questi problemi con la sua architettura ottimizzata per elaborazione, memoria e networking, impiegando strategie quali motori di moltiplicazione di matrice efficienti, integrazione di cache a due livelli e networking RoCE (RDMA on Convergent Ethernet) esteso. Ciò consente all'acceleratore AI Gaudi 3 di ottenere prestazioni significative ed efficienze energetiche che consentono ai data center AI di operare in modo più conveniente e sostenibile, affrontando i problemi di scalabilità durante l'implementazione di carichi di lavoro GenAI. Informazioni sugli acceleratori di intelligenza artificiale Gaudi 3 e sui futuri prodotti Intel Xeon 6 saranno condivise durante un evento di lancio a settembre.

Il gruppo Integrated Photonics Solutions (IPS) di Intel ha dimostrato il chiplet optical compute interconnect più avanzato del settore realizzato in co-packaging con una CPU Intel e su cui vengono elaborati dati attivi. Saeed Fathololoumi, principal engineer e Photonics Integration lead, ha parlato del chiplet OCI e della sua progettazione che supporta 64 canali di trasmissione dati a 32 gigabit al secondo (Gbps) in ogni direzione su un massimo di 100 metri di fibra ottica. Fathololoumi ha anche discusso di come si prevede che affronterà le crescenti richieste dell'infrastruttura AI per una maggiore larghezza di banda, un minore consumo energetico e una portata maggiore. Il chiplet OCI di Intel rappresenta un importante passo in avanti nell'interconnessione ad alta larghezza di banda per la futura scalabilità della connettività del cluster CPU/GPU e nuove architetture di elaborazione, tra cui l'espansione coerente della memoria e la disaggregazione delle risorse nell'infrastruttura AI emergente per data center e applicazioni di High Performance Computing (HPC).


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.