▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

L’Istituto dell’innovazione tecnologica degli EAU rivoluziona i modelli linguistici IA con una nuova architettura

Minusdarkvine21#L’Istituto dell’innovazione tecnologica (TII, Technology Innovation Institute), uno dei principali centri di ricerca scientifica globali e pilastro della ricerca applicata condotta...

Business Wire
  • Il Falcon Mamba 7B è il modello linguistico nello spazio degli stati (SSLM) open source numero uno al mondo in relazione alle prestazioni, secondo la verifica indipendente condotta da Hugging Face
  • Gli SSLM hanno un basso costo della memoria e non richiedono memoria aggiuntiva per generare blocchi di testo di qualsiasi lunghezza
  • Il Falcon Mamba 7B inoltre surclassa i tradizionali modelli di architettura basata su un trasformatore come il Meta Llama 3.1 8B e il Mistral 7B
  • Il nuovo modello rispecchia l’innovazione e l’approccio pionieristico di Abu Dhabi nella ricerca e sviluppo nel settore dell’IA

ABU DHABI, Emirati Arabi Uniti: Minusdarkvine21#L’Istituto dell’innovazione tecnologica (TII, Technology Innovation Institute), uno dei principali centri di ricerca scientifica globali e pilastro della ricerca applicata condotta dal Consiglio della ricerca tecnologica avanzata (ATRC, Advanced Technology Research Council) di Abu Dhabi, ha lanciato, nell’ambito della serie Falcon, un nuovo modello linguistico di grandi dimensioni nello spazio degli stati open source, il Falcon Mamba 7B, che è risultato il numero uno al mondo in relazione alle prestazioni, secondo la verifica indipendente condotta da Hugging Face.

Come primo SSLM della serie Falcon, il Mamba 7B si distacca dai precedenti modelli Falcon – che utilizzano tutti un’architettura basata su un trasformatore – rappresentando un altro esempio ancora della ricerca pionieristica condotta dall’istituto e dei prodotti e strumenti innovativi che quest’ultimo mette a disposizione della comunità in formato open source.

Spiega Sua Eccellenza Faisal Al Bannai, Segretario generale della ATRC e Consulente per gli affari tecnologici avanzati e la ricerca strategica del Presidente degli EAU: “Il Falcon Mamba 7B è il quarto modello IA consecutivo sviluppato dal TII valutato al top nel settore, rafforzando il ruolo di Abu Dhabi come un polo globale per la ricerca e sviluppo nel settore dell’IA. Questo importante risultato evidenzia il fermo impegno degli EAU all’innovazione”.

Nel campo dei modelli con architettura basata su un trasformatore, il Falcon Mamba 7B surclassa sia i Meta Llama 3.1 8B e Llama 3 8B sia il Mistral 7B utilizzando i benchmark lanciati recentemente da Hugging Face, mentre per quanto riguarda gli altri SSLM, il Falcon Mamba 7B supera tutti gli altri modelli open source quando si utilizzano i vecchi benchmark e sarà il primo modello a figurare nella classifica stilata impiegando il nuovo, più rigoroso benchmark.

Aggiunge il Dr. Najwa Aaraj, Presidente TII: “L’Istituto dell’innovazione tecnologica continua a spingere i confini della tecnologia con la serie Falcon di modelli IA. Il Falcon Mamba 7B costituisce un’autentica soluzione pionieristica e apre la strada a innovazioni nell’IA che miglioreranno le capacità delle persone e la loro vita”.

I modelli nello spazio degli stati sono estremamente performanti nel comprendere situazioni complesse che evolvono nel corso del tempo, come un intero libro. Questo perché gli SSLM non richiedono memoria aggiuntiva per assimilare quantità così grandi di informazioni.

Invece i modelli basati su un trasformatore sono molto efficienti nel memorizzare e utilizzare informazioni che hanno elaborato in precedenza secondo una sequenza e ciò li rende molto efficienti per operazioni come la generazione di contenuti; tuttavia, poiché confrontano ogni parola con tutte le altre, richiedono una potenza di calcolo notevole.

Gli SSLM possono essere impiegati in vari campi – stime, previsioni e attività di controllo. Analogamente ai modelli con architettura basata su un trasformatore, sono eccellenti anche in operazioni di elaborazione di linguaggi naturali e possono essere applicati alla traduzione automatica, al riepilogo di testi, alla visione artificiale e all'elaborazione audio.

Conclude il Dr. Hakim Hacid, facente funzione di Ricercatore capo dell’Unità intercentro IA presso il TII: “Mentre lanciamo il Falcon Mamba 7B, sono orgoglioso dell’ecosistema collaborativo del TII che ha consentito di svilupparlo. Questa innovativo modello rappresenta un significativo passo avanti, che ispirerà nuove prospettive e faciliterà ancora di più la ricerca nel campo dei sistemi intelligenti. Noi del TII stiamo spingendo i confini sia degli SSLM che dei modelli basati su un trasformatore per promuovere ulteriormente l’innovazione nel settore dell’IA generativa”.

Gli LLM Falcon sono stati scaricati oltre 45 milioni di volte, il che ne dimostra lo straordinario successo. Il Falcon Mamba 7B sarà lanciato ai sensi della licenza TII Falcon 2.0, la licenza all’uso del software basata su Apache 2.0 che include una norma di uso accettabile che promuove l’utilizzo responsabile dell’IA. Maggiori informazioni sul nuovo modello sono reperibili su FalconLLM.TII.ae.

*Fonte: AETOSWire

Fonte: Business Wire

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ChannelCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Speciale

Il Partner Program guarda al futuro dell’IT

Speciale

Synology Solution Day 2024

Speciale

Speciale Le frontiere innovative del Networking

Speciale

QNAP Partner Conference 2024

Speciale

CATO Partner Day Italia 2024

Calendario Tutto

Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Magazine Tutti i numeri

ChannelCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Mantieniti aggiornato sul mondo del canale ICT

Iscriviti alla newsletter