• 6 November 2024
NVIDIA DGX

Indice

Quello che l’intelligenza artificiale del super computer NVIDIA DGX a breve riuscirà a fare, sarà limare perfettamente un pensiero in lingua italiana “pura”. Strabiliante no?

NVIDIA DGX e nuovo sguardo italico

Avremo anche noi la nostra intelligenza artificiale. Avremo finalmente anche noi un modello di apprendimento istruito secondo le logiche grammaticali e le sfumature della nostra preziosa lingua. Ci voleva. Ci prova dopo Iliad, anche Fastweb. E lo fa con un super computer tutto improntato alla Ai, anzi no, in questo caso alla IA. Un NVIDIA DGX che verrà utilizzato per lo sviluppo di un modello linguistico di grandi dimensioni (LMM) e addestrato nativamente in italiano. Nativamente in italiano. Bello, mi piace. Così finalmente potremo spiegargli che Tuttavia e Inoltre hanno un significato completamente diverso rispetto a quelle paroline che mette di solito ad inizio periodo.

Bastava pensarci per tempo. Sì certo ChatGPT è incredibilmente utile (anche se ha delle piccole limitazioni) ma comprendere nel profondo il pensiero italico, credo farà la sua differenza. Non ha importanza quale tipologia di grande società deciderà di mettere le mani nell’addestramento, l’importante è che si faccia. Per il semplice motivo che è sempre più frequente l’utilizzo dell’intelligenza artificiale in qualunque campo, con una perdita importante (attualmente) delle specifiche tecniche grammaticali degli esseri umani che ad essa si affidano.

Fastweb e lo sviluppo di nuove applicazioni

Le intenzioni del colosso delle telecomunicazioni italiano sono quelle di mettere tutto quello che ne deriverà da questa scelta di utilizzo “stilistico” algoritmico a disposizione di qualunque settore (pubblico e privato) sia interessato allo sviluppo di servizi ed applicazioni di AI generativa. Certo le linee a disposizione sono davvero tante. Si andrà dalla sanità (finalmente) all’educazione, alla mobilità. Tutto questo potendo contare su di una gestione reale e sicura dei dati residenti in data center sul nostro territorio. Fastweb parla già di una governance trasparente e della conformità con tutte le regole italiane ed europee annesse secondo AI Act. Molto bene. Davvero molto bene. Questo nativo LLM potrà generare una serie importante di applicativi basati sull’intelligenza artificiale generativa, portando con sé quelle reali e uniche sfumature della nostra lingua in rapporto a specifiche richieste di generazione.

Architettura di NVIDIA DGX e sistemi generativi

Il sistema acquistato da Fastweb utilizzerà ben trentuno piattaforme NVIDIA DGX H100, create unicamente per realizzare progetti di intelligenza artificiale, con architetture basate su architettura NVIDIA DGX SuperPod e dotate di 248 schede grafiche NVIDIA H100 Tensor Core capaci di velocità fino a quattro volte superiori rispetto alle GPU di precedente generazione. Il sistema, dovrebbe diventare operativo in tempi brevi, ossia già entro la prima metà del 2024.

Saranno i sistemi di deep learning a dare lo start per lo sviluppo e l’addestramento dell’LLM, e naturalmente la base di set di dati sarà prettamente configurata attraverso la nostra lingua italiana.

NVIDIA DGX H100, caratteristiche principali.

Andiamo nel particolare. Questo sistema è parte della piattaforma DGX e rappresenta la potenza di intelligenza artificiale che sta alla base di NVIDIA DGX SuperPOD™, accelerato dalle prestazioni all’avanguardia della GPU NVIDIA H100 Tensor Core12. Caratteristiche principali:

8 GPU NVIDIA H100 con 640 Gigabyte di memoria totale della GPU1.

18 connessioni NVIDIA® NVLink® per GPU, 900 gigabyte al secondo di banda bidirezionale GPU-GPU1.

4 NVIDIA NVSwitches™ 7.2 terabyte al secondo di banda bidirezionale GPU-GPU, 1.5 volte superiore rispetto alla precedente generazione1.

10x NVIDIA ConnectX®-7 400 Gigabits-Per-Second Network Interface1.

Dual Intel Xeon Platinum 8480C processors, 112 cores total, and 2 TB System Memory1.

30 Terabytes NVMe SSD High speed storage for maximum performance1.

Il DGX H100 offre prestazioni 6 volte superiori e una rete 2 volte più veloce rispetto alla generazione precedente. La soluzione è superpotente per i carichi di lavoro più voluminosi, tra cui, nello specifico, l’intelligenza artificiale generativa, l’elaborazione del linguaggio naturale e i modelli basati su deep learning.

NVIDIA DGX

Il NVIDIA DGX H100 è un sistema universale costruito per tutte le infrastrutture e i carichi di lavoro AI, dall’analisi alla formazione all’inferenza. Può essere utilizzato per creare modelli di apprendimento automatico in diversi modi. In più, fornisce la potenza di calcolo necessaria per gestire tutte le fasi della creazione, dalla preparazione dei dati fino all’inferenza. Questo lo rende uno strumento prezioso per qualsiasi progetto. Lo aspettiamo con ansia.