NVIDIA: innovazioni avveniristiche nel settore dei chip e dell’intelligenza artificiale

NVIDIA ha stretto partnership e introdotto soluzioni innovative nel settore dei chip e dell'AI, accelerando la produzione di chip avanzati, presentando piattaforme di networking ad alta velocità e lanciando una nuova suite di microservizi AI per le imprese.

NVIDIA: innovazioni avveniristiche nel settore dei chip e dell’intelligenza artificiale

NVIDIA, leader nell’innovazione nel campo dei chip e dell’intelligenza artificiale, ha recentemente annunciato una serie di partnership strategiche e soluzioni all’avanguardia che stanno rivoluzionando il settore tecnologico.

Partnership per la produzione di chip e per l’Ai generativa. Una delle principali novità è la collaborazione con Taiwan Semiconductor Manufacturing Company (TSMC) e Synopsys per portare in produzione la piattaforma di litografia computazionale NVIDIA cuLitho. Questa partnership mira ad accelerare il processo di produzione dei chip a semiconduttore avanzati, integrando la piattaforma cuLitho con i sistemi di TSMC e Synopsys. Grazie all’elaborazione accelerata e all’intelligenza artificiale generativa, questa partnership promette di migliorare la scalabilità dei semiconduttori, riducendo significativamente il tempo e le risorse necessarie per il processo di litografia computazionale.

Dell ha ampliato la sua collaborazione con NVIDIA per accelerare l’adozione dell’IA generativa, presentando la piattaforma Dell AI Factory with NVIDIA. Questa soluzione completa rappresenta il primo passo per integrare l’IA nei processi aziendali, semplificandone l’adozione e riducendo al minimo la complessità. La piattaforma, disponibile tramite Dell APEX, offre tutto il necessario, dall’hardware al software, per introdurre l’IA generativa in azienda. Essa include i server Dell PowerEdge XE9680 dotati delle più recenti GPU NVIDIA, come le B200 Tensor Core e le H200 Tensor Core, garantendo prestazioni elevate e un TCO inferiore rispetto alle soluzioni precedenti. Inoltre, verranno supportati i chip GB200 SuperChip, capaci di calcoli di inferenza in tempo reale su modelli complessi. La piattaforma supporta anche le piattaforme di networking NVIDIA Quantum-2 InfiniBand e Spectrum-X Ethernet, garantendo velocità di trasferimento dati elevate. Oltre all’hardware, Dell AI Factory with NVIDIA copre tutte le esigenze per lo sviluppo di modelli di IA personalizzati, dalla preparazione dei dati all’ottimizzazione dei modelli. Inoltre, supporta il RAG (Retrieval-Augmented Generation), una tecnologia per ottimizzare gli output dei modelli linguistici e fornire risposte più precise, considerata affidabile grazie alla verifica delle risposte su basi di conoscenza esterne al modello stesso. Michael Dell, fondatore e CEO di Dell Technologies, ha dichiarato che i clienti enterprise cercano un modo semplice per implementare soluzioni di intelligenza artificiale, e la partnership con NVIDIA offre proprio questa possibilità.

Microsoft Azure ha annunciato una partnership strategica con NVIDIA Corporation per potenziare le capacità di intelligenza artificiale (AI) e i servizi di cloud computing su diverse piattaforme Microsoft. Tra le novità, vi è l’introduzione del processore NVIDIA Grace Blackwell GB200 in Azure, che potenzierà l’infrastruttura AI di Microsoft consentendo l’elaborazione di modelli AI di grandi dimensioni in ambiti come l’elaborazione del linguaggio naturale e la computer vision. Inoltre, Microsoft ha lanciato la macchina virtuale Azure NC H100 v5, basata sulla piattaforma NVIDIA H100 NVL e supportata dalla tecnologia GPU Multi-Instance per carichi di lavoro AI scalabili. La collaborazione si estende anche al settore sanitario, dove Microsoft e NVIDIA stanno lavorando insieme per accelerare l’innovazione attraverso l’integrazione di cloud, AI e tecnologie di supercomputing, mirando a migliorare la ricerca clinica e l’erogazione delle cure. Anche il settore della digitalizzazione industriale beneficerà della partnership, con le API di NVIDIA Omniverse Cloud disponibili su Microsoft Azure, facilitando una migliore interoperabilità e collaborazione dei dati per gli sviluppatori. Per quanto riguarda Microsoft 365, le previsioni di inferenza dell’intelligenza artificiale saranno servite dalle GPU NVIDIA e da NVIDIA Triton Inference Server in Microsoft Copilot, migliorando la produttività degli utenti fornendo informazioni contestualizzate in tempo reale. Infine, i microservizi di inferenza NIM di NVIDIA saranno presto disponibili su Azure AI, offrendo microservizi cloud-nativi per implementazioni di AI ottimizzate, per aiutare gli sviluppatori a portare rapidamente sul mercato applicazioni AI di produzione ottimizzate per le prestazioni.

NetApp ha recentemente annunciato una collaborazione con NVIDIA volta a migliorare le applicazioni di intelligenza artificiale generativa. L’integrazione dei microservizi NeMo Retriever di NVIDIA nell’infrastruttura dati di NetApp permette un accesso sicuro e privato a grandi quantità di dati per le aziende che utilizzano l’IA. Questa partnership consente ai clienti ONTAP di NetApp di interagire con i propri dati in vari formati e sistemi, compresi quelli di pianificazione delle risorse aziendali (ERP) e gestione delle relazioni con i clienti (CRM), mantenendo nel contempo la privacy e la sicurezza dei dati. Il CEO di NetApp, George Kurian, ha enfatizzato il ruolo dell’azienda nella gestione dei dati non strutturati e il suo impegno nell’accelerare l’adozione dell’intelligenza artificiale per oltre 500 aziende. Jensen Huang, CEO di NVIDIA, ha evidenziato il potenziale delle applicazioni di IA generativa per migliorare la produttività attraverso l’interazione con i dati. La soluzione congiunta di NetApp e NVIDIA è progettata per semplificare la creazione di applicazioni interne di IA senza compromettere la sicurezza dei dati, supportando le query sui dati attraverso semplici prompt e mantenendo i controlli di accesso esistenti. La partnership estende l’offerta di NetApp per l’IA, già adottata da numerosi clienti, e le nuove capacità saranno presentate alla conferenza NVIDIA GTC, un evento globale sull’IA che si terrà a San Jose, in California. Questa iniziativa mira a ridurre l’attrito, i costi e il tempo necessario per implementare la retrieval-augmented generation (RAG) sfruttando l’infrastruttura di gestione dei dati di NetApp e gli strumenti di AI di NVIDIA.

CrowdStrike Holdings, Inc., leader nella protezione degli endpoint e dei carichi di lavoro in-the-cloud, ha stretto una collaborazione strategica con NVIDIA Corporation per integrare le capacità di intelligenza artificiale (AI) di NVIDIA nella piattaforma CrowdStrike Falcon XDR. L’obiettivo di questa partnership è migliorare le misure di cybersicurezza per le aziende, sfruttando le applicazioni basate su modelli linguistici di grandi dimensioni (LLM) e il software di intelligenza artificiale di NVIDIA, inclusi i microservizi NVIDIA NIM recentemente introdotti. Il Global Threat Report di CrowdStrike del 2024 ha indicato una riduzione del tempo medio di evasione a 62 minuti, evidenziando la necessità di soluzioni di sicurezza rapide e sofisticate. Con l’intelligenza artificiale che gioca un ruolo sempre più importante nella sicurezza informatica, questa collaborazione mira a fornire alle organizzazioni la velocità e l’automazione necessarie per proteggersi dalle violazioni. George Kurtz, CEO di CrowdStrike, ha enfatizzato l’impegno dell’azienda nell’innovazione dell’IA nella cybersecurity e il potenziale della partnership con NVIDIA per migliorare la sicurezza e accelerare il business. Anche il fondatore e CEO di NVIDIA ha commentato la capacità della collaborazione di offrire alle aziende una migliore visibilità e protezione dalle minacce. La partnership consentirà a CrowdStrike di utilizzare il computing accelerato, Morpheus e i microservizi NIM di NVIDIA per creare applicazioni personalizzate in grado di elaborare grandi volumi di dati per la caccia alle minacce, il rilevamento degli attacchi alla catena di approvvigionamento e la difesa da nuovi exploit. Combinando i dati della piattaforma Falcon con l’intelligenza artificiale di NVIDIA, i clienti possono aspettarsi approfondimenti e azioni per l’ottimizzazione delle prestazioni e dei costi. CrowdStrike, rinomata per la sua piattaforma Falcon basata sull’intelligenza artificiale, genera ogni giorno una telemetria di sicurezza ad alta fedeltà in petabyte. Questa collaborazione è destinata a potenziare gli utenti di Falcon con soluzioni basate sull’AI per prevenire le violazioni in modo più efficace.

NXP Semiconductors N.V. ha annunciato una collaborazione con NVIDIA per integrare i modelli di intelligenza artificiale (AI) addestrati da NVIDIA nei dispositivi di edge processing di NXP. Questa integrazione è resa possibile dall’ambiente di sviluppo per l’apprendimento automatico eIQ di NXP, che ora include le API TAO Toolkit di NVIDIA, rendendo NXP il primo produttore di semiconduttori a offrire una tale integrazione diretta per l’implementazione di modelli di intelligenza artificiale nell’edge. L’obiettivo di questa partnership è accelerare lo sviluppo dell’AI, offrendo agli sviluppatori un processo semplificato per portare i modelli di AI sul mercato. Incorporando NVIDIA TAO Toolkit nell’ambiente di sviluppo dell’apprendimento automatico eIQ, gli sviluppatori possono sfruttare i modelli di IA pre-addestrati e personalizzarli tramite l’apprendimento per trasferimento. Questa collaborazione promette di semplificare la creazione e l’implementazione di modelli di intelligenza artificiale, portando a una piattaforma unificata per la formazione, l’ottimizzazione e la distribuzione dei modelli, supportando gli algoritmi di IA su una vasta gamma di microcontrollori e microprocessori di NXP.

Supermicro, Inc. ha annunciato una nuova linea di sistemi AI progettati per sfruttare le più recenti tecnologie per data center di NVIDIA, tra cui il Superchip NVIDIA GB200 Grace Blackwell e le GPU B200 e B100 Tensor Core. Questi nuovi sistemi sono progettati per soddisfare la crescente domanda di AI generativa su larga scala, con un’architettura a blocchi e soluzioni IT totali su scala rack al centro della loro progettazione. Ottimizzati per le GPU NVIDIA Blackwell, offrono significativi miglioramenti delle prestazioni per l’addestramento e l’inferenza dell’IA in tempo reale. Supermicro è pronta a commercializzare i sistemi NVIDIA HGX B200 a 8-GPU e B100 a 8-GPU, promettendo risultati di formazione tre volte più rapidi per i modelli linguistici di grandi dimensioni rispetto alla generazione precedente. Inoltre, i sistemi MGX con NVIDIA GB200 sono destinati a raggiungere prestazioni di inferenza fino a 30 volte superiori rispetto a NVIDIA HGX H100, mentre la soluzione NVIDIA GB200 NVL72, con 72 GPU Blackwell, completa questa nuova gamma di prodotti.

Snowflake Inc. e NVIDIA hanno annunciato un’ulteriore collaborazione per potenziare l’intelligenza artificiale nel cloud dei dati. sfruttando le capacità della piattaforma di elaborazione accelerata di NVIDIA insieme al Data Cloud sicuro di Snowflake, questa partnership mira a semplificare le trasformazioni aziendali guidate dall’AI in vari settori. L’integrazione di NVIDIA NeMo Retriever con Snowflake consentirà ai clienti di utilizzare direttamente questo servizio per i loro dati proprietari all’interno del Data Cloud, mantenendo alti standard di sicurezza, privacy e governance dei dati. Questa collaborazione promette di migliorare le prestazioni e la scalabilità delle applicazioni AI, accelerando il valore per le aziende che utilizzano Snowflake Cortex. I progressi di questa partnership saranno discussi ulteriormente al prossimo Snowflake Data Cloud Summit nel giugno 2024.

Hewlett Packard Enterprise e NVIDIA hanno collaborato per lanciare le soluzioni GenAI, progettate per le imprese e presentate al GTC di NVIDIA. Queste offerte includono due soluzioni full-stack di AI generativa (GenAI), un’architettura di riferimento RAG (retrieval-augmented generation) e il supporto per la futura piattaforma NVIDIA Blackwell. La soluzione di supercomputing di HPE per GenAI è ora disponibile per l’ordinazione e offre un massimo di 168 superchip NVIDIA GH200 Grace Hopper per accelerare lo sviluppo e l’addestramento di modelli di AI di grandi dimensioni. Inoltre, HPE ha introdotto il suo Machine Learning Inference Software, consentendo alle aziende di distribuire modelli di ML su scala in modo sicuro e rapido, integrandosi con NVIDIA NIM. La soluzione di enterprise computing per GenAI è disponibile direttamente ai clienti o tramite HPE GreenLake, offrendo un modello pay-per-use flessibile e scalabile, progettata per supportare la produzione di applicazioni GenAI all’interno di un modello di cloud ibrido. HPE prevede di sviluppare ulteriori prodotti basati sulla piattaforma NVIDIA Blackwell per l’accelerazione dei carichi di lavoro GenAI.

Oracle e NVIDIA hanno stretto una partnership per potenziare i servizi di intelligenza artificiale destinati ai governi e alle imprese in tutto il mondo. L’accordo prevede l’integrazione dell’infrastruttura cloud e AI di Oracle con il software di elaborazione accelerata e AI di NVIDIA, consentendo l’implementazione di fabbriche di AI che rispettano i controlli operativi di un paese e operano all’interno di locali sicuri. Questa iniziativa mira a migliorare la sovranità digitale, consentendo ai governi e alle organizzazioni di gestire i propri dati proprietari sfruttando le tecnologie AI senza compromettere la sicurezza. La collaborazione offre soluzioni AI sofisticate implementabili sia tramite il cloud pubblico sia all’interno del data center del cliente, garantendo flessibilità nelle operazioni. Inoltre, l’integrazione della piattaforma di computing Grace Blackwell di NVIDIA in OCI Supercluster e OCI Compute promette miglioramenti significativi delle prestazioni e un consumo energetico ridotto per soddisfare le crescenti esigenze dei modelli di AI. Clienti come Avaloq e TEAM IM hanno già adottato i servizi cloud di Oracle, mentre l’azienda di telecomunicazioni e& UAE prevede di implementare cluster di GPU NVIDIA H100 Tensor Core per potenziare le proprie capacità di AI.

Ansys ha annunciato un ampliamento della sua partnership con NVIDIA per potenziare le soluzioni di simulazione attraverso l’accelerazione del calcolo e l’implementazione delle tecnologie AI generative. Questa collaborazione mira a promuovere lo sviluppo di sistemi di comunicazione 6G, simulazioni arricchite di intelligenza artificiale, veicoli autonomi, gemelli digitali e rendering visivo. L’integrazione delle avanzate GPU NVIDIA e delle capacità di intelligenza artificiale con gli strumenti di simulazione di Ansys è progettata per ridurre i cicli di progettazione e migliorare la complessità dei prodotti in diversi settori industriali. Entrambe le aziende hanno espresso entusiasmo per le opportunità di innovazione e risoluzione delle sfide ingegneristiche all’interno dell’ecosistema NVIDIA Omniverse.  

Nuove Piattaforme di Networking per l’IA. Inoltre, NVIDIA ha presentato le sue ultime piattaforme di networking, Quantum-X800 InfiniBand e Spectrum-X800 Ethernet, le prime del settore a offrire un throughput end-to-end di 800 Gb/s. Queste nuove piattaforme sono progettate per migliorare i carichi di lavoro di calcolo e intelligenza artificiale in vari data center, offrendo un significativo aumento delle prestazioni rispetto ai predecessori. Le piattaforme Quantum-X800 e Spectrum-X800 sono fondamentali per raggiungere l’IA generativa su larga scala, e hanno già trovato adozione da parte di giganti tecnologici come Microsoft Azure e Oracle Cloud Infrastructure.

Nuove schede grafiche. Durante la conferenza GTC 2024, il CEO di NVIDIA ha svelato la nuova GPU Blackwell B200, destinata a ridefinire il panorama dei supercomputer dedicati all’intelligenza artificiale grazie alla sua potenza di calcolo senza precedenti. Questo nuovo chip prende il posto dei modelli H100 e H200 e rappresenta un notevole salto tecnologico. NVIDIA ha già confermato che arriverà il superchip Grace Blackwell GB200, che combinerà la nuova GPU Blackwell B200 con il processore Grace. Si prevede che le GPU Blackwell consumer arriveranno non prima del 2025 e saranno notevolmente diverse dalle soluzioni per datacenter. La Blackwell B200 utilizza un design multi-chiplet per garantire prestazioni eccezionali. Si tratta di una soluzione con due die abbinati, che operano come un unico chip grazie a una connessione VI-HBI da 10TB/s. Con 208 miliardi di transistor, più del doppio rispetto alla H100, la B200 offre una potenza di 20 PetaFLOPS per l’IA, oltre a 192GB di memoria HBM3 e una larghezza di banda di 8 TB/s. Inoltre, con l’introduzione di NVLink di quinta generazione e NVLink Switch 7.2T, la scalabilità è garantita fino a 576 GPU, rivoluzionando l’interconnettività nell’ecosistema dell’IA. I SuperPOD con B200 offriranno fino a 11,5 ExaFLOPS di potenza per le IA, grazie al nuovo sistema GB200 NVL72 che sfrutta la GPU Blackwell B200 in combinazione con CPU Grace. Questi sistemi, con server 1U dotati di due CPU Grace e quattro B200, raggiungono 80 PetaFLOPS di inferenza IA FP4 e 40 PetaFLOPS di inferenza IA FP8. NVIDIA ha anche aggiornato i suoi SuperPOD, ora integrando le nuove GPU Blackwell, offrendo prestazioni senza precedenti fino a 11,5 ExaFLOPS di inferenza IA FP4 in un singolo SuperPOD. Con queste tecnologie all’avanguardia, NVIDIA continua a guidare l’avanzata e lo sviluppo dell’IA, superando i limiti tecnologici e offrendo sistemi capaci di rivoluzionare il settore delle intelligenze artificiali. La Blackwell B200 si preannuncia come una soluzione leader nel settore, pronta a dare un forte impulso alla crescita delle applicazioni di intelligenza artificiale.

Microservizi AI per le Imprese. Infine, NVIDIA ha presentato una nuova suite di microservizi di AI generativa, denominata NVIDIA NIM, progettata per aiutare le aziende a distribuire applicazioni personalizzate in modo più efficiente. Questi microservizi, eseguiti sulla piattaforma NVIDIA CUDA, consentono di ottimizzare l’inferenza su un’ampia gamma di modelli di AI, riducendo i tempi di implementazione da settimane a minuti. I microservizi di AI di livello enterprise di NVIDIA sono parte dell’offerta NVIDIA AI Enterprise 5.0 e sono accessibili dai principali servizi cloud come Amazon SageMaker, Google Kubernetes Engine e Microsoft Azure AI.

Nuova piattaforma di ricerca 6G. NVIDIA ha lanciato la piattaforma di ricerca 6G per la tecnologia wireless guidata dall’intelligenza artificiale, annunciando un nuovo capitolo nell’evoluzione delle comunicazioni wireless. La piattaforma NVIDIA 6G Research Cloud, presentata a San Jose, California, è progettata per accelerare lo sviluppo di soluzioni 6G integrando l’intelligenza artificiale nella tecnologia delle reti di accesso radio (RAN). Questa iniziativa mira a creare un ecosistema aperto e flessibile che supporti una vasta gamma di dispositivi connessi senza soluzione di continuità alle infrastrutture cloud. Fra i partner iniziali si annoverano aziende leader del settore come Ansys, Arm, Nokia e Samsung, sottolineando l’importanza della piattaforma nell’innovazione nello spazio 6G. La piattaforma comprende elementi fondamentali come il Digital Twin for 6G di NVIDIA Aerial Omniverse, che consente simulazioni precise dei sistemi 6G, il CUDA-Accelerated RAN di NVIDIA Aerial per testare reti 6G in tempo reale e il Neural Radio Framework di NVIDIA Sionna per l’addestramento di modelli di intelligenza artificiale su vasta scala. Con questa convergenza di 6G e AI, si prevede una trasformazione nel panorama tecnologico, con connettività senza soluzione di continuità e sistemi intelligenti che ridefiniscono le interazioni digitali.

In conclusione, le nuove partnership e soluzioni presentate da NVIDIA rappresentano una svolta significativa nel settore dei chip e dell’intelligenza artificiale. Con un’attenzione costante all’innovazione e alla collaborazione, NVIDIA continua a guidare il cammino verso un futuro in cui le tecnologie avanzate come l’IA sono alla portata di tutti, trasformando radicalmente industrie e settori.

Continua a leggere su Fidelity News