Hewlett Packard Enterprise e NVIDIA lanciano “NVIDIA AI Computing by HPE” per accelerare la rivoluzione industriale dell’AI generativa
La nuova lineup offre la prima soluzione di AI chiavi in mano su cloud privato, che include un'elaborazione accelerata sostenibile e servizi completi del ciclo di vita per ottimizzare il time to value dell'AI
del 20/06/24 - di HPE
Las Vegas – 19 giugno, 2024 – HPE Discover 2024 – Hewlett Packard Enterprise (NYSE: HPE) e NVIDIA hanno annunciato oggi NVIDIA AI Computing by HPE, un portafoglio di soluzioni AI sviluppate e commercializzate congiuntamente che consentono alle aziende di accelerare l'adozione dell'AI generativa.
Tra le offerte principali del portafoglio figura HPE Private Cloud AI, una soluzione unica nel suo genere che offre la più profonda integrazione finora realizzata di computing, networking e software NVIDIA AI con lo storage, il calcolo e il cloud HPE GreenLake. L'offerta consente alle aziende di ogni dimensione di ottenere un percorso efficiente dal punto di vista energetico, rapido e flessibile per sviluppare e distribuire in modo sostenibile le applicazioni di AI generativa. Alimentato dal nuovo copilot OpsRamp AI che aiuta le operazioni IT a migliorare il carico di lavoro e l'efficienza IT, HPE Private Cloud AI include un'esperienza cloud self-service con gestione completa del ciclo di vita ed è disponibile in quattro configurazioni di dimensioni adeguate a supportare un'ampia gamma di carichi di lavoro e casi d'uso AI.
Tutte le offerte e i servizi NVIDIA AI Computing by HPE saranno disponibili grazie a una strategia di go-to-market congiunta che comprende vendite, team e partner di canale, formazione e una rete globale di system integrator - tra cui Deloitte, HCLTech, Infosys, TCS e Wipro - in grado di aiutare le aziende di diversi settori industriali a eseguire carichi di lavoro AI complessi.
Annunciato durante il keynote di HPE Discover da Antonio Neri, Presidente e CEO di HPE, a cui si è unito Jensen Huang, fondatore e CEO di NVIDIA, NVIDIA AI Computing by HPE segna l'espansione di una partnership decennale e riflette il significativo impegno di tempo e risorse da parte delle due aziende.
“L’AI generativa ha un potenziale immenso per la trasformazione delle imprese, ma la complessità e la frammentazione delle tecnologie AI comporta troppi rischi e barriere che ne ostacolano l'adozione su larga scala da parte delle imprese e possono metterne a rischio il bene più prezioso: i dati proprietari”, ha dichiarato Neri. “Per liberare l'immenso potenziale dell’AI generativa per le aziende, HPE e NVIDIA hanno sviluppato insieme un cloud privato AI chiavi in mano che consentirà loro di concentrare le proprie risorse sullo sviluppo di nuovi casi d'uso in grado di incrementare la produttività e sbloccare nuove occasioni di business”.
"L'IA generativa e l'accelerazione del computing stanno alimentando una trasformazione fondamentale, che vede tutti i settori industriali correre per unirsi a questa rivoluzione industriale", ha dichiarato Huang. "Mai prima d'ora NVIDIA e HPE hanno integrato così profondamente le proprie tecnologie - combinando l'intero stack di NVIDIA AI computing con la tecnologia di cloud privato di HPE - per fornire ai clienti enterprise e ai professionisti dell'AI l'infrastruttura di computing e i servizi più avanzati per espandere la frontiera dell'AI".
Il portafoglio Private Cloud AI sviluppato da HPE e NVIDIA
HPE Private Cloud AI offre un'esperienza unica, basata sul cloud, per accelerare l'innovazione e il ritorno sugli investimenti, gestendo al tempo stesso i rischi aziendali derivanti dall'AI. La soluzione offre:
• Supporto per l'inferenza, il fine-tuning e i carichi di lavoro RAG (Retrieval Augmented Generation) AI che utilizzano dati proprietari.
• Controllo aziendale per i requisiti di privacy, sicurezza, trasparenza e governance dei dati.
• Esperienza cloud con capacità ITOps e AIOps per aumentare la produttività.
• Un percorso rapido e flessibile per soddisfare le opportunità e la crescita future dell'AI.
Stack software integrato per l'intelligenza artificiale e i dati in HPE Private Cloud AI
Alla base dello stack di software AI e dati si trova la piattaforma software NVIDIA AI Enterprise, che include i microservizi di inferenza NVIDIA NIM™.
NVIDIA AI Enterprise accelera le pipeline di data science e semplifica lo sviluppo e l'implementazione di copilot “production-grade” e di altre applicazioni GenAI. NVIDIA NIM, incluso in NVIDIA AI Enterprise, offre microservizi di facile utilizzo per l'inferenza ottimizzata dei modelli di intelligenza artificiale, offrendo una transizione fluida dal prototipo alla distribuzione sicura dei modelli di intelligenza artificiale in una varietà di casi d'uso.
A complemento di NVIDIA AI Enterprise e NVIDIA NIM, il software HPE AI Essentials offre un set pronto per l'esecuzione di strumenti integrati per l'AI e gli strumenti per la data foundation con un piano di controllo centralizzato che fornisce soluzioni adattabili, supporto enterprise continuo e servizi di AI affidabili, come la conformità dei dati e dei modelli e le funzionalità estese che assicurano che le pipeline di AI siano conformi, spiegabili e riproducibili durante il ciclo di vita dell'AI.
Per offrire prestazioni ottimali per lo stack software di AI e dati, HPE Private Cloud AI offre uno stack di infrastruttura AI completamente integrato che include networking Ethernet NVIDIA Spectrum-X™, la soluzione HPE “GreenLake for File” e server HPE ProLiant con supporto per NVIDIA L40, le GPU Tensor Core H100 NVL e la piattaforma NVIDIA GH200 NVL2.
Esperienza cloud grazie ad HPE GreenLake Cloud
HPE Private Cloud AI offre un'esperienza cloud self-service abilitata dal cloud HPE GreenLake. Attraverso un piano di controllo basato su un'unica piattaforma, i servizi cloud HPE GreenLake offrono gestibilità e osservabilità per automatizzare, orchestrare e gestire endpoint, carichi di lavoro e dati in ambienti ibridi. Questo include metriche di sostenibilità per i carichi di lavoro e gli end points.
Il cloud HPE GreenLake, l'osservabilità dell'infrastruttura e l'assistente copilot AI OpsRamp
Le operazioni IT di OpsRamp sono integrate con il cloud HPE GreenLake per offrire osservabilità e AIOps a tutti i prodotti e servizi HPE. OpsRamp offre ora l'osservabilità per lo stack di elaborazione accelerata NVIDIA end-to-end, che comprende il software NVIDIA NIM e AI, le GPU NVIDIA Tensor Core e i cluster AI, nonché gli switch NVIDIA Quantum InfiniBand e NVIDIA Spectrum Ethernet. Gli amministratori IT possono ottenere approfondimenti per identificare le anomalie e monitorare l'infrastruttura e i carichi di lavoro AI in ambienti ibridi e multi-cloud.
Il nuovo copilot operativo OpsRamp utilizza la piattaforma di computing accelerato di NVIDIA per analizzare grandi insiemi di dati con un assistente conversazionale, aumentando la produttività della gestione delle operazioni.
OpsRamp si integrerà anche con le API di CrowdStrike, in modo che i clienti possano visualizzare una mappa unificata dei servizi di sicurezza degli endpoint su tutta l'infrastruttura e le applicazioni.
Accelerare il time to value con l'AI - collaborazione ampliata con system integrator globali
Per accelerare il time to value delle imprese nello sviluppo di soluzioni e casi d'uso dell'intelligenza artificiale focalizzati sul settore e con chiari vantaggi di business, Deloitte, HCLTech, Infosys, TCS e WIPRO hanno annunciato il loro supporto al portafoglio NVIDIA AI Computing by HPE e HPE Private Cloud AI come parte delle loro soluzioni e servizi strategici per l’intelligenza artificiale.
HPE aggiunge il supporto alle ultime GPU, CPU e Superchip di NVIDIA
• HPE Cray XD670 supporta otto GPU NVIDIA H200 NVL Tensor Core ed è ideale per creare LLM.
• Il server HPE ProLiant DL384 Gen12 con NVIDIA GH200 NVL2 è ideale per gli utilizzatori di LLM che utilizzano modelli più grandi o per applicazioni RAG.
• Il server HPE ProLiant DL380a Gen12 con supporto fino a otto GPU NVIDIA H200 NVL Tensor Core è ideale per utilizzatori LLM che cercano flessibilità per scalare i propri carichi di lavoro GenAI.
• HPE sarà pronta a supportare il GB200 NVL72 / NVL2 di NVIDIA e le nuove architetture NVIDIA Blackwell, NVIDIA Rubin e NVIDIA Vera.
File Storage ad alta densità certificato per i sistemi NVIDIA DGX BasePOD e OVX
HPE GreenLake for File Storage ha ottenuto la certificazione NVIDIA DGX BasePOD e la convalida dello storage NVIDIA OVXTM, offrendo ai clienti una soluzione di file storage aziendale comprovata per l'accelerazione dei carichi di lavoro AI, GenAI e GPU-intensive con grande scalabilità. HPE sarà un partner time-to-market nei prossimi programmi di certificazione dello storage con architettura di riferimento NVIDIA.
Disponibilità
• La disponibilità generale di HPE Private Cloud AI è prevista per l'autunno 2024.
• Il server HPE ProLiant DL380a Gen12 con GPU NVIDIA H200 NVL Tensor Core sarà generalmente disponibile per l'autunno del 2024.
• Il server HPE ProLiant DL384 Gen12 con doppia GPU NVIDIA GH200 NVL2 sarà generalmente disponibile per l'autunno 2024.
• Il server HPE Cray XD670 con NVIDIA H200 NVL sarà generalmente disponibile per l'estate del 2024.