Nvidia Corp. hat heute eine großes Update zu seiner AI Enterprise-Software-Suite, wobei Version 2.1 Unterstützung für wichtige Tools und Frameworks hinzufügt, mit denen Unternehmen Workloads für künstliche Intelligenz und maschinelles Lernen ausführen können.
Im August letzten Jahres gestartet, Nvidia AI Enterprise ist eine End-to-End-KI-Software-Suite, die verschiedene KI- und maschinelle Lerntools bündelt, die für die Ausführung auf Nvidias Grafikprozessoren und anderer Hardware optimiert wurden.
Zu den Highlights der heutigen Version gehört laut Nvidia die Unterstützung für fortgeschrittene Data-Science-Anwendungsfälle mit der neuesten Version von Nvidia Rapids, eine Suite von Open-Source-Softwarebibliotheken und Anwendungsprogrammierschnittstellen zum Ausführen von Data-Science-Pipelines vollständig auf GPUs. Laut Nvidia ist Rapids in der Lage, die Trainingszeiten für KI-Modelle von Tagen auf nur wenige Minuten zu reduzieren. Die neueste Version dieser Suite fügt eine größere Unterstützung für Daten-Workflows hinzu, indem neue Modelle, Techniken und Datenverarbeitungsfunktionen hinzugefügt werden.
Nvidia AI Enterprise 2.1 unterstützt auch die neueste Version der Nvidia TAO-Toolkit, ein Low-Code- und No-Code-Framework zur Feinabstimmung vortrainierter KI- und maschineller Lernmodelle mit benutzerdefinierten Daten, um genauere Computervisions-, Sprach- und Sprachverständnismodelle zu erstellen. Die Version TAO Toolkit 22.05 bietet neue Funktionen wie die Integration von REST-APIs, den Import vortrainierter Gewichtungen, die TensorBoard-Integration und neue vortrainierte Modelle.
Um KI in Hybrid- und Multicloud-Umgebungen zugänglicher zu machen, fügt Nvidia hinzu, dass die neueste Version von AI Enterprise Unterstützung für Red Hat OpenShift in öffentlichen Clouds hinzufügt und die bestehende Unterstützung für OpenShift auf Bare-Metal- und VMware vSphere-basierten Bereitstellungen ergänzt. AI Enterprise 2.1 gewinnt weiter an Unterstützung für das Neue Virtuelle Maschinen der Microsoft Azure NVads A10 v5-Serie.
Dies sind die ersten virtuellen GP-Instanzen von Nvidia, die von einer öffentlichen Cloud angeboten werden, und ermöglichen eine erschwinglichere „fraktionierte GPU-Freigabe“, erklärte das Unternehmen. Beispielsweise können Kunden flexible GPU-Größen nutzen, die von einem Sechstel einer A10-GPU bis hin zu zwei vollen A10-GPUs reichen.
Ein letztes Update betrifft Domino Data Lab Inc., dessen Unternehmen MLOps-Plattform wurde jetzt für AI Enterprise zertifiziert. Nvidia erklärte, dass diese Zertifizierung dazu beiträgt, Bereitstellungsrisiken zu mindern und Zuverlässigkeit und hohe Leistung für MLOps mit AI Enterprise zu gewährleisten. Durch die gemeinsame Nutzung der beiden Plattformen können Unternehmen von Workload-Orchestrierung, Self-Service-Infrastruktur und verstärkter Zusammenarbeit sowie kostengünstiger Skalierung auf virtualisierten und Mainstream-beschleunigten Servern profitieren, so Nvidia.
Für Unternehmen, die daran interessiert sind, die neueste Version von AI Enterprise auszuprobieren, bietet Nvidia einige Neuerungen an LaunchPad-Labs damit sie damit spielen können. LaunchPad ist ein Service, der sofortigen, kurzfristigen Zugriff auf AI Enterprise in einer privaten beschleunigten Computerumgebung mit praktischen Labors bietet, die Kunden zum Experimentieren mit der Plattform nutzen können. Die neuen Labs umfassen Multinode-Schulungen für die Image-Klassifizierung auf VMware vSphere mit Tanzu, die Möglichkeit, ein XGBoost-Modell zur Betrugserkennung mit Nvidia Triton bereitzustellen, und vieles mehr.