Nutzen Sie die Leistungsfähigkeit von Grafikprozessoren, um Ihre Workflows für Datenwissenschaft, maschinelles Lernen und KI ganz einfach zu beschleunigen.
Führen Sie komplette Workflows für die Datenwissenschaft mit Hochgeschwindigkeits-GPU-Computing und Parallelisieren von Datenladungen, Datenmanipulation und maschinellem Lernen aus – für 50-mal schnellere durchgehende Pipelines für Datenwissenschaft.
Datenwissenschaft und maschinelles Lernen (ML) sind das größte Rechensegment weltweit. Bereits geringe Genauigkeitsverbesserungen bei Analysemodellen schlagen sich in Milliardenbeträgen im Endergebnis nieder. Um die besten Modelle zu erstellen, arbeiten Datenwissenschaftler daran, hochpräzise Ergebnisse und leistungsfähige Modelle zu trainieren, zu bewerten, zu iterieren und umzutrainieren. Mit RAPIDS™ dauern Prozesse, die Tage in Anspruch nahmen, nur wenige Minuten, wodurch wertgenerierende Modelle einfacher und schneller erstellt und bereitgestellt werden können. Mit NVIDIA LaunchPad können Sie praxisnahe RAPIDS-Kurse nutzen, und mit NVIDIA AI Enterprise können wir Ihr Unternehmen bei allen Aspekten Ihrer KI-Projekte unterstützen.
Bei Workflows gibt es viele Iterationen bei der Umwandlung von Rohdaten in Trainingsdaten. Diese werden in viele Algorithmenkombinationen eingespeist, die wiederum einer Hyperparameterabstimmung unterzogen werden, um die passenden Kombinationen von Modellen, Modellparametern und Datenfunktionen für optimale Genauigkeit und Leistung zu finden.
RAPIDS ist eine Suite von quelloffenen Softwarebibliotheken und APIs für die Ausführung von Pipelines für Datenwissenschaft rein auf GPUs – und kann die Trainingszeiten von Tagen auf Minuten verkürzen. RAPIDS basiert auf NVIDIA® CUDA-X AI™ und vereint jahrelange Entwicklung in den Bereichen Grafik, maschinelles Lernen, Deep Learning, High Performance Computing (HPC) und mehr.
Mit Datenwissenschaft können Sie mit mehr Rechenleistung schneller Erkenntnisse gewinnen. RAPIDS nutzt NVIDIA CUDA® im Hintergrund, um Ihre Arbeitsabläufe zu beschleunigen, indem sie die gesamte Pipeline zum Trainieren der Datenwissenschaft auf GPUs ausführen. Dadurch kann die Trainingszeit Ihres Modells von Tagen auf Minuten verkürzt werden.
Indem die Komplexität der Arbeit mit dem Grafikprozessor und sogar die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.
RAPIDS kann an jedem beliebigen Ort – in der Cloud oder vor Ort – ausgeführt werden. Sie können ganz einfach von einer Workstation auf Server mit mehreren Grafikprozessoren skalieren und es in der Produktion mit Dask, Spark, MLFlow und Kubernetes bereitstellen.
Der Zugriff auf zuverlässigen Support ist für Unternehmen, die Datenwissenschaft für geschäftskritische Erkenntnisse nutzen, oft essenziell. Der NVIDIA Enterprise Support ist mit NVIDIA AI Enterprise, einer End-to-End-KI-Softwaresuite, global verfügbar und umfasst garantierte Reaktionszeiten, vorrangige Sicherheitsbenachrichtigungen, regelmäßige Updates und Kontakt zu KI-Experten von NVIDIA.
Die Ergebnisse zeigen, dass Grafikprozessoren bei kleinen und großen Big-Data-Analyseproblemen für große Kosten- und Zeitersparnisse sorgen. Mithilfe vertrauter APIs wie Pandas und Dask kann RAPIDS bei einer Skalierung mit 10 Terabyte bis zu 20-mal schneller auf Grafikprozessoren eingesetzt werden als auf der höchsten CPU-Baseline. Mit nur 16 NVIDIA DGX A100s wird die Leistung von 350 Servern erreicht – damit ist die Lösung von NVIDIA 7-mal kostengünstiger und bietet gleichzeitig eine Leistung auf HPC-Niveau.
Bei gängigen Datenverarbeitungsaufgaben gibt es viele Schritte (Datenpipelines), die mit Hadoop nicht effizient bewältigt werden können. Apache Spark löste dieses Problem, indem alle Daten im Systemspeicher behalten wurden, die flexiblere und komplexere Datenpipelines ermöglichten, aber zu neuen Engpässen führten. Die Analyse selbst einiger hundert Gigabyte (GB) an Daten kann auf Spark-Clustern mit Hunderten von CPU-Knoten Stunden, wenn nicht sogar Tage dauern. Um das echte Potenzial der Datenwissenschaft auszuschöpfen, müssen Grafikprozessoren im Mittelpunkt des Rechenzentrums stehen, bestehend aus diesen fünf Elementen: Computing, Networking, Speicher, Bereitstellung und Software. Allgemein gesehen sind durchgängige Datenwissenschafts-Workflows auf Grafikprozessoren 10-mal schneller als auf CPUs.
RAPIDS schafft eine Grundlage für ein neues Hochleistungs-Ökosystem für die Datenwissenschaft und senkt die Einstiegshürden für neue Bibliotheken durch Interoperabilität. Integration mit führenden Datenwissenschafts-Frameworks wie Apache Spark, cuPY, Dask und Numba sowie zahlreichen Deep-Learning-Frameworks wie PyTorch, TensorFlow und Apache MxNet sorgen für wachsende Nutzungsraten und fördern Integrationen mit anderen. RAPIDS und die korrelierenden Frameworks finden Sie im NGC-Katalog.
Integriert in RAPIDS ermöglicht Pender Strich die interaktive visuelle Analyse von Datensätzen mit mehreren Gigabyte selbst auf einer einzelnen GPU in Echtzeit.
Der RAPIDS Accelerator für Apache Spark bietet eine Reihe von Plug-ins für Apache Spark, die GPUs nutzen, um die Verarbeitung über RAPIDS und UCX-Software zu beschleunigen.
RAPIDS basiert auf CUDA-Primitives für die Low-Level-Computing-Optimierung, stellt aber diese GPU-Parallelität und hohe Speicherbandbreite durch benutzerfreundliche Python-Schnittstellen zur Verfügung. RAPIDS unterstützt durchgängige Workflows in der Datenwissenschaft, von der Datenladung über die Vorverarbeitung bis hin zum maschinellen Lernen, Grafikanalysen und Visualisierung. Es handelt sich um einen voll funktionsfähigen Python-Stack, der sich für Big-Data-Anwendungsfälle in Unternehmen skalieren lässt.
Die Funktionen für das Laden und die Vorverarbeitung von Daten sowie für ETL von RAPIDS basieren auf Apache Arrow, um Daten zu laden, zu verbinden, zu aggregieren, zu filtern und anderweitig zu manipulieren – und das alles in einer Pandas-ähnlichen API, die Datenwissenschaftlern vertraut ist. Für Benutzer ist typischerweise eine 10-fache oder noch höhere Beschleunigung zu erwarten.
Die Algorithmen und mathematischen Primitives des maschinellen Lernens von RAPIDS folgen einer bekannten Scikit-Learn-ähnlichen API. Beliebte Tools wie XGBoost, Random Forest und viele andere werden sowohl für einzelne Grafikprozessoren als auch für große Rechenzentren eingesetzt. Bei großen Datensätzen können diese GPU-basierten Implementierungen 10- bis 50-mal schneller abgeschlossen werden als ihre CPU-Äquivalente.
Die Grafikalgorithmen von RAPIDS wie PageRank und Funktionen wie NetworkX nutzen die massive Parallelität von GPUs effizient, um die Analyse großer Grafiken um mehr als das 1000-Fache zu beschleunigen. Untersuchen Sie bis zu 200 Millionen Edges auf einem einzelnen NVIDIA A100 Tensor Core-Grafikprozessor und skalieren Sie auf Milliarden von Edges auf NVIDIA DGX™ A100-Clustern.
Die Visualisierungsfunktionen von RAPIDS unterstützen grafikprozessorbeschleunigte Querfilterung. Inspiriert durch die JavaScript-Version des Originals, ermöglicht es interaktive und superschnelle, mehrdimensionale Filterung von über 100 Millionen tabellarischen Zeilendatensätzen.
Während Deep Learning in Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Empfehlungsdiensten effektiv ist, gibt es Bereiche, in denen der Einsatz nicht zum Mainstream gehört. Die tabellarischen Datenprobleme, die aus den Spalten kategorischer und kontinuierlicher Variablen bestehen, verwenden häufig Methoden wie XGBoost, Gradient Boosting oder lineare Modelle. RAPIDS rationiert die Vorverarbeitung von tabellarischen Daten auf Grafikprozessoren und stellt eine lückenlose Datenübergabe direkt an alle Frameworks zur Verfügung, die DLPack unterstützen, wie PyTorch, TensorFlow und MxNet. Diese Integrationen eröffnen neue Möglichkeiten für die Erstellung von reichhaltigen Workflows, selbst solche, die zuvor aus Vernunft heraus entstanden sind, wie das Rückführen neuer Funktionen, die aus Deep-Learning-Frameworks entstehen, in Algorithmen.
Für den Aufbau von KI-optimierten Rechenzentren im Unternehmen gibt es fünf wesentliche Bestandteile. Der Schlüssel liegt darin, GPUs in den Mittelpunkt zu stellen.
Mit ihrer enormen Rechenleistung sind Systeme mit NVIDIA-GPUs die Computing-Kernkomponente für KI-Rechenzentren. NVIDIA DGX-Systeme bieten bahnbrechende KI-Leistung und können im Durchschnitt 50 Dual-Socket-CPU-Server ersetzen. Dies ist der erste Schritt, um Datenwissenschaftlern die leistungsstärksten Tools der Branche für die Datenerforschung zu bieten.
Indem die Komplexität der Arbeit mit dem Grafikprozessor und die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.
Der direkte Remotezugriff auf den Speicher (RDMA) in NVIDIA Mellanox®-Netzwerkschnittstellen-Controllern (NICs), NCCL2 (NVIDIA-kollektive Kommunikationsbibliothek) und OpenUCX (Open-Source-Point-to-point-Kommunikations-Framework) hat zu enormen Verbesserungen der Trainingsgeschwindigkeit geführt. Mit RDMA können GPUs über Knoten hinweg mit bis zu 100 Gigabit pro Sekunde (Gb/s) direkt miteinander kommunizieren. Sie können mehrere Knoten umfassen und arbeiten, als befänden sie sich auf einem einzigen riesigen Server.
Unternehmen wechseln zu Kubernetes- und Docker-Containern für die Bereitstellung von Pipelines im großen Maßstab. Die Kombination containerisierter Anwendungen mit Kubernetes ermöglicht es Unternehmen, die Prioritäten für die wichtigste Aufgabe zu ändern, und erhöht die Ausfallsicherheit, Zuverlässigkeit sowie Skalierbarkeit von KI-Rechenzentren.
GPUDirect® Storage ermöglicht es sowohl NVMe als auch NVMe over Fabric (NVMe-oF), Daten direkt am Grafikprozessor zu lesen und zu schreiben, unter Umgehung der CPU und des Systemspeichers. Dadurch werden die CPU und der Systemspeicher für andere Aufgaben frei, während jeder Grafikprozessor um Zehnerpotenzen mehr Daten mit bis zu 50 Prozent größerer Bandbreite zugreifen kann.
NVIDIA setzt sich für die Vereinfachung, Vereinheitlichung und Beschleunigung der Datenwissenschaft für die Open-Source-Community ein. Durch die Optimierung des gesamten Stacks – von der Hardware bis hin zur Software – und durch die Beseitigung von Engpässen für iterative Datenwissenschaft hilft NVIDIA Datenwissenschaftlern überall, mehr denn je mit weniger zu erreichen. Dies bedeutet für Unternehmen mehr Wert aus ihren wertvollsten Ressourcen: ihren Daten und Datenwissenschaftlern. Als Apache 2.0-Open-Source-Software bringt RAPIDS ein Ökosystem auf GPUs zusammen.