NVIDIA H100 141 GB NVL Original jetzt verfügbar: Definition der KI -Leistung im Maßstab neu definiert
Shenzhen, China - Juli 2025 - In einem Durchbruch für KI und großes Sprachmodell Computing hat Nvidia die gestartetH100 141GBNVL Original, eine Lösung der nächsten Generation, die die Grenzen der KI-Leistung, der Speicherkapazität und der Energieeffizienz überschreitet. Das H100 NVL 141 GB-Modul wurde mit Berücksichtigung von KI-Workloads erstellt und ist auf die Anforderungen der heutigen hochmodernen Rechenzentren, des Sprachmodelltrainings und der Inferenzung bei beispielloser Geschwindigkeit und Skalierung zugeschnitten.
3x schneller LLM -Inferenz - Angetrieben von NVL Architecture
Im Gegensatz zu Standard-SXM- oder PCIE-GPUs ist der H100 NVL ein einzigartiger Formfaktor mit zwei über NVLink verbundenen H100-GPUs und als Dual-GPU-Lösung mit 141 GB gemeinsamer HBM3-Speicher und einer Speicherbandbreite von über 7 TB/s. Dies macht es zur idealen GPU für:
GPT-3, GPT-4 und Lama 3 Training
Große Transformatorinferenz Workloads
Multimodale KI-Aufgaben (Visionsprachen, Sprache usw.)
Laut den internen Tests von NVIDIA bietet H100 NVL im Vergleich zum A100 80 GB bis zu 12x eine schnellere Schlussfolgerung für Großsprachenmodelle.
We use cookies to offer you a better browsing experience, analyze site traffic and personalize content. By using this site, you agree to our use of cookies.
Privacy Policy