ASUS kündigte heute seine Teilnahme am OCP Global Summit 2024 an. Mit fast 30 Jahren Erfahrung in der Serverbranche blickt ASUS auf eine lange Geschichte der Zusammenarbeit mit Cloud-Service-Anbietern zurück, die 2008 mit der Entwicklung von Server-Mainboards für führende Cloud-Rechenzentren begann. Aufbauend auf dieser starken Grundlage an Mainboard-Expertise hat ASUS ein umfassendes Lineup an KI-Servern entwickelt, die auf dem Summit vorgestellt werden und das Engagement des Unternehmens für die Förderung von KI- und Rechenzentrumstechnologien unterstreichen.
Fortschrittliche KI mit NVIDIA Blackwell
Um die KI-Innovation weiter voranzutreiben, stellt ASUS seine Lösungen auf Basis der NVIDIA Blackwell-Plattform vor, die für generative KI-Anwendungsfälle entwickelt wurden und eine neue Ära der Rechenzentrumsleistung einläuten.
Der ASUS ESC AI POD ist eine bahnbrechende Rack-Lösung mit dem NVIDIA GB200 NVL72 System, das 36 NVIDIA Grace CPUs und 72 NVIDIA Blackwell GPUs in einer Rack-Scale NVIDIA NVLink-Domain kombiniert und so wie eine einzige massive GPU funktioniert. Es bietet sowohl eine Liquid-to-Air- als auch eine Liquid-to-Liquid-Kühlung für optimale Effizienz eines einzelnen ESC AI PODs oder des gesamten Rechenzentrums. Der ESC AI POD wurde entwickelt, um die Inferenz von großen Sprachmodellen (LLM) zu beschleunigen und bietet Echtzeitleistung für ressourcenintensive Anwendungen wie Sprachmodelle mit Billionen von Parametern. Natürlich wird dieses Rack-Variante der nächsten Generation durch eine Reihe von ASUS-exklusiven Softwarelösungen, Systemverifizierungsmethoden und Remote-Deployment-Strategien unterstützt, die die KI-Entwicklung sowie das Scale-up und Scale-out für Rechenzentren jeder Größe beschleunigen.
Zweitens ist der ASUS ESC NM2-E1, ein 2U-Server mit der NVIDIA GB200 NVL2-Plattform, speziell für generative KI und HPC entwickelt worden und bietet eine hohe Kommunikationsbandbreite. Er wurde für die Optimierung des gesamten NVIDIA-Software-Stacks entwickelt und bietet eine außergewöhnliche Plattform für KI-Entwickler und Forscher, die Innovationen vorantreiben wollen.
Optimierung der KI-Leistung mit NVIDIA MGX Architektur und NVIDIA H200 Tensor Core Grafikkarten
ASUS präsentiert außerdem den ASUS 8000A-E13P, einen 4U-Server, der bis zu acht NVIDIA H200 Tensor Core GPUs unterstützt. Er ist vollständig kompatibel mit der NVIDIA MGX Architektur und wurde für die schnelle Bereitstellung in groß angelegten KI-Infrastrukturen in Unternehmen entwickelt. Konfiguriert mit einer NVIDIA 2-8-5-Topologie (CPU-GPU-DPU/NIC) und vier ConnectX-7- oder BlueField-3SuperNICs mit hoher Bandbreite, verbessert er den Ost-West-Verkehr und die gesamte Systemleistung.
Christoph Miklos ist nicht nur der „Papa“ von Game-/Hardwarezoom, sondern seit 1998 Technik- und Spiele-Journalist. In seiner Freizeit liest er DC-Comics (BATMAN!), spielt leidenschaftlich gerne World of Warcraft und schaut gerne Star Trek Serien.
Kommentar schreiben