Home » Nvidia kündigt neue Hardware, Software und Dienstleistungen für KI an

Nvidia kündigt neue Hardware, Software und Dienstleistungen für KI an

by v

Nvidia hat diese Woche seine KI-Muskeln spielen lassen und eine ganze Reihe von Produkten der nächsten Generation vorgestellt, die das neue Zeitalter der künstlichen Intelligenz einläuten sollen. Von einem bahnbrechenden, auf KI fokussierten Superchip bis hin zu intuitiveren Entwickler-Tools – Nvidia hat eindeutig die Absicht, der Motor der KI-Revolution zu bleiben.

Die diesjährige Nvidia-Präsentation auf der SIGGRAPH 2023 – einer jährlichen Konferenz, die sich mit Computergrafik-Technologie und -Forschung beschäftigt – drehte sich fast ausschließlich um KI. Nvidia-CEO Jensen Huang sagte, dass generative KI einen Wendepunkt darstellt, der mit der Internetrevolution vor Jahrzehnten vergleichbar ist. Er sagte, die Welt bewege sich auf eine neue Ära zu, in der die meisten Interaktionen zwischen Mensch und Computer durch KI unterstützt werden.

„Jede einzelne Anwendung, jede einzelne Datenbank, womit auch immer Sie innerhalb eines Computers interagieren, Sie werden wahrscheinlich zuerst mit einem Large Language Model zu tun haben,“ sagte Huang.

Durch die Kombination von Software und spezialisierter Hardware positioniert sich Nvidia als das fehlende Glied, das das volle Potenzial der KI ausschöpft.

Grace Hopper Superchip debütiert für KI-Training

Der Star der Messe war der neue Grace Hopper Superchip GH200, die erste GPU mit High Bandwidth Memory 3e (HBM3e). Mit einer Bandbreite von bis zu 2 TB/s bietet HBM3e fast die dreifache Bandbreite der vorherigen Generation HBM2e.

Nvidia definiert seinen Grace-Hopper-Chip als „beschleunigte CPU, die von Grund auf für KI- und High-Performance-Computing-Anwendungen (HPC) im großen Maßstab entwickelt wurde“. Der Chip ist das Ergebnis der Kombination von Nvidias Grace- (Hochleistungs-CPUs) und Hopper-Architekturen (Hochleistungs-GPUs), wobei der Name an die berühmte amerikanische Informatikerin erinnert.

Laut Huang kann der GH200 für große KI-Modelle die bis zu sechsfache Trainingsleistung von Nvidias Flaggschiff-GPU A100 liefern. Der GH200 wird voraussichtlich im 2. Quartal 2024 verfügbar sein.

„GH200 ist eine neue Engine für Training und Inferenz“, sagte Huang und fügte hinzu, dass „zukünftige Spitzenmodelle auf diese Weise gebaut werden.“ Er sagte, dass dieser neue Superchip „wahrscheinlich sogar Crysis“ ausführt – ein Ego-Shooter-Videospiel mit notorisch hohen Hardware-Anforderungen.

Ada Lovelace GPU Architecture Comes to Workstations

Nvidia hatte auch einige Neuigkeiten für Heimanwender. Der Chiphersteller stellte seine neuesten RTX-GPUs für Workstations vor, die auf der Ada Lovelace-Architektur basieren: die RTX 5000, RTX 4500 und RTX 4000. Mit bis zu 7680 CUDA-Kernen bieten diese Grafikprozessoren eine bis zu fünfmal höhere Leistung als die Vorgängergeneration für KI-Entwicklung, 3D-Rendering, Videobearbeitung und andere anspruchsvolle professionelle Workflows.

Das Flaggschiff RTX 6000 Ada bleibt die erste Wahl für Profis, die maximale Leistung benötigen. Mit dem neuen Lineup wird die Ada Lovelace-Architektur jedoch auf einen breiteren Benutzerkreis ausgeweitet. Die RTX 4000, 4500 und 5000 werden ab dem 3. Quartal 2022 bei großen OEMs erhältlich sein.

Diese neuen Angebote sind jedoch nicht billig. Die Preise für die RTX 4000 beginnen bei 1.250 US-Dollar und für die RTX 5000 bei rund 4.000 US-Dollar.

Für professionelle Anwender und Unternehmen, die ihre KI-Initiativen auf die nächste Stufe heben wollen, hat Nvidia seinen neuen Rechenzentrums-GPU Nvidia L40 vorgestellt. Mit bis zu 18.176 CUDA-Kernen und 48 GB vRAM bietet die L40 eine bis zu 9,2 Mal höhere KI-Trainingsleistung als die A100.

Nvidia sagt, dass globale Serverhersteller planen, den L40 in ihren Systemen anzubieten, so dass Unternehmen gigantische KI-Modelle mit optimaler Effizienz und Kosteneinsparungen trainieren können. In Verbindung mit Nvidia-Software könnte der L40 eine Komplettlösung für Unternehmen darstellen, die sich mit KI beschäftigen.

Cloud-native Microservices verbessern die Videokommunikation

Nvidia setzt seinen Vorstoß in die Entwicklung von Videoanwendungen fort und kündigte außerdem eine neue Suite von GPU-beschleunigten Software Development Kits und einen Cloud-nativen Dienst für die Videobearbeitung namens Maxine an.

Maxine wird von KI unterstützt und bietet Funktionen wie Rauschunterdrückung, Hochskalierung der Auflösung und simulierten Augenkontakt für Videogespräche, so dass Benutzer von nahezu überall aus natürliche Gespräche führen können.

Laut Nvidia haben Partner aus dem Bereich Visual Storytelling Maxine bereits in Workflows wie Videokonferenzen und Videobearbeitung integriert

Toolkit vereinfacht generative KI-Entwicklung

Schließlich kündigte Nvidia die bevorstehende Veröffentlichung von AI Workbench an, einer einheitlichen Plattform, die die Entwicklung, das Testen und den Einsatz von generativen KI-Modellen vereinfacht.

Durch die Bereitstellung einer einzigen Schnittstelle zur Verwaltung von Daten, Modellen und Ressourcen auf verschiedenen Rechnern ermöglicht AI Workbench eine nahtlose Zusammenarbeit und Skalierung von einer lokalen Workstation bis hin zu einer Cloud-Infrastruktur.

Mit seinem neuesten Angebot, das Hardware, Software und Dienstleistungen umfasst, will Nvidia die Einführung von KI in Unternehmen durch ein umfassendes Technologiepaket beschleunigen, das für die Bewältigung der zahlreichen Komplexitäten dieser Technologie entwickelt wurde.

Related Posts

Leave a Comment