Home » Nvidia zapowiada nowy sprzęt, oprogramowanie i usługi dla sztucznej inteligencji

Nvidia zapowiada nowy sprzęt, oprogramowanie i usługi dla sztucznej inteligencji

by v

Nvidia napięła w tym tygodniu mięśnie sztucznej inteligencji, prezentując szereg produktów nowej generacji, które mają zapoczątkować nową erę sztucznej inteligencji. Od tego, co określiła jako przełomowy superchip skoncentrowany na sztucznej inteligencji, po bardziej intuicyjne narzędzia programistyczne, Nvidia wyraźnie zamierza pozostać silnikiem napędzającym rewolucję AI.

Tegoroczna prezentacja Nvidii na SIGGRAPH 2023 – corocznej konferencji poświęconej technologii grafiki komputerowej i badaniom – była prawie w całości poświęcona sztucznej inteligencji. Dyrektor generalny Nvidii, Jensen Huang, powiedział, że generatywna sztuczna inteligencja stanowi punkt zwrotny podobny do rewolucji internetowej sprzed dziesięcioleci. Powiedział, że świat zmierza w kierunku nowej ery, w której większość interakcji między człowiekiem a komputerem będzie napędzana przez sztuczną inteligencję.

„Każda pojedyncza aplikacja, każda pojedyncza baza danych, cokolwiek, z czym wchodzisz w interakcję na komputerze, prawdopodobnie najpierw będziesz angażować się w model Large Language” – powiedział Huang.

Łącząc oprogramowanie i wyspecjalizowany sprzęt, Nvidia pozycjonuje się jako brakujące ogniwo realizujące pełny potencjał AI.

Grace Hopper Superchip debiutuje dla treningu AI

Gwiazdą pokazu był nowy układ Grace Hopper Superchip GH200, pierwszy procesor graficzny z pamięcią High Bandwidth Memory 3e (HBM3e). Dzięki przepustowości do 2 TB/s, HBM3e zapewnia prawie trzykrotnie większą przepustowość niż poprzednia generacja HBM2e.

Nvidia definiuje swój układ Grace Hopper jako „akcelerowany procesor zaprojektowany od podstaw dla aplikacji AI i obliczeń o wysokiej wydajności (HPC) na gigantyczną skalę”. Układ jest wynikiem połączenia architektur Grace (wysokowydajne CPU) i Hopper (wysokowydajne GPU) firmy Nvidia, a jego nazwa nawiązuje do słynnej amerykańskiej informatyk.

Według Huanga, GH200 może zapewnić nawet sześciokrotnie wyższą wydajność treningową niż flagowy procesor graficzny Nvidii A100 dla dużych modeli sztucznej inteligencji. Oczekuje się, że GH200 będzie dostępny w 2. kwartale 2024 roku.

„GH200 to nowy silnik do szkolenia i wnioskowania” – powiedział Huang, dodając, że „przyszłe modele frontier będą budowane w ten sposób”. Powiedział, że ten nowy superprocesor „prawdopodobnie uruchomi nawet Crysis” – pierwszoosobową strzelankę wideo o notorycznie wysokich wymaganiach sprzętowych.

Ada Lovelace GPU Architecture Comes to Workstations

Nvidia miała również kilka nowości dla użytkowników domowych. Producent układów zaprezentował swoje najnowsze procesory graficzne RTX dla stacji roboczych oparte na architekturze Ada Lovelace: RTX 5000, RTX 4500 i RTX 4000. Dzięki maksymalnie 7680 rdzeniom CUDA, te układy GPU zapewniają nawet 5-krotnie wyższą wydajność w porównaniu z kartami poprzedniej generacji do tworzenia sztucznej inteligencji, renderowania 3D, edycji wideo i innych wymagających profesjonalnych przepływów pracy.

Flagowy RTX 6000 Ada pozostaje najlepszym wyborem dla profesjonalistów wymagających maksymalnej wydajności. Nowa linia rozszerza jednak architekturę Ada Lovelace na szersze grono użytkowników. RTX 4000, 4500 i 5000 będą dostępne od 3 kwartału 2022 r. od głównych producentów OEM.

Jednak te nowe oferty nie są tanie. Ceny RTX 4000 zaczynają się od 1250 USD, a RTX 5000 od około 4000 USD.

Dla profesjonalistów i przedsiębiorstw przenoszących swoje inicjatywy AI na wyższy poziom, Nvidia zaprezentowała nowy procesor graficzny Nvidia L40 w skali centrum danych. Dzięki maksymalnie 18 176 rdzeniom CUDA i 48 GB pamięci vRAM, L40 zapewnia do 9,2 razy wyższą wydajność treningu AI niż A100.

Nvidia twierdzi, że globalni producenci serwerów planują oferować L40 w swoich systemach, umożliwiając firmom trenowanie gigantycznych modeli AI z optymalną wydajnością i oszczędnością kosztów. W połączeniu z oprogramowaniem Nvidia, L40 może stanowić kompletne rozwiązanie dla organizacji korzystających z AI.

Mikroserwisy natywne dla chmury usprawniają komunikację wideo

Kontynuując swój nacisk na zasilanie aplikacji wideo, Nvidia ogłosiła również nowy pakiet akcelerowanych przez GPU zestawów do tworzenia oprogramowania oraz natywną dla chmury usługę do edycji wideo o nazwie Maxine.

Maxine, oparta na sztucznej inteligencji, oferuje takie funkcje jak redukcja szumów, skalowanie w super rozdzielczości i symulowany kontakt wzrokowy podczas połączeń wideo, umożliwiając zdalnym użytkownikom prowadzenie naturalnych rozmów z niemal dowolnego miejsca.

Nvidia twierdzi, że partnerzy zajmujący się wizualnym opowiadaniem historii już zintegrowali Maxine z przepływami pracy, takimi jak wideokonferencje i edycja wideo.

Zestaw narzędzi upraszcza rozwój generatywnej sztucznej inteligencji

Wreszcie, Nvidia ogłosiła nadchodzącą wersję AI Workbench, ujednoliconej platformy, która usprawnia opracowywanie, testowanie i wdrażanie generatywnych modeli sztucznej inteligencji.

Zapewniając pojedynczy interfejs do zarządzania danymi, modelami i zasobami na różnych maszynach, AI Workbench umożliwia płynną współpracę i skalowanie od lokalnej stacji roboczej po infrastrukturę chmurową.

Dzięki najnowszej ofercie obejmującej sprzęt, oprogramowanie i usługi, Nvidia twierdzi, że zamierza przyspieszyć wdrażanie sztucznej inteligencji w przedsiębiorstwach dzięki kompleksowemu stosowi technologii stworzonemu do radzenia sobie z jej wieloma złożonościami.

Related Posts

Leave a Comment