I mars år 2022 presenterade Nvidia sin nya arkitektur "Hopper" för datacenterbruk med den gigantiska beräkningskretsen H100 i spetsen. Med sin fokus på maskininlärning och AI-applikationer har kretsen varit en minst sagt lyckosam historia för bolaget, där efterfrågan kraftigt överstiger tillgången – något som innebär kraftigt ökade priser per krets. Detta har gjort riktigt positiva avtryck i Nvidias kassa, då företaget sålde AI-hårdvara för hela 141 miljarder kronor under förra kvartalet.

Under evenemanget Supercomputing 23 passar Nvidia på att avtäcka en uppdaterad version av "Hopper" H100, vilken får beteckningen H200. Kretsen i sig är egentligen inte helt ny, då den tidigare presenterats som en del av den uppdaterade "superkretsen" Grace Hopper GH200, men här bryter man ut själva grafikkretsen till en separat produkt. Likt den upphottade versionen av Grace Hopper är den stora nyheten med H200 ett skifte till grafikminnesstandarden HBM3E.

För H100 använde Nvidia 80 GB HBM3-minne, vilket kördes i 4,8 Gbps på en 5 120 bitar bred minnesbuss. Med H200 tar bolaget steget till den nystöpta standarden HBM3E och ökar kapaciteten till 141 GB per krets. Här körs kretsarna i 6,5 Gbps över en bredare minnesbuss på 6 144 bitar – något som ger en teoretisk minnesbandbredd om 4,8 TB/s. Detta är en ökning i minnesbandbredd med drygt 43 procent över H100 som erbjöd 3,35 TB/s.

Den färska kretsen tar plats på serverplattformen HGX H200, vilken kombinerar antingen fyra eller åtta H200-kretsar på samma moderkort. Nvidia väntas skeppa de nya kretsarna under 2024 års andra kvartal och bland de första kunderna syns Amazon, Google, Microsoft och Oracle.