Artificiell intelligens och maskininlärning är fortsatt på tapeten. För att driva de tunga språkmodellerna har produkter baserade på Nvidias högpresterande H100-krets seglat upp som bland de mest åtråvärda i branschen. Moduler och instickskort utrustade med H100 kan kosta hundratusentals kronor och i en ny uppskattning uppges bolaget kamma hem en ordentlig vinstmarginal.

Informationen har letat sig sig ut via sociala medier, där ekonomijournalisten Tae Kim citerar siffror från konsultbolaget och finansiella rådgivaren Raymond James (via Tom's Hardware). De uppger att Nvidias kostnader per H100-krets ligger på cirka 3 320 USD, vilket motsvarar cirka 36 500 kronor. Med ett pris från cirka 300 000 kronor styck till slutkund ger det pålägg om runt 800 procent per enhet.

Tae Kim går inte in på hur djupgående analysen av Nvidias kostnader är eller exakt vad den baseras på. Det framgår inte om det handlar om renodlad tillverkningskostnad för kretsen, beräknat exempelvis på snittpriser för komponenter och material, eller om informationen utgår från en komplett färdig produkt inklusive utvecklingskostnader.

Skulle det handla om det förstnämnda är Nvidias slutkostnad sannolikt betydligt högre. Vid prissättning räknas generellt sett även kostnader relaterade till produktutveckling in i slutpriset, tillsammans med kostnader för produktion och tillverkning av övriga komponenter som grafikkretsarna sedan paras med i moduler och instickskort.

Med det sagt är det tydligt att AI-trenden fyller Nvidias kassa till brädden. Under årets första kvartal ökade bolagets datacenterkategori med 14 procent och slog rekord med en omsättning på 4,28 miljarder USD, motsvarande hela 46 miljarder kronor. Försäljningen ska därtill gå som på räls och Nvidia uppges ha orderböckerna fulla fram till år 2024.