eigenlijk wat de fuck lol
Elon Musk
Elon Musk23 jul, 00:54
230k GPU's, waaronder 30k GB200's, zijn operationeel voor het trainen van Grok @xAI in een enkele supercluster genaamd Colossus 1 (inferentie wordt gedaan door onze cloudproviders). Bij Colossus 2 gaat de eerste batch van 550k GB200's & GB300's, ook voor training, over een paar weken online. Zoals Jensen Huang heeft verklaard, is @xAI ongeëvenaard in snelheid. Het is niet eens in de buurt.
17,04K