honnêtement, c'est quoi ce bordel lol
Elon Musk
Elon Musk23 juil., 00:54
230k GPU, dont 30k GB200, sont opérationnels pour entraîner Grok @xAI dans un supercluster unique appelé Colossus 1 (l'inférence est effectuée par nos fournisseurs de cloud). Au Colossus 2, le premier lot de 550k GB200 et GB300, également pour l'entraînement, commencera à être mis en ligne dans quelques semaines. Comme l'a déclaré Jensen Huang, @xAI est inégalé en vitesse. Ce n'est même pas comparable.
17,04K