szczerze, co do cholery lol
Elon Musk
Elon Musk23 lip, 00:54
230 tys. GPU, w tym 30 tys. GB200, są w użyciu do szkolenia Grok @xAI w jednym superklastrze zwanym Colossus 1 (wnioskowanie odbywa się przez naszych dostawców chmury). W Colossus 2 pierwsza partia 550 tys. GB200 i GB300, również do szkolenia, zacznie działać za kilka tygodni. Jak stwierdził Jensen Huang, @xAI nie ma sobie równych pod względem prędkości. To nawet nie jest bliskie.
17,03K