GPU- och energikrig 2027-2030 kommer att vara två av de största katalysatorerna för DeAI. Håll utkik här.
Elon Musk
Elon Musk23 juli 00:54
230k GPU:er, inklusive 30k GB200s, är operativa för att träna Grok @xAI i ett enda superkluster som kallas Colossus 1 (inferens görs av våra molnleverantörer). På Colossus 2 börjar den första omgången av 550k GB200 och GB300, även för träning, att gå online om några veckor. Som Jensen Huang har sagt är @xAI oöverträffad i hastighet. Det är inte ens i närheten.
4,51K