Lembre-se de quando você parou de aceitar pagamentos em bitcoin porque os mineradores não usavam "energia renovável" suficiente
Elon Musk
Elon Musk23 de jul., 00:54
230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar @xAI Grok em um único supercluster chamado Colossus 1 (a inferência é feita por nossos provedores de nuvem). No Colossus 2, o primeiro lote de 550k GB200s e GB300s, também para treinamento, começa a ficar online em algumas semanas. Como Jensen Huang afirmou, @xAI é incomparável em velocidade. Não está nem perto.
152,41K