Ricordi quando hai smesso di accettare pagamenti in bitcoin perché i miner non utilizzavano abbastanza "energia rinnovabile"?
Elon Musk
Elon Musk23 lug, 00:54
230k GPU, inclusi 30k GB200, sono operativi per l'addestramento di Grok @xAI in un singolo supercluster chiamato Colossus 1 (l'inferenza è gestita dai nostri fornitori di cloud). Nel Colossus 2, il primo lotto di 550k GB200 e GB300, sempre per l'addestramento, inizierà a essere attivato tra poche settimane. Come ha dichiarato Jensen Huang, @xAI è senza pari in velocità. Non è nemmeno paragonabile.
169,24K