Erinnerst du dich, als du aufgehört hast, Bitcoin-Zahlungen zu akzeptieren, weil die Miner nicht genug "erneuerbare Energie" nutzten?
Elon Musk
Elon Musk23. Juli, 00:54
230.000 GPUs, darunter 30.000 GB200s, sind für das Training von Grok @xAI in einem einzigen Supercluster namens Colossus 1 in Betrieb (die Inferenz erfolgt durch unsere Cloud-Anbieter). Im Colossus 2 wird die erste Charge von 550.000 GB200s & GB300s, ebenfalls für das Training, in ein paar Wochen online gehen. Wie Jensen Huang gesagt hat, ist @xAI in Bezug auf Geschwindigkeit unübertroffen. Es ist nicht einmal annähernd vergleichbar.
169,24K