230.000 GPUs, darunter 30.000 GB200s, sind für das Training von Grok @xAI in einem einzigen Supercluster namens Colossus 1 in Betrieb (die Inferenz erfolgt durch unsere Cloud-Anbieter). Im Colossus 2 wird die erste Charge von 550.000 GB200s & GB300s, ebenfalls für das Training, in ein paar Wochen online gehen. Wie Jensen Huang gesagt hat, ist @xAI in Bezug auf Geschwindigkeit unübertroffen. Es ist nicht einmal annähernd vergleichbar.
ALEX
ALEX13. Okt. 2024
Nvidia-CEO Jensen Huang über Elon Musk und @xAI „Wurde noch nie zuvor gemacht – xAI hat in 19 Tagen erreicht, was alle anderen ein Jahr brauchen. Das ist übermenschlich – Es gibt nur eine Person auf der Welt, die das tun könnte – Elon Musk ist einzigartig in seinem Verständnis von Ingenieurwesen.“
347,34K