Zuerst war es @sama, jetzt ist es @elonmusk – jeder spricht über die Anforderung von 100x mehr GPUs für KI-Anwendungen. Die Zukunft sieht für Aethir hell aus 🔥, da wir dezentrale GPU-Computing-Lösungen anbieten, die skalierbar sind.
Elon Musk
Elon Musk23. Juli, 00:54
230.000 GPUs, darunter 30.000 GB200s, sind für das Training von Grok @xAI in einem einzigen Supercluster namens Colossus 1 in Betrieb (die Inferenz erfolgt durch unsere Cloud-Anbieter). Im Colossus 2 wird die erste Charge von 550.000 GB200s & GB300s, ebenfalls für das Training, in ein paar Wochen online gehen. Wie Jensen Huang gesagt hat, ist @xAI in Bezug auf Geschwindigkeit unübertroffen. Es ist nicht einmal annähernd vergleichbar.
19,08K