> 5 Gigawatt Stargate AI-Rechenzentrums-Kapazität > über 2 Millionen Chips Wenn dies GB200 sind, wären das 5M H100-Äquivalente. Wenn alles verwendet wird, um ein Modell zu trainieren, könnte das 2e28-4e28 FLOP für ein sechsmonatiges Pretraining + RLVR-Lauf ergeben. Das wären 1000x die Rechenleistung, die für GPT4 verwendet wurde. Wir erfahren keine Zeitpläne für diesen Ausbau, aber ich schätze, dass es später als 2027 sein wird. Mein Schätzungswert ist, dass die besten Modelle bis Ende 2026 etwa ~2e27 Rechenleistung haben werden.
OpenAI
OpenAI22. Juli, 20:04
Es ist offiziell: Wir entwickeln 4,5 Gigawatt zusätzliche Stargate-Rechenzentrums-Kapazität mit Oracle in den USA (insgesamt über 5 GW!). Und unser Stargate I Standort in Abilene, TX beginnt online zu gehen, um unsere nächste Generation von KI-Forschung zu unterstützen.
11,9K