> 5 gigawatt Stargate AI-datasenterkapasitet > over 2 millioner sjetonger Hvis disse er GB200, vil det være 5M H100-ekvivalenter. Hvis alle pleide å trene én modell, kan det være 2e28-4e28 FLOP for en seks måneders førtrening + RLVR-løp. Dette vil være 1000 ganger beregningen som brukes for GPT4. Vi får ikke vite tidslinjer for denne utbyggingen, men jeg vil gjette senere enn 2027. Min gjetning er at de beste modellene innen utgangen av 2026 vil være ~2e27 beregning.
OpenAI
OpenAI22. juli, 20:04
Det er offisielt: vi utvikler 4,5 gigawatt ekstra Stargate-datasenterkapasitet med Oracle i USA (for totalt 5+ GW!). Og Stargate I-nettstedet vårt i Abilene, TX begynner å komme online for å drive vår neste generasjons AI-forskning.
12,53K