> 5 gigawatt Stargate AI datacenterkapacitet > över 2 miljoner marker Om dessa är GB200 skulle det vara 5M H100-ekvivalenter. Om alla används för att träna en modell kan det vara 2e28-4e28 FLOP för en sex månaders förträning + RLVR-körning. Detta skulle vara 1000 gånger den beräkning som används för GPT4. Vi får inte veta tidslinjer för denna utbyggnad, men jag skulle gissa senare än 2027. Min gissning är att de bästa modellerna i slutet av 2026 skulle vara ~2e27 compute.
OpenAI
OpenAI22 juli 20:04
Det är officiellt: vi utvecklar 4,5 gigawatt extra Stargate-datacenterkapacitet med Oracle i USA (för totalt 5+ GWs!). Och vår Stargate I-webbplats i Abilene, TX börjar komma online för att driva vår nästa generations AI-forskning.
12,52K