> 5 gigawatów mocy centrum danych Stargate AI > ponad 2 miliony chipów Jeśli to są GB200, to byłoby 5M równoważników H100. Jeśli wszystkie byłyby użyte do trenowania jednego modelu, mogłoby to dać 2e28-4e28 FLOP na sześciomiesięcznym wstępnym treningu + RLVR. To byłoby 1000x obliczeń użytych dla GPT4. Nie mamy informacji o harmonogramach tej budowy, ale zgaduję, że później niż w 2027 roku. Moim zdaniem najlepsze modele do końca 2026 roku będą miały ~2e27 obliczeń.
OpenAI
OpenAI22 lip, 20:04
To oficjalne: rozwijamy dodatkową pojemność centrum danych Stargate o 4,5 gigawata z Oracle w USA (łącznie ponad 5 GW!). A nasze miejsce Stargate I w Abilene, TX zaczyna działać, aby zasilać nasze badania nad sztuczną inteligencją nowej generacji.
12,54K