> 5 gigawatts de capacidade do data center Stargate AI > mais de 2 milhões de fichas Se forem GB200, seriam equivalentes a 5M H100. Se todos fossem usados para treinar um modelo, isso poderia ser 2e28-4e28 FLOP para um pré-treinamento de seis meses + corrida RLVR. Isso seria 1000x a computação usada para GPT4. Não conhecemos os cronogramas para essa construção, mas acho que depois de 2027. Meu palpite é que os melhores modelos até o final de 2026 seriam ~ 2e27 de computação.
OpenAI
OpenAI22 de jul., 20:04
É oficial: estamos desenvolvendo 4,5 gigawatts de capacidade adicional de data center Stargate com a Oracle nos EUA (para um total de 5+ GWs!). E nosso site Stargate I em Abilene, TX, está começando a ficar online para impulsionar nossa pesquisa de IA de próxima geração.
12,52K