> 5 gigawatts de capacité de centre de données Stargate AI > plus de 2 millions de puces Si ce sont des GB200, cela représenterait 5 millions d'équivalents H100. Si tout cela est utilisé pour entraîner un modèle, cela pourrait représenter entre 2e28 et 4e28 FLOP pour un pré-entraînement de six mois + un run RLVR. Cela représenterait 1000 fois la puissance de calcul utilisée pour GPT4. Nous n'avons pas de délais pour cette construction, mais je parierais que ce sera après 2027. Je parie que les meilleurs modèles d'ici la fin de 2026 seraient d'environ 2e27 de puissance de calcul.
OpenAI
OpenAI22 juil., 20:04
C'est officiel : nous développons 4,5 gigawatts de capacité supplémentaire pour le centre de données Stargate avec Oracle aux États-Unis (pour un total de plus de 5 GW !). Et notre site Stargate I à Abilene, TX commence à être opérationnel pour alimenter notre recherche en IA de nouvelle génération.
12,54K