230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar @xAI Grok em um único supercluster chamado Colossus 1 (a inferência é feita por nossos provedores de nuvem). No Colossus 2, o primeiro lote de 550k GB200s e GB300s, também para treinamento, começa a ficar online em algumas semanas. Como Jensen Huang afirmou, @xAI é incomparável em velocidade. Não está nem perto.
ALEX
ALEX13 de out. de 2024
O CEO da Nvidia, Jensen Huang, fala sobre Elon Musk e @xAI "Nunca foi feito antes – o xAI fez em 19 dias o que todo mundo precisa de um ano para realizar. Isso é sobre-humano – há apenas uma pessoa no mundo que poderia fazer isso – Elon Musk é singular em sua compreensão da engenharia."
347,37K