Amintiți-vă când ați încetat să mai acceptați plăți în bitcoin pentru că minerii nu au folosit suficientă "energie regenerabilă"
Elon Musk
Elon Musk23 iul., 00:54
230k GPU-uri, inclusiv 30k GB200, sunt operaționale pentru antrenarea Grok @xAI într-un singur supercluster numit Colossus 1 (inferența este făcută de furnizorii noștri de cloud). La Colossus 2, primul lot de 550k GB200 și GB300, tot pentru instruire, începe să fie online în câteva săptămâni. După cum a declarat Jensen Huang, @xAI este de neegalat în viteză. Nici măcar nu este aproape.
169,25K