230k GPUs, incluyendo 30k GB200s, están operativas para entrenar a Grok @xAI en un único supercluster llamado Colossus 1 (la inferencia la realizan nuestros proveedores de nube). En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comenzará a estar en línea en unas pocas semanas. Como ha declarado Jensen Huang, @xAI no tiene rival en velocidad. No hay comparación.
ALEX
ALEX13 oct 2024
El CEO de Nvidia, Jensen Huang, sobre Elon Musk y @xAI "Nunca se ha hecho antes: xAI hizo en 19 días lo que todos los demás necesitan un año para lograr. Eso es sobrehumano: solo hay una persona en el mundo que podría hacer eso: Elon Musk es singular en su comprensión de la ingeniería."
347,35K