Una de las empresas más interesantes en SF en mi opinión Haré un artículo sobre por qué @sfcompute es una perspectiva tan interesante sobre hacia dónde se dirige el mercado de las GPU... Mientras tanto, consigue GPUs por un 85% más baratas que los hyperscalers 👇
evan conrad
evan conrad3 jul, 01:57
Nos hemos asociado con Modular para crear Large Scale Inference (LSI), un nuevo servicio de inferencia compatible con OpenAI. Es hasta un 85% más barato que otras ofertas y puede manejar escalas de billones de tokens. Lo creamos originalmente a solicitud de un importante laboratorio de IA para realizar la creación de datos sintéticos multimodales a gran escala a decenas de millones de dólares más barato que las alternativas. A diferencia de otros servicios, LSI utiliza precios de mercado. Los precios de los tokens son una función del precio de computación subyacente en sfcompute y la carga actual del sistema. En otras palabras, siempre es el mejor precio, para siempre. Muchos han afirmado que la inferencia es una carrera hacia el fondo, así que te vendemos el fondo. LSI está construido sobre el marco de inferencia MAX y Mammoth de Modular, un rediseño altamente optimizado de la pila de servicio, con soporte para múltiples chips. Entre la ingeniería de clase mundial de Modular y las implacables optimizaciones de precios de SFC, estamos comprometidos a crear la inferencia de mejor rendimiento y mejor precio en el mundo. Para obtener una cotización, por favor contáctanos. Llevamos a cabo un proceso personalizado con cada cliente para optimizar tus requisitos específicos, y solo implementamos cuando el precio y el rendimiento cumplen con tus expectativas. Si bien apoyamos la mayoría de los modelos de código abierto (DeepSeek, Llama, Qwen, etc.), nuestro proceso personalizado nos permite ejecutar modelos personalizados o requisitos específicos según tus circunstancias. Los DMs están abiertos o puedes contactarnos en el enlace a continuación.
7,39K