Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Emocionado de compartir nuestro nuevo trabajo: “Los Modelos de Lenguaje Mejoran Cuando los Datos de Preentrenamiento Coinciden con las Tareas Objetivo”
Sí, suena obvio (¡y lo es!), pero típicamente esto solo sucede de manera implícita e indirecta: seleccionar datos de manera intuitiva → referencia → refinar → repetir.
Nos preguntamos: ¿qué pasa si emparejamos explícitamente los datos de preentrenamiento con las referencias? El resultado es un enfoque muy simple que ofrece multiplicadores de computación de 2x+ sobre bases sólidas y nos proporciona una forma fundamentada de estudiar cómo las elecciones de referencia moldean (¡y restringen!) las capacidades del modelo.
Bonus: leyes de escalado extensas de entrenar más de 500 modelos que revelan cómo la selección óptima de datos evoluciona a medida que los modelos escalan.
🧵 (1/14)

52K
Parte superior
Clasificación
Favoritos