Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Otra fuga alfa. misma técnica que usamos para KernelBench. Es un enfoque universal en su forma más simple.
Los ejemplos son todo lo que necesita: obtenga un buen resultado o una sola mejora, agregue al contexto, obtenga más buenos resultados con un contexto mejorado, agréguelos al contexto, ad inf...


22 jul, 11:19
Recientemente, Openai, Goolge alcanzó la medalla de oro de la OMI con sus nuevos modelos experimentales.
Pero nuestro equipo alcanzó el mismo nivel con solo o4-mini-high y nuestros sistemas de agentes. Y ahora lo estamos abriendo el código web.
Especialmente obtuvimos mejoras increíbles con los puntos de referencia de USAMO. La línea de base era casi 0, pero nuestro agente obtuvo un promedio del 90%.
También podríamos probar teóricamente los artículos recientes de arxiv que solo dan la idea clave de la investigación.

Realmente no tiene sentido entrenar modelos pequeños... Es mejor encontrar el programa ideal para alimentar a las máquinas más grandes.
Si desea la mejor distribución de salida, debe encontrar la distribución de entrada ideal, como en la práctica.
Puedes llegar allí de la nada siempre que tengas una forma de clasificar tus resultados.
La técnica de estos tipos parece sobredimensionada, aunque probablemente pueda ser mucho más simple.
La primera generación de KernelBench en o3-mini. simplemente llamamos a esto "superación personal".


30 abr 2025
we have an unverified SOTA result on KernelBench with o3-mini and an evolutionary examples tape: 208/250 claimed speedups, including 3 for Level 4 (prev untouched).
would be grateful for any help reviewing the optimized KernelBench kernels at .
thank you to @anneouyang and Stanford’s @ScalingIntelLab for agreeing to review them.

3.16K
Populares
Ranking
Favoritas