¡Qué fin de semana tan salvaje sobre IA y IMO! Mirando hacia atrás en los últimos 3 días, fui testigo de: > Viernes por la tarde: información filtrada sobre DeepMind ganando oro > Sábado a la 1am: OpenAI adelantó el anuncio oficial, robando el protagonismo > Inicialmente pensé que Google solo estaba lento debido a la aprobación de marketing > Luego escuché de personas de Google que IMO y ellos mismos necesitaban más tiempo para la verificación > Resulta que OpenAI ni siquiera involucró a IMO oficialmente > Lunes: DeepMind confirmó su oro con respuestas más limpias y estéticas, completamente verificadas por el IMO Fue divertido ser el primero en compartir la noticia en X el pasado viernes. ¡Qué fin de semana tan salvaje! Bromas aparte, hay mucho bombo alrededor de la IA matemática últimamente, pero lo que necesitamos más es rigor y estandarización. Como señaló Terence Tao, incluso si los resultados parecen similares, las diferencias en el formato de prueba pueden hacer una gran diferencia. Aún estamos lejos de tener estándares y mensajes claros y consistentes en la investigación de IA. Si queremos un progreso significativo, es hora de que la comunidad se involucre. Construyamos benchmarks en los que todos podamos confiar.
Jasper
Jasper19 jul, 06:25
Hace solo 20 minutos, se publicó el resultado de la IMO 2025. China ocupó el primer lugar y @GoogleDeepMind ganó una medalla de oro 🥇 Las futuras competiciones de matemáticas serán el equipo de China contra el equipo chino de EE. UU. contra la IA.
4,29K