DeepMind ha ottenuto una medaglia d'oro all'IMO venerdì pomeriggio. Ma hanno dovuto aspettare che il marketing approvasse il tweet — fino a lunedì. @OpenAI ha condiviso il proprio per primo alle 1 del mattino di sabato e ha rubato la scena. In questo gioco, la velocità > burocrazia. Perdi il momento, perdi la narrazione.
Jasper
Jasper19 lug, 06:25
Solo 20 minuti fa, il risultato dell'IMO 2025 è stato pubblicato. La Cina si è classificata al primo posto e @GoogleDeepMind ha vinto una medaglia d'oro 🥇 Le future competizioni matematiche saranno tra la squadra cinese e la squadra cinese degli USA contro l'IA.
Chiarimento: mi è stato detto da qualcuno di Google che i loro risultati IMO sono ancora in fase di verifica. Una volta completato quel processo, intendono condividerli ufficialmente. Non vedo l'ora di vedere il loro approccio.
Chiarimento: mi è stato detto da qualcuno di Google che i loro risultati IMO sono ancora in fase di verifica interna. Una volta completato, prevedono di condividerli ufficialmente—curioso di vedere il loro approccio. Un'altra fonte ha menzionato che il comitato IMO ha chiesto di non discutere pubblicamente il coinvolgimento dell'IA entro una settimana dopo la cerimonia di chiusura. Le cose sono diventate un po' più interessanti 🧐
@OpenAI Alcuni aggiornamenti qui
Jasper
Jasper20 ore fa
Potremmo essere in procinto di un colpo di scena nella saga OpenAI vs. DeepMind IMO. Ho appena visto un post di Joseph Myers (coinvolto nelle Olimpiadi di Matematica dal 1992): il comitato IMO avrebbe chiesto ai laboratori di intelligenza artificiale di non pubblicare i risultati fino a 7 giorni dopo la cerimonia di chiusura — per rispetto nei confronti dei concorrenti umani (vedi il mio post di ieri) e probabilmente per consentire il tempo necessario per una corretta verifica delle sottomissioni e dei formati AI. Secondo Joseph, OpenAI non ha collaborato con l'IMO per testare il proprio modello, e nessuno dei 91 coordinatori ufficiali dell'IMO è stato coinvolto nella valutazione delle sue soluzioni. Nel frattempo, sembra che DeepMind stia seguendo le regole e stia aspettando pazientemente il proprio turno. Per contesto: L'IMO ha 6 problemi, ciascuno vale 7 punti. Il limite per la medaglia d'oro di quest'anno è di 35 punti. Anche una piccola deduzione potrebbe far scendere OpenAI a argento. E dalla mia lettura dei loro scritti, alcune parti potrebbero sollevare domande — e possibilmente costare punti. Terence Tao ha anche sottolineato che mentre i problemi rimangono gli stessi, i formati di test sono importanti. Uno studente che non otterrebbe un bronzo in condizioni standard potrebbe ottenere l'oro con un setup modificato — il che solleva vere domande su cosa significhi "risolvere l'IMO" per l'AI. La prossima settimana potrebbe essere piccante. Rimanete sintonizzati.
215K