De ce echipele de pre-instruire și post-instruire trebuie să se înțeleagă
David Mizrahi
David Mizrahi18 iul., 06:21
Suntem încântați să împărtășim noua noastră lucrare: "Modelele lingvistice se îmbunătățesc atunci când datele de preantrenament se potrivesc cu sarcinile țintă" Da, sună evident (și este!), dar de obicei acest lucru se întâmplă doar implicit și indirect: selectați intuitiv datele → benchmark → rafinați → repetați. Ne-am întrebat: ce se întâmplă dacă potrivim în mod explicit datele de pre-antrenament cu benchmark-urile? Rezultatul este o abordare simplă care produce multiplicatori de calcul de 2x+ pe linii de bază puternice și ne oferă o modalitate principială de a studia modul în care alegerile de referință modelează (și constrâng!) capabilitățile modelului. Bonus: legi extinse de scalare din antrenarea a 500+ modele care dezvăluie modul în care selecția optimă a datelor evoluează pe măsură ce modelele se scalează. 🧵 (1/14)
2,68K