Astăzi lansăm ether0, primul nostru model de raționament științific. Am antrenat Mistral 24B cu RL pe mai multe sarcini de proiectare moleculară în chimie. În mod remarcabil, am descoperit că LLM-urile pot învăța unele sarcini științifice mai eficient decât modelele specializate antrenate de la zero pe aceleași date și pot depăși cu mult modelele de frontieră și oamenii în aceste sarcini. Pentru cel puțin un subset de probleme științifice de clasificare, regresie și generare, LLM-urile post-antrenament pot oferi o abordare mult mai eficientă din punct de vedere al datelor decât abordările tradiționale de învățare automată. 1/n
90,27K