I dag lanserer vi ether0, vår første vitenskapelige resonnementmodell. Vi trente Mistral 24B med RL på flere molekylære designoppgaver innen kjemi. Bemerkelsesverdig nok fant vi ut at LLM-er kan lære noen vitenskapelige oppgaver mer dataeffektivt enn spesialiserte modeller trent fra bunnen av på de samme dataene, og kan overgå grensemodeller og mennesker på disse oppgavene. For minst en undergruppe av vitenskapelige klassifiserings-, regresjons- og generasjonsproblemer, kan LLM-er etter opplæring gi en mye mer dataeffektiv tilnærming enn tradisjonelle maskinlæringstilnærminger. 1/n
90,23K