Vandaag brengen we ether0 uit, ons eerste wetenschappelijke redeneermodel. We hebben Mistral 24B met RL getraind in verschillende moleculaire ontwerptaken in de chemie. Opmerkelijk genoeg ontdekten we dat LLM's sommige wetenschappelijke taken veel data-efficiënter kunnen leren dan gespecialiseerde modellen die helemaal opnieuw zijn getraind op dezelfde gegevens, en veel beter kunnen presteren dan grensmodellen en mensen op die taken. Voor ten minste een subset van wetenschappelijke classificatie-, regressie- en generatieproblemen kunnen LLM's na de training een veel gegevensefficiëntere aanpak bieden dan traditionele machine learning-benaderingen. 1/n
90,25K