Heute veröffentlichen wir ether0, unser erstes wissenschaftliches Denkmodell. Wir haben Mistral 24B mit RL für verschiedene molekulare Designaufgaben in der Chemie trainiert. Bemerkenswerterweise haben wir festgestellt, dass LLMs einige wissenschaftliche Aufgaben dateneffizienter lernen können als spezialisierte Modelle, die von Grund auf mit denselben Daten trainiert wurden, und bei diesen Aufgaben Frontier-Modelle und Menschen bei diesen Aufgaben deutlich übertreffen können. Für zumindest eine Teilmenge der wissenschaftlichen Klassifikations-, Regressions- und Generierungsprobleme können LLMs nach dem Training einen viel dateneffizienteren Ansatz bieten als herkömmliche Ansätze des maschinellen Lernens. 1/n
90,24K