Aujourd’hui, nous lançons ether0, notre premier modèle de raisonnement scientifique. Nous avons formé Mistral 24B avec RL sur plusieurs tâches de conception moléculaire en chimie. Remarquablement, nous avons constaté que les LLM peuvent apprendre certaines tâches scientifiques de manière plus efficace que les modèles spécialisés formés à partir de zéro sur les mêmes données, et peuvent largement surpasser les modèles frontières et les humains sur ces tâches. Pour au moins un sous-ensemble de problèmes de classification scientifique, de régression et de génération, les LLM post-formation peuvent fournir une approche beaucoup plus efficace en termes de données que les approches traditionnelles d’apprentissage automatique. 1/n
90,25K