Oggi stiamo rilasciando ether0, il nostro primo modello di ragionamento scientifico. Abbiamo addestrato Mistral 24B con RL su diverse attività di progettazione molecolare in chimica. Sorprendentemente, abbiamo scoperto che gli LLM possono apprendere alcuni compiti scientifici in modo molto più efficiente rispetto ai modelli specializzati addestrati da zero sugli stessi dati, e possono superare di gran lunga i modelli di frontiera e gli esseri umani in tali compiti. Per almeno un sottoinsieme di problemi scientifici di classificazione, regressione e generazione, gli LLM post-addestramento possono fornire un approccio molto più efficiente in termini di dati rispetto ai tradizionali approcci di apprendimento automatico. 1/n
90,23K