Hoje estamos lançando ether0, nosso primeiro modelo de raciocínio científico. Treinamos Mistral 24B com RL em várias tarefas de design molecular em química. Notavelmente, descobrimos que os LLMs podem aprender algumas tarefas científicas com mais eficiência de dados do que modelos especializados treinados do zero nos mesmos dados e podem superar em muito os modelos de fronteira e os humanos nessas tarefas. Para pelo menos um subconjunto de problemas científicos de classificação, regressão e geração, os LLMs pós-treinamento podem fornecer uma abordagem muito mais eficiente em termos de dados do que as abordagens tradicionais de aprendizado de máquina. 1/n
90,25K