Hoy lanzamos ether0, nuestro primer modelo de razonamiento científico. Entrenamos a Mistral 24B con RL en varias tareas de diseño molecular en química. Sorprendentemente, descubrimos que los LLM pueden aprender algunas tareas científicas de manera más eficiente en cuanto a datos que los modelos especializados entrenados desde cero con los mismos datos, y pueden superar en gran medida a los modelos de frontera y a los humanos en esas tareas. Para al menos un subconjunto de problemas científicos de clasificación, regresión y generación, los LLM posteriores al entrenamiento pueden proporcionar un enfoque mucho más eficiente en cuanto a los datos que los enfoques tradicionales de aprendizaje automático. 1/n
90.24K