Dzisiaj wypuszczamy ether0, nasz pierwszy model rozumowania naukowego. Przeszkoliliśmy Mistrala 24B z RL w zakresie kilku zadań projektowania molekularnego w chemii. Co ciekawe, odkryliśmy, że LLM mogą uczyć się niektórych zadań naukowych bardziej efektywnie niż wyspecjalizowane modele wytrenowane od podstaw na tych samych danych i mogą znacznie przewyższać modele graniczne i ludzi w tych zadaniach. W przypadku co najmniej podzbioru problemów związanych z klasyfikacją naukową, regresją i generowaniem, LLM po szkoleniu mogą zapewnić znacznie bardziej wydajne podejście do danych niż tradycyjne podejścia do uczenia maszynowego. 1/n
90,24K