Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hoje estamos lançando ether0, nosso primeiro modelo de raciocínio científico.
Treinamos Mistral 24B com RL em várias tarefas de design molecular em química. Notavelmente, descobrimos que os LLMs podem aprender algumas tarefas científicas de forma mais eficiente em termos de dados do que modelos especializados treinados do zero com os mesmos dados, e podem superar em muito os modelos de fronteira e os humanos nessas tarefas. Para pelo menos um subconjunto de problemas de classificação científica, regressão e geração, os LLMs pós-treinamento podem fornecer uma abordagem muito mais eficiente em termos de dados do que as abordagens tradicionais de aprendizado de máquina. 1/n
90,25K
Top
Classificação
Favoritos