Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
As alucinações em LLMs não são apenas bugs; são esperadas. Então, como podemos confiar na saída?
Em uma transmissão recente, @Shonik14, Chefe de Gabinete @Mira_Network, trouxe uma opinião contundente:
// Mesmo o GPT-3.5 pode alucinar até 27% do tempo.
// Nenhum modelo único pode garantir uma "resposta certa" todas as vezes.
A solução deles?
Um mecanismo de consenso para LLMs, não muito diferente do que vemos em blockchains.
✅ Vários modelos se verificam mutuamente
✅ As respostas são pontuadas
✅ Se um modelo produzir saídas erradas, sua participação é reduzida
O resultado? Um sistema de incentivos onde os nós são recompensados por saídas precisas e penalizados por informações falsas.
Isso levanta uma questão mais ampla para a economia de agentes: O consenso de modelos é o futuro da confiança em IA? E como você aplicaria essa ideia na sua infraestrutura de agentes?
Compartilhe seus pensamentos👇
2,41K
Top
Classificação
Favoritos