As alucinações em LLMs não são apenas bugs; são esperadas. Então, como podemos confiar na saída? Em uma transmissão recente, @Shonik14, Chefe de Gabinete @Mira_Network, trouxe uma opinião contundente: // Mesmo o GPT-3.5 pode alucinar até 27% do tempo. // Nenhum modelo único pode garantir uma "resposta certa" todas as vezes. A solução deles? Um mecanismo de consenso para LLMs, não muito diferente do que vemos em blockchains. ✅ Vários modelos se verificam mutuamente ✅ As respostas são pontuadas ✅ Se um modelo produzir saídas erradas, sua participação é reduzida O resultado? Um sistema de incentivos onde os nós são recompensados por saídas precisas e penalizados por informações falsas. Isso levanta uma questão mais ampla para a economia de agentes: O consenso de modelos é o futuro da confiança em IA? E como você aplicaria essa ideia na sua infraestrutura de agentes? Compartilhe seus pensamentos👇
2,41K