LLM中的幻觉不仅仅是错误;它们是预期的。那么,我们如何信任输出呢? 在最近的一次直播中,@Shonik14,@Mira_Network的首席幕僚,提出了一个尖锐的观点: // 即使是GPT-3.5也可能有高达27%的时间出现幻觉。 // 没有任何单一模型可以保证每次都有“正确答案”。 他们的解决方案? 一个类似于区块链的LLM共识机制。 ✅ 多个模型相互交叉检查 ✅ 答案被评分 ✅ 如果一个模型产生错误输出,它的股份会被削减 结果?一个激励系统,节点因准确输出而获得奖励,因胡说八道而受到惩罚。 这引发了一个更广泛的问题:模型共识是AI信任的未来吗?你会如何在你的代理基础设施中应用这个想法? 分享你的想法👇
2.42K